Некоторые результаты моделирования сетевого интеллекта. Проблема сознания и мозга, искусственный интеллект

Анализ статьи Серла «Сознание, мозг и программы» Статья представляет собой попытку автора опровергнуть два тезиса, которые выдвигаются сторонниками «сильной версии» искусственного интеллекта, а именно: 1. Тезис о том, что компьютер обладает некоторыми «когнитивными состояниями» (среди которых, главным образом, рассматривается понимание) 2. Тезис о том, что компьютер способен объяснять человеческое познание. Серл рассматривает эксперимент, описанный в работе Шэнка, в ходе которого компьютерная программа как будто бы ведет себя также, как человек, понимающий определенную ситуацию. Серл задается вопросом, действительно ли машина проявляет способность, аналогичную человеческой способности понимания и формулирует отрицательный ответ на этот вопрос. Таким образом, тезис, защищаемый автором, заключается в том, что никакого понимания у компьютера нет и это просто невозможно. Для подтверждения своей позиции автор описывает мысленный эксперимент, в ходе которого на этот раз человек, не обладающий никаким пониманием китайского ведет себя аналогично действиям компьютерной программы. Намерение автора заключается в том, чтобы показать, что выполнение определенных указаний человеком, у которого отсутствует подлинное понимание того, что он делает (в силу незнания языка «программы») возможно, более того, это выполнение можно довести до почти идеального, автоматического уровня, однако, это не свидетельствует в пользу того факта, что в ходе улучшения процесса выполнения команд человек начинает понимать их язык или хотя бы приближается к этому. Этот контр-пример, по мысли Серла, должен показать, что и компьютер может работать в этой ситуации, что вывод о том, что компьютер обладает подлинным пониманием ситуации из того факта, что он хорошо справляется с формулируемой задачей, является попросту необоснованным. На описание своего мысленного эксперимента Серл получил несколько ответов от людей, занимающихся изучением искусственного интеллекта, при этом они сильно отличались между собой. Далее в статье автор рассматривает ряд этих ответов и предпринимает попытку их анализа. Рассмотрим некоторые из приведенных ответов и попытки Серла их проанализировать 1. 1. Первый ответ Серлу («Ответ от систем») заключается в том, что индивид, описанный Серлом может и не обладать пониманием, тогда как пониманием обладает 1 Мы рассмотрим не все полученные Серлом ответы, а только те из них, которые являются либо наиболее общими, либо наиболее дискуссионными. Соответственно, мы оставим за рамками рассмотрения те их них, ответы на которые уже так или иначе включаются в ответы на другие, более общие возражения. вся система, в которую он вписан. Серл, в свою очередь, отвечает на это возражение тем, что работающего с китайскими символами человека можно было бы рассматривать и как систему, если, допустим, он выучит наизусть все символы, которые он раньше получал от других людей, а также выучит наизусть все правила, с помощью которых он оперирует этими символами. К тому же, если довести его способность производить вычислительные операции над символами почти до автоматической, то, по мысли Серла, в системе не останется больше ничего, что не охватывалось бы способностями человека. Тем не менее, некоторые сторонники ИИ утверждают, что человек с этими «улучшенными» способностями заключает в себе две подсистемы: манипулирующую английским языком на мета-уровне и формально манипулирующую китайским как объектным. Для Серла же между этими двумя подсистемами - принципиальный разрыв: английский этот человек понимает, но китайский, по его мнению, ни в какой форме нет. То, что делает этот человек с китайскими символами, по его мнению - лишь манипуляции над символами, значения которых человек может вовсе и не знать, несмотря на то, что он знает правила манипулирования алфавитом, то есть знаком со способом получения новых слов. Серл сводит подсистему, манипулирующую китайскими символами к английской подсистеме, заявляя, что понимание принципиально возможно только относительно последней. Серл считает, что с формальной точки зрения человек может рассматривать символы китайского языка как не нагруженные никакой информацией. В противном случае, большинство некогнитивных (не способных к когнитивным процессам) систем должны быть признаны когнитивными. На мой взгляд, в своих утверждениях Серл прав. Действительно, человек, выучивший все символы и правила китайского обладает бОльшим объемом знаний. Более того, ему больше не нужно получать данные от внешних агентов. В этом смысле он работает как замкнутая (самодостаточная) система, к тому же, действительно, его непонимание китайского так и остается непониманием, подразумевающим только формальное оперирование символами по правилам. Но можно, однако, возразить, что приведенный Серлом ответ не является в полном смысле ответом на возражение теории систем. Дело в том, что это возражение строится на разделении «внутренней работы» человека и внешней по отношению к нему системы - людей, которые дают ему эти данные и которые обладают пониманием китайского. В этом смысле принципиальный момент возражения относится к тому факту, что человек может работать чисто формально, то есть совершать чисто синтаксические переходы, тогда как семантика системы всегда будет внешней по отношению к его работе. Тогда получается, что даже если человек научился большему количеству процессов (более богатый алфавит + операции), его «система» стала богаче, но в то же время богаче должна стать и «семантика» его системы. Попросту говоря, он не выучивает произвольный алфавит и не запоминает произвольные правила оперирования с символами, - он выучивает именно то, что представляют ему носители китайского языка (или те, кто понимают китайский). А этот факт говорит о том, что даже более «богатая система» работающего должна быть вписана во всегда более богатую систему «семантики». 2 . «Ответ от моделирования работы мозга» заключается в утверждении о том, что можно написать программу, которая будет искусственно моделировать последовательность возбуждения нейронов в мозге человека, понимающего китайский язык. Машина, работающая на основании такой программы (или набора параллельно работающих программ) будет получать на входе вопросы, задаваемые на китайском языке, в процессе переработки модулирует действительную работу мозга, а на выходе выдает ответ, который мог бы дать носитель китайского. Такая машина, по мысли авторов этого ответа, в действительности моделирует работу мозга носителя китайского языка, соответственно, необходимо признать, что она, также, как и носитель китайского языка, обладает пониманием языка. На это возражение Серл отвечает следующим образом: даже так сложно устроенная машина не может обладать аналогичным пониманием. По его мнению, этот тезис можно доказать на контр-примере: сконструировать сложных механизм, соединяющий между собой множество шлангов клапанами. При получении человеком (который все еще не знает китайского) сигнала на китайском, он сверяется с программой и открывает/закрывает определенные клапаны. При этом, по мысли Серла, каждое соединение представляет собой именно синапсу, протекающему в человеческом мозге, поэтому ряд открытий и закрытий клапанов приводит к результату - выдаче на выходе ответа на китайском. При этом ясно, что человек, регулирующий шланги, все еще не обладает знанием китайского, так же, как и, очевидно, ни шланги, ни клапаны им не обладают. И моделирование формальной последовательности нейронных связей не обеспечивает понимания, так как не моделирует каузальной способности мозга. Иными словами, для понимания не достаточно воспроизвести эту последовательность возбуждений, способность продуцировать интенциональные состояния остается незатронутой. На мой взгляд, сравнение Серла модели работы мозга с системой шлангов и клапанов не является в полной мере аргументом при ответе на это возражение. В ответе было сформулировано, что программа моделирует последовательность возбуждения нейронов, что, на мой взгляд, является более сложным механизмом, чем тот, который описал Серл. Однако, судить о том, как именно происходит это моделирование из приведенного ответа нельзя, здесь необходимо было бы углубиться в подробности работы конкретной программы, чего авторы ответа делать не хотели. Иными словами, судить о корректности этого возражения на основании недостаточных данных невозможно, остается вероятность, что, допустим, изучив работу конкретной программы мы могли бы как согласиться с этим возражением, так и опровергнуть его. 3. «Комбинированный ответ» представляет собой попытку составления трех предыдущих ответов2 в о д и н. Иными словами, авторы предлагают создание гипотетического робота, который работает на основе программы, аналогичной человеческому мозгу, и поведение которого неотличимо от поведения человека. И вот такой системе, по мнению авторов ответа, мы вынуждены приписать интенциональность. Серл отвечает, что действительно, мы вынуждены были бы признать, что такая система обладает интенциональностью, поскольку мы могли бы судить о ее работе только по внешним признакам. Однако, далее он продолжает, что это возражение не относится к претензиями сильного ИИ, утверждая лишь, что возможно смоделировать робота, внешнее поведение которого будет неотличимо от поведения человека. И на основании этого поведения мы могли бы сделать допущение об интенциональности, но только пока не доказано обратное. Однако, по мысли Серла, более глубокие знания о работе такого робота не позволили бы нас сделать такого вывода: если бы мы знали, что он работает на основе формальной программы, мы бы опять признали, что из этого мы не можем вывести тезиса о том, что он обладает ментальными состояниями (и здесь Серл воспроизводит свой ответ на предыдущее возражение). Мы могли бы предположить, что работу этого робота координирует человек, который также интерпретирует формальные символы, как и раньше. И этот факт доказывает, что гипотеза о наличии понимания является необоснованной: человек, координирующий поведение робота все так же не понимает бессмысленные для него символы китайского, хотя с помощью английских правил ему отлично удается воспроизводить такое поведение робота, которое внешне неотличимо от поведения человека. На мой взгляд, Серл действительно прав в своем возражении. В силу того, что поведение робота схоже с человеческим, мы не могли бы сделать вывода о внутренней 2 Из которых мы не перечислили «ответ от робота», возражение на который охватывается тем возражением, которое Серл приводит в ответ на первый контр-аргумент. работе его программы. А если бы мы действительно узнали, что программа работает также формально, то предыдущий аргумент Серла является и здесь корректным. Другое дело, что Серл снова отвечает на возражение не совсем контр-аргументом, а примером, который просто подтверждает его тезис. 4 . «Ответ от нескольких обиталищ» предполагает, что в будущем возможно создание более мощных компьютеров, которые будут способны воспроизводить каузальные процессы в мозге, которые влияют на наличие интенциональности, то есть утверждает, что даже если на данный момент ИИ не создан, а находится на стадии разработок, тем не менее, ничего не мешает его созданию на основе более мощной технологической базы. Серл отвечает, что этот аргумент также не соотносится с тем, что он назвал претензией сильного ИИ, а именно с утверждением о том, что ментальные процессы человека могут быть сведены и воспроизведены в виде вычислительного процесса, производимого компьютером, который работает на основе формальной программы. Автор стремится подчеркнуть именно разрыв между уровнем формального вычисления и уровнем каузальных процессов человеческого мозга. И именно каузальных процессов и не хватает машине для того, чтобы суметь воспроизвести интенциональность. Я считаю, что и этот ответ Серла обоснован. Действительно, в начале своей статьи он постулирует два тезиса, которые будет пытаться опровергнуть. В этом смысле, он и правда не ставит себе цель отрицать возможность разработки ИИ в будущем, он лишь стремится показать, что работа с формальной программой не дает возможности компьютеру воспроизводить ментальные состояния человеческого мозга и что, соответственно, интенциональности такой работе мы приписать не можем. В заключение я хочу привести некоторые общие размышления об аргументах Серла. На мой взгляд, тот факт, что, действительно, как показал Серл, не все ответы соотносятся с поставленной им проблемой и порой отвечают на другие, не связан с тем, что теории, от которых разворачиваются эти ответы, неспособны опровергнуть утверждения Серла. Дело в том, что сама проблема изначально сформулирована двояко: по сути дела, Серл возражает не «претензиям ИИ», а тезису о том, что человеческое понимание способно строится как связь формальных процедур. В этом смысле и пример китайской комнаты направлен именно на этот факт, он никак не соотносится с разработками ИИ, а связан только с разграничением синтаксического и семантического уровня работы человеческого познания. Поэтому ясно, что когда автор формулирует свой тезис как возражение «претензиям ИИ» он и получает ответы в духе последнего - о том, что эти разработки еще, действительно, не завершены, но ничто не мешает им реализоваться в будущем. Мысль Серла, которую он формулирует после ответов на возражения заключается в том, что если бы мы свели уровень ментальных процессов человеческого мозга к уровню формальных процессов, то мы потеряли бы суть сознания, которая заключается не в самих формальных процессах, а в их свойствах. Иными словами, за рамками рассмотрения тогда остается неформальность мыслительной деятельности человека, а также когнитивные состояния, среди которых оказываются понимание и пр. А это утверждение относится только к области теории познания, а не к разработкам и будущему ИИ. Говоря же, что Серл отрицает претензии ИИ только лишь потому, что ИИ мог бы явиться тем механизмом, который воспроизводит это разграничение в познавательной деятельности (синтаксический и семантический уровень) и, как следствие, не способен его преодолеть, является, на мой взгляд, скрытой подменой проблемы, поскольку речь начинает переходить в область следствий (определенной ограниченности ИИ), тогда как проблема изначально относится к другой области исследований.

Исследования в области "искусственного интеллекта" (ИИ ) к настоящему времени привели к ряду впечатляющих результатов. Именно поэтому остро стоящий в 60-е годы XX века вопрос "может ли машина мыслить?" в настоящее время не вызывает такого интереса, поскольку на ЭВМ удалось смоделировать некоторые интеллектуальные процедуры. Более того, некоторые программные продукты по результатам своей деятельности оказываются эффективнее, чем деятельность человеческого мозга. Однако успехи, достигнутые в области ИИ, не снимают с повестки дня другой вопрос, который в несколько грубой форме может быть сформулирован так: насколько адекватно с помощью "искусственного интеллекта" удается смоделировать существенные особенности работы естественного интеллекта, работу человеческого сознания? Для того чтобы снять некоторую некорректность поставленного вопроса, необходимо учесть то, что любой продукт ИИ суть не что иное, как реализация некоторой модели интеллектуальных процессов. Тогда более точная формулировка проблемы будет заключаться в вопросе о границах применимости господствующей в настоящее время в ИИ парадигмы моделирования сознания, поскольку построение модели такого сложного феномена как сознание и, тем более, ее машинная реализация связаны с неизбежными упрощениями и схематизмом <1>. Именно этой проблематике и посвящен данный доклад.

Начну с описания интересного психологического эксперимента, идея которого была предложена советским логиком С.Ю. Масловым .

Начало эксперимента: желательно, чтобы читатель провел его на себе

Пусть нам дано следующее исчисление:

алфавит исчисления - {a, b }

правильно построенной формулой (п.п.ф.) будем считать любое, возможно пустое, слово. Например, aabba, baba, bbbbb суть п.п.ф. исчисления.

аксиомой исчисления является слово abb;

правила вывода : 1. bXbY ?XYbb ; где X, Y, Z - п.п.ф. исчисления

2. XabYbZ ?XbYabaZ

Выводом будем называть последовательность п.п.ф., начинающуюся с аксиомы исчисления, каждая формула которой получена по правилам вывода из предшествующих формул последовательности.

Например, если нам дана формула babab , то мы можем, применяя первое правило вывода, получить либо формулу ababb , при отождествлении X с aba , а Y - с пустым словом (формула babab представляется как baba b__), либо формулу aabbb при отождествлении X с a , а Y - с ab (формула babab в данном случае представляется как ba bab ). В данном случае к формуле babab применимо и второе правило вывода, которое позволяет получить формулу bbaaba , при отождествлении X с первым b, Y- со вторым a, Z - с пустым словом (т.е. если формулу представлять как b aba b).

Собственно эксперимент заключается в построении вывода в условиях жесткого временного цейтнота (2-3 минуты). Вопрос таков: выводима ли в исчислении формула aa ... abb (a <14> bb )?

Конец эксперимента: Попробуйте самостоятельно ответить на поставленный вопрос за 3 - 4 минуты.

Анализ эксперимента. Важным итогом эксперимента является постулирование ошибочного утверждения о выводимости данной формулы. При проведении эксперимента в различных аудиториях в зависимости от ужесточения временного цейтнота процент неправильных ответов колебался, причем, что интересно отметить, математическая подготовка аудитории при ужесточении временного цейтнота часто оказывала весьма плохую услугу, повышая удельный вес неправильных ответов. Анализируя условия эксперимента, можно видеть, что появление неправильных ответов связано с тем, что начальные шаги построения вывода: abb - baba - a <2>bb - ababa - baabaa - a <4>bb - .... подталкивают к формулированию естественной и кажущейся верной догадке, что выводимыми в данном исчислении являются формулы вида a <2n>bb , ошибочность которой становится очевидной при дальнейшем построении вывода <2>.

Временные ограничения как раз и необходимы для того, чтобы испытуемый успел проделать всего лишь несколько первых шагов построения, экстраполяция которых и приводит к порождению ошибочной гипотезы, вероятность формулирования которой усиливается при наличии у испытуемых математической интуиции. Условия эксперимента - форма вопроса, которая предполагает либо положительный, либо отрицательный ответ - исключает возможность ответа типа "не знаю" (этот ответ появляется при ужесточении временных ограничений менее 1 - 2 минуты, когда испытуемые не успевают сделать и первых двух-трех шагов вывода). Если же представить, что в роли испытуемого оказывается какая-либо стандартная компьютерная программа (при сохранении соответствующего временного цейтнота с учетом быстродействия машины), то, в отличие от естественного интеллекта человека, ошибочного ответа в принципе не будет. Машина либо даст правильный ответ, либо не ответит вовсе (варианты ответа: "неизвестно"; "не знаю") при недостатке временных ресурсов.

Тем самым, можно зафиксировать важное различие в поведении искусственного и естественного интеллектов, заключающееся в том, что человек, во-первых, стремится дать некоторый определенный ответ ("да" или "нет"), причем этот ответ в принципе может быть ошибочным. Таким образом, важное феноменологическое свойство естественного интеллекта заключается в его возможности ошибаться и, если усилить этот тезис, даже в его праве на ошибку. Господствующая тенденция в современной парадигме ИИ исключает такую возможность <3>. Зафиксируем это различие в противопоставлении:

возможность ошибки сознания versus безошибочность ИИ

Это связано с тем, что работа современных ЭВМ организована как работа алгоритмического вычислителя. Это, в свою очередь, означает, что программа представляет собой ряд локальных операций, каждая из которых осуществляется последовательно, друг за другом <4>. Безошибочность работы компьютера гарантируется как корректностью каждого отдельного перехода (операции), так и хорошей совместимостью операций друг с другом (правильность программы в целом). Благодаря такой организации работа компьютера в принципе безошибочна, причем, принципиальная корректность связана, прежде всего, с локальным характером работы программы. Если обратиться к приведенному выше примеру, то работа компьютера заключается в последовательном построении вывода: abb - baba - aabb - ..., и если за отведенное время удается построить соответствующий кусок вывода, то будет дан правильный (при отсутствии технических сбоев) ответ. Принципиальная корректность работы компьютера означает невозможность порождения ошибочных гипотез, а указание на локальный характер работы ЭВМ - отсутствие как такового механизма выдвижения гипотез, поскольку для выдвижения гипотез необходима другая, отличная от алгоритмического вычислителя, программа, способная "помнить" результаты своих прошлых вычислений и анализировать их. По существу, речь в данном случае идет уже о программе следующего иерархического уровня (метапрограмме), которая работает не непосредственно с "входными данными" (в приведенном примере это работа по построению вывода), а с результатами работы программы первого уровня - с результатами работы алгоритмического вычислителя. На связь "интеллектуальности" системы и степени ее иерархичности указано в работах В.М. Сергеева <5>. Здесь же заметим, что отмеченная выше локальность работы алгоритмического вычислителя существенным образом связана с отсутствием у него долгосрочной "памяти", поскольку для выполнения следующего шага достаточно "помнить" лишь результат предшествующего вычисления. Наш анализ работы систем ИИ (помимо выявления принципов безошибочности и локальности) позволяет эксплицировать и еще одну существенную особенность их работы. Речь идет о процедурном характере работы этих систем. Известное в ИИ противопоставление процедурный versus декларативный подходам к созданию программ решается в пользу процедурности [см., например, 6]. Собственно говоря, указание на алгоритмический характер программы и есть не что иное, как указание на существенно процедурный характер ее работы.

Как видно из приведенного выше примера, "механизмы" работы естественного интеллекта (сознания) существенно другие. В данном случае, это проявляется в том, что вместо решения конкретной задачи и ответа на поставленный вопрос о выводимости конкретной формулы (a <14>bb ) человек фактически пытается ответить на более глобальный вопрос об общей структуре выводимых формул. В работах С.Ю. Маслова это наблюдение о работе человеческого сознания (на основе обработки достаточно большого материала по решению логико-математических задач) представлено в общем виде как способность сознания к "глобальной обработке информации" <5>. Именно это стремление к постановке более общей проблемы (в нашем случае, вместо вопроса о выводимости конкретной формулы ставится вопрос о структуре выводимых формул) и попытка последующего ее решения привели к появлению принципиально нового способа решения задач, который может быть назван механизмом "порождения гипотез (эвристик)". В отличие от безошибочного локального поиска, который, по существу, является методом "полного перебора" (в нашем случае - полный перебор выступает как последовательное порождение всех выводимых слов), использование гипотез (эвристик) позволяет существенно сократить время поиска <6>. Возможно, гипотеза оказалась ошибочной, или, говоря другими словами, применение эвристики "пропустило" некоторое решение и, тем самым, привело к неверному (отрицательному) ответу на поставленный вопрос. Однако, несмотря на возможность ошибки, такое поведение имеет ряд прагматических преимуществ, главное из которых (подчеркнем это еще раз) - возможность быстрого принятия какого-то решения и ответного действия в условиях нехватки времени, что, видимо, способствовало биологическому выживанию особей (человека), обладающих таким - сознательным - механизмом принятия решений. Понятно, что этот фактор жесткой конкурентной борьбы за выживание практически не оказывает влияние на развитие машинного интеллекта, которое происходит в тепличных условиях.

Подводя итог первого этапа сопоставления естественного и искусственного интеллектов, зафиксируем различие их работы в следующем противопоставлении:

глобальность работы сознания versus локальность работы ИИ

Указание на способность сознания к "глобальной обработке информации" (за счет использования механизма "порождения гипотез") - важный результат, полученный на стыке логики и психологии. Однако выражения <способность к "глобальной обработке информации">, <механизм "порождения гипотез"> (как и метафора "правого - левого полушария") скорее являются яркими метафорами, которые должны получить более конструктивную проработку. Для этого необходимо ответить на более фундаментальный вопрос о том, какие "механизмы" сознания лежат в основе способности сознания к "глобальной обработке информации", каковы трансцендентальные условия этой способности.

В качестве предварительного подхода к решению этого вопроса воспользуюсь интересным примером У. Матураны , который хорошо проясняет специфику сознательной обработки информации: "Предположим, что нам надо построить два дома. С этой целью мы нанимаем две группы рабочих по тринадцать человек в каждой. Одного из рабочих первой группы мы назначаем руководителем и даем ему книгу, в которой содержатся все планы дома со стандартными схемами расположения стен, водопроводных труб, электрических проводов, окон и т.д., а, кроме того, несколько изображений дома в перспективе. Рабочие изучают эти планы и по указаниям руководителя строят дом, непрерывно приближаясь к конечному состоянию, которое определено описанием. Во второй группе руководителя мы не назначаем, а расставляем рабочих, определяя для каждого исходное положение на рабочем участке, и даем каждому из них одинаковую книгу, в которой содержатся указания относительно ближайшего пространства вокруг него. В этих указаниях нет таких слов, как дом, трубы, окна, в них нет также ни планов, ни чертежей дома, который предстоит построить. Эти указания, [процедурная инструкция - К. С.] касающееся только того, что рабочий должен делать, находясь в различных положениях и в различных отношениях, в которых он оказывается по мере того, как его положение и отношения изменяются. Хотя все книги одинаковы, рабочие вычитывают из них и применяют различные указания потому, что они начинают свою работу, находясь в разных положениях, и движутся после этого по разным траекториям изменения. Конечный результат в обоих случаях будет один и тот же, а именно - [построенный] дом... Кодирование [способ кодирования, способ обработки информации - К. С.] в этих двух случаях, очевидно, разное... В первом случае кодирование изоморфно описанию дома, выполненному наблюдателем, и образует собой фактически репрезентацию последнего. Во втором случае это не так. Первый случай типичен для способа, посредством которого наблюдатель кодирует создаваемые им системы. Второй присущ способу, посредством которого геном и нервная система образуют собой коды для организма и нервной системы соответственно. При этом никто и никогда не сумеет отыскать в этих кодах изоморфизма с описанием системы, которое могло бы быть сделано самим наблюдателем системы, с которой наблюдатель взаимодействует" .

Очевидно, что именно первый способ деятельности и представляет деятельность естественного интеллекта (сознания) человека, тогда как второй характерен не только для механизма наследственности и механизма нервной системы, например, в случае рефлекторного поведения, но и для работы современных систем ИИ. Основное различение между двумя способами организации процесса в этом примере можно выразить следующим противопоставлением:

декларативность естественного интеллекта versus процедурность ИИ

С одной стороны, это различение дополняет и уточняет ранее сделанное различение глобальность versus локальность, поскольку глобальная обработка информации невозможна без декларативности. То есть, одним из условий (трансцендентальным условием) способности сознания к "глобальной обработке информации" является декларативность: без описания (схем, планов, рисунков) никакие механизмы глобальной обработки информации невозможны. Поэтому, если всерьез говорить о моделировании сознания в рамках исследований ИИ, то необходимо каким-то образом сочетать процедурный и декларативный подходы. Без декларативного подхода никакое полноценное моделирование сознания невозможно!

Причем более внимательный анализ приведенного отрывка о двух способах строительства дома позволяет говорить, что чисто процедурный подход, соотносимый У. Матураной с работой генома и нервной системой, невозможен и даже на этом уровне необходим декларативный подход (использование описаний). Основу любой процедуры составляют какие-то неразложимые на данном уровне деятельности (анализа) элементы, на которых и базируется данная процедура (в частности, любой процедура предполагает некоторый процедурный "язык", состоящий из алфавита и слов). Эти процедурные элементы - "целостности" являются не чем иным, как описанием, хотя и описанием другого, более низкого уровня. В примере со строительством домом процедурный подход к строительству дома должен опираться, например, на понятия "кирпич", "цементный раствор", "мастерок", хотя и не предполагает использование понятий более "высокого" уровня как "дом", "стена", "крыша". Поэтому, возвращаясь к приведенному выше тезису о необходимости сочетания процедурного и декларативного подхода, уточним его следующим образом:

Специфика человеческого сознания проявляется не просто в использовании декларативного подхода (описаний одного уровня), а в способности использовать в своей деятельности, по крайней мере, двухуровневую (двухмасштабную) систему описаний.

Как можно заметить, этот тезис, с одной стороны, перекликается с приводившимся выше тезисом - критерием интеллектуальности - В. Сергеева о необходимости создания систем ИИ, способных к порождению некоторой иерархии знаний. С другой стороны, данный тезис близок к намеченному в работах С. Маслова критерию интеллектуальности как способности к порождению "башни дедуктивных исчислений", в рамках которого "переход" к следующему уровню обеспечивается "правополушарными" механизмами, в то время как "левое" полушарие отвечает за "локальную" (процедурную) работу на своем уровне описания.

Однако наш анализ был бы неполон, если бы мы не указали не еще одну важную особенность естественного интеллекта. В каком-то смысле, она играет роль еще более глубинного трансцендентального условия по отношению к уже выявленной в ходе нашего анализа способности сознания к использованию двухуровневой системы описаний. Наличие описания является необходимым, но недостаточным условием работы сознания, поскольку помимо самих описаний необходимо постулировать особый тип наблюдателя, а именно наблюдателя, способного воспринимать - или даже конструировать - такие целостности. Т.е. сознание (человек) является таким наблюдателем, который способен к "схватыванию идеи" (Платон), к "синтетической деятельности" (Кант), к порождению и работе с "превращенными формами" (Маркс). М. Мамардашвили , анализируя феномен восприятия дома, замечает, что на уровне физиологического восприятия "дом" как целостный феномен (а именно на такую целостность указывает фраза "Я вижу дом") не дан. Для того чтобы воспринимать дом в качестве дома, недостаточно указание на важность соответствующих декларативных (выразительных) средств, а необходимо постулирование особой способности, которая, говоря платоновским языком, есть способность человеческого сознания к "схватыванию идей"; для этого необходимо постулировать способность сознания к восприятию "идей" - "целостностей". Именно этим стремлением человека "схватить" идею" - общий принцип - построения вывода в нашем примере и объясняется появление неправильных ответов: человек старается решить не столько эту конкретную задачу, а "схватить" принцип решения задач подобного типа, не проводя машинообразных вычислений. Описанный выше феномен "творческой ошибки" связан с тем, что при таком подходе возможно порождение "превращенных - не совсем корректных - форм". Тем самым можно сформулировать наш последний тезис:

Существенной особенностью деятельности сознания является способность к "схватыванию идей", синтезированию "целостностей". Именно это позволяет работать с двухуровневой системой описания.

Выявленная особенность человеческого сознания к "схватыванию идей" и составляет сердцевину механизма работы сознания, что является одним из важных итогов философского исследования природы (сущности) сознания. Моделирование этой способности человеческого мышления позволит перейти на качественно новую ступень развития ИИ, позволяющую говорить о моделировании сознания как такового.

Примечания:

  • <1> - под господствующей в настоящее время парадигмой ИИ понимается, прежде всего, компьютерная метафора сознания, заключающаяся в различении "софтвера" и "хардвера", программы и физико-технической системы, обеспечивающей функционирование программы. Согласно этой метафоре сознание для мозга то же, что программа ("софтвер") для аппаратных средств ("хардвера").
  • <2> - правильный ответ НЕТ , поскольку данное исчисление является детерминированным : на каждом шаге вывода можно применить только одно правило вывода (их применение чередуется) и вывод строится однозначно (в этом смысле приводимый пример неоднозначности только сбивал с толку испытуемых). Более того, после чуть более долгого построения вывода нетрудно выявить и общую структуру выводимых формул. В частности выводимыми являются формулы вида a<2 n>bb (a <2 в степени n> bb).
  • <3> - тезис о принципиальной безошибочности "софтера" не исключает возможность технической ошибки, "сбоя" работы программы вследствие неисправности работы элементов "хардвера" (например, из-за скачка напряжения сети или неисправности какой-нибудь микросхемы). В этом смысле существенной разницы между работой искусственного и естественного интеллектов нет. Обсуждение вопроса о надежности результатов как в логическом, так и техническом смыслах, полученных с помощью ЭВМ, выходит за рамки данной статьи. Этому посвящены, например, работы .
  • <4> - заметим, что появившееся в последнее время распараллеливание работы ЭВМ, не приводит к изменению локального характера работы программы.
  • <5> - в работе интеллект рассматривается как некоторая иерархия порождения знаний, в которой можно выделить несколько уровней: 1 уровень - действия с объектами, 2 - логика этих действий ("логика действий"), 3 - металогика (логика "логики действий"). Важнейшим показателем интеллектуальности систем, по мнению В.М. Сергеева, является глубина этой иерархии. Вот как формулируется этот тезис в более поздней работе В.М. Сергеева: "В огромном большинстве построенные до сих пор искусственные интеллектуальные системы обладали очень небольшой глубиной этой иерархии, не более двойки. В настоящее время... очевидна необходимость создания систем, способных действовать "металогически", осмысленно менять логику построения мира - выбирать ее в соответствии с обстоятельствами. Такие системы должны иметь глубину иерархии порождения знаний не менее трех".
  • <5> - в работах С.Ю. Маслова в качестве объясняющего принципа этой познавательной способности выбрана метафора "правого - левого полушария". В рамках этого подхода проблема, поставленная в этой статье, выглядит так. Существующие в настоящее время программы ИИ хорошо моделируют только "левополушарные" механизмы обработки информации, а для моделирования работы сознания необходимо моделирование "правополушарных" механизмов обработки информации. Однако, на сегодняшний день метафора "правого - левого полушария" явно недостаточна для более серьезного разговора о специфике познавательных (сознательных) механизмов.
  • <6> - в логике под "эвристикой" и понимают, прежде всего, средство сокращения перебора , акцентируя внимание "результате" действия эвристики. Причем, в отличие от логических методов поиска, которые полны, т.е. находят решение, если оно существует, эвристические методы поиска такой полнотой не обладают и могут "пропустить" существующее решение.

Литература

  1. Маслов С.Ю. Теория поиска вывода и вопросы психологии творчества //Вопросы семиотики, 1979, вып.13, С.17 - 46
  2. Анисимов А. ЭВМ и понимание математических доказательств //Вопросы философии, 1987, N 3
  3. Логика и компьютер (моделирование рассуждений и проверка правильности программ) М., Наука, 1990
  4. Сергеев В.М. Искусственный интеллект как метод исследования сложных систем //Системные исследования: методологические проблемы (ежегодник) М., Наука, 1984
  5. Сергеев В.М. Искусственный интеллект: Опыт философского осмысления //Будущее искусственного интеллекта М., Наука, 1991
  6. Лорьер Ж.-Л. Системы искусственного интеллекта М., Мир, 1991
  7. Маслов С.Ю. Теория дедуктивных систем и ее применения. - М., Советское радио, 1986.
  8. Маслов С.Ю. Асимметрия познавательных механизмов и ее следствия //Вопросы семиотики, 1983, Вып.20. С.3 - 34
  9. Серебрянников О.Ф. Эвристические принципы и логические исчисления. М.: Наука, 1970.
  10. Пойа Д. Как решать задачу. - М.: Учпедгиз, 1959.
  11. Матурана У. Биология познания //Язык и интеллект. - М., Прогресс, 1995.
  12. Мамардашвили М.К. Как я понимаю философию. - М., Прогресс, 1992.

Сознание и самосознание

Сознание предполагает выделение субъектом самого себя в качестве носителя определенной позиции по отношению к миру. Это выделение себя, отношение к себе, оценка своих возможностей, которые являются необходимым компонентом всякого сознания, образуют разные формы той специфической характеристики человека, которая именуется самосознанием.

Самосознание -- динамичное исторически развивающееся образование, выступающее на разных уровнях и в разных формах. Первой его формой, которую иногда называют самочувствием, является элементарное осознание своего тела и его вписанности в мир окружающих вещей и людей. Более высокий уровень самосознания связан с осознанием себя в качестве принадлежащего к тому или иному человеческому сообществу, той или иной культуре и социальной группе. Наконец, самый высокий уровень развития этого процесса -- возникновение сознания Я как совершенно особого образования, похожего на Я других людей и вместе с тем в чем-то уникального и неповторимого, могущего совершать свободные поступки и нести за них ответственность.

С проблемой самосознания тесно связана проблема рефлексии. Рефлексия есть обращение сознания к самому себе, его направленность на свои собственные состояния, акты и содержания. Рефлексия вторичная позиция сознания. Первичной же является до-рефлексивное состояние: непосредственная направленность сознания на свой объект.

Сознание и самосознание, обеспечивая возможность самоконтроля, свободы, вменяемости и ответственности человека, являются условием возможности специфически человеческого существования в мире, возможности культурного, нравственного порядка в бытии, отличного от естественного, природного порядка, от животного существования. Самосознание предполагает сопоставление себя с определенным, принятым данным человеком идеалом Я, вынесение некоторой самооценки и - как следствие - возникновение чувства удовлетворения или недовольства собой.

Самосознание -- настолько очевидное свойство каждого человека, что факт его существования не может вызвать никаких сомнений. Более того, значительная и весьма влиятельная ветвь идеалистической философии утверждала, начиная с Декарта, что самосознание - это как раз единственное, в чем никак нельзя усомниться.

Наделенность сознанием и самосознанием превращает человеческий опыт мира и себя самого в пространство тяжкого испытания человека сомнением и суверенностью. И вместе с тем это пространство - его единственный шанс осуществиться в мире в качестве мыслящего.

Проблема сознания и мозга, искусственный интеллект

Философский анализ сознания предполагает ответ на вопрос, что собою представляет сознание с точки зрения его материального носителя - мозга, обеспечивающего способность мыслить. Любые психические явления являются функциями головного мозга. Сознание не может существовать в отрыве от материи. Интеллект (от лат. intellectus - ум, рассудок, разум), наивысшая сила, естественный свет как способность к постижению сущности вещей. Философскую значимость проблемы сознания и мозга определяет онтологический статус сознания.

Исходным пунктом философского рассмотрения сознания является уяснение его естественнонаучных предпосылок. Естествознание доказывает, что сознание не может существовать в отрыве от мозга, связано с деятельностью высокоорганизованной материи.

Учение о мозге прошло длительную историю, в которой выделяются две основные тенденции: концепция строгой локализации психических явлений и точка зрения, согласно которой мозг функционирует как единое целое.

В последнее время играет все возрастающую роль такой фактор современной жизни, как «виртуальная реальность» или «киберпространство». Фактически длительное воздействие виртуальной реальности на психику сходно с воздействием наркотиков, галлюциногенов. Многочасовое сидение детей за компьютерными играми может оказаться не столь уж безобидным занятием. Сможет ли мозг людей приспособиться к новому миру образов, созданному математическими процессами внутри компьютерных чипов? Не вызовет ли киберпространство постепенного привыкания и последующего отторжения действительности? А может быть это, напротив, шаг к новым возможностям? На эти вопросы смогут дать ответ лишь новые исследования.

Границы возможностей «властвования собой» пока совершенно неясны. Так, йоги способны находиться под водой по несколько часов, затормаживая дыхание и сердцебиение, проходить за одну ночь по 100 км без внешних признаков усталости, месяцами не принимать пищу. Не менее известны примеры внушения в состоянии гипноза.

Сказанное выше, конечно, является далеко не полным. Мы ещё многое не знаем о работе мозга, и особенно о том, что лежит в основе его высших функций и человеческого сознания. Тем не менее, прогресс в этой области в последние годы достаточно очевиден, и наука о мозге постепенно приближается к раскрытию этой тайны природы.

За последние 30--40 лет вопрос о сущности сознания часто связывается с перспективами создания «мыслящих машин» (ЭВМ). Если ранее возможность «искусственного интеллекта» категорически отрицалась нашими философами, то в последнее время наблюдается более свободное обсуждение этого вопроса.

Как в философии, так и в ряде отдельных наук, в художественной литературе ставится и по-своему осмысливается вопрос, возможно ли создание искусственного интеллекта? Начальную теоретическую основу для формализации мыслительных процессов создала формальная логика Аристотеля. С возникновением кибернетики актуализировалась задача создания искусственного интеллекта. В философии и науке возникли различные программы исследований «искусственного интеллекта», когда такие науки, как кибернетика, зоопсихология, психология, дали сильный толчок научному изучению интеллекта: создание компьютеров, способных выполнять функции, традиционно относимые к области интеллектуальной деятельности человека; попытка моделировать человеческий интеллект на основе мозгового субстрата (нейрокомпьютеры); создание искусственных самообучающихся устройств, способных эволюционировать.

С момента своего отделения от кибернетики в конце 1950-х гг. исследования в области искусственного интеллекта прошли 3 этапа:

первый этап (1950-1960-е) - время становления исследовательских программ искусственного интеллекта, формирование круга задач, относящихся к этому направлению (игры, доказательства теорем, распознавание образов, машинный перевод, робототехника), создание методов и инструментов решения этих задач;

второй этап (1970-е) - приобретение искусственным интеллектом статуса «классической» научно-технической дисциплины с проведением международных конференций, изданием журналов, чтением соответствующих курсов в университетах, созданием новых интеллектуальных программ (нечеткая логика, генетические алгоритмы, модели представления значений);

третий этап (1980-1990-е) связан с практическим использованием достижений искусственного интеллекта в различных сферах деятельности (финансах, экономике, управлении, компьютерной и бытовой технике), изучением и моделированием рациональных структур и связи с эмоциями, верованиями, чувствами, практическими методами обработки образной информации, сглаживающими современные модели искусственного интеллекта с их естественным человеческим прототипом.

Можно выделить два основных направления развития философии искусственного интеллекта. Во-первых, достаточно позитивно была воспринята идея возможности компьютерной имитации человеческой психики, после чего были приняты попытки использования этой идеи для переосмысления традиционной проблематики философии сознания, философии интеллекта, а также психофизической проблемы. Во-вторых, многие ученые попытались осмыслить проблематику искусственного интеллекта с позиций философии сознания. Именно представители этого направления впервые выразили сомнение в принципиальной разрешимости проблемы создания искусственного интеллекта и попытались выяснить, чем человеческий интеллект может принципиально отличаться от любых его возможных компьютерных имитаций.

И все же: можно ли создать машину, которая мыслила бы как человек - то есть обладающую искусственным интеллектом? Компьютер уже моделирует такие процессы, как обучение, абстрагирование, обобщение. По мнению большинства ученых, теоретически можно моделировать любые функции мозга. Вопрос в том осуществимо ли это практически (это, видимо, вопрос времени) и нужно ли вообще такое моделирование, не берем ли мы на себя несвойственные нам функции создания разума (а это уже вопрос научной этики, как и, к примеру, клонирование человека).

Чтобы создать машину, функционирующую как мозг, необходимо создать вещество, обладающее свойствами или подобное высокоорганизованной белковой материи, каковое образует мозг. Действительно, такая машина будет функционировать "как мозг", но именно функционировать, а не мыслить. Чтобы мыслить материя должна существовать не только в экономической, но и в социальной форме.

Многие споры вокруг проблемы "кибернетика и мышление" имеют эмоциональную подоплеку. Признание возможности искусственного разума представляется чем-то унижающим человеческое достоинство. Однако нельзя смешивать вопросы возможности искусственного разума с вопросом о развитии и совершенствовании человеческого разума. Разумеется, искусственный разум может быть использован в негодных целях, однако это проблема не научная, а скорее морально-этическая.

Некоторые результаты моделирования сетевого интеллекта

В 1963-1964 гг. мною был сформулирован первый вариант гипотезы о механизмах мышления в обобщенном виде. В 1965 г. эта гипотеза была опубликована в книге «Моделирование мышления и психики». Два года спустя книгу переиздали в США. Последующее развитие идей нашло отражение в монографии «Искусственный разум», напечатанной в 1969 г.

Модели, реализованные на ЦВМ. В 1963 г. мы начали серию работ по созданию моделей интеллекта, построенных на принципе семантических сетей с СУТ. Такие сети были названы термином «М-сети», а модели, построенные на них,- «М-автоматами». В последующие годы создавались новые варианты моделей, однако все они основывались на использовании сетевого интеллекта с СУТ. Принцип его действия уже был описан: М-сеть представляет собой систему элементарных моделей (i-модели), каждой придано определенное значение, например модель - объект среды, модель действия, чувства, отношения и др. Модели имеют статические и динамические характеристики, в которых отражена величина уровня активности и зависимости от времении «входных» раздражителей - то есть от величины некоей энергии, поступающей по связям с других моделей или от рецепторов. У первых моделей связи задавались жестко, у последующих проходимость связей менялась в зависимости от использования - тренировки. Это же относится к характеристикам возбуждения i-моделей. Исследование модели состоит в пересчете на ЦВМ уровня активности всех элементарных моделей за условный такт времени. СУТ выбирает одну, самую активную модель и еще дополнительно ее усиливает согласно своим характеристикам, а все остальные тормозит. «Входами» М-автомата являются внешние объекты, «выходами» - его действия, направленные на среду. Все это типично для СИ.

Первая модель - РЭМ отображала условный сюжет путешествия некоего «искусственного субъекта» в среде, которая содержала полезные и опасные для него объекты. Мотивы поведения субъекта определялись ощущениями усталости, голода и стремлением к самосохранению. Субъект изучал среду, выбирал цель движения, строил план достижения этой цели и затем реализовал его, выполняя действия-шаги, сравнивая результаты, получаемые в ходе движения, с запланированными, дополняя и корректируя план в зависимости от складывающихся ситуаций.

М-сеть РЭМа содержала 90 i-моделей, около 400 связей и была способна воспринимать три типа объектов (входных параметров). Среда могла содержать до 400 объектов, произвольно расположенных на плоскости. РЭМ выполнял восемь действий и был построен как неполный М-автомат, иными словами, кроме М-сети с заданной на ней СУТ, он содержал функционирующие сопряженно с М-сетью алгоритмические структуры. Большинство из них осуществляло функции планирования. РЭМ был реализован в виде комплекса программ для ЦВМ М-220. Программы содержали свыше 3000 рабочих команд. Время просчета одного такта функционирования М-сети (единицы автоматного времени) - 1,5 мин. В течение каждого такта производился расчет величин возбуждений и параметров характеристик всех i-моделей, а также параметров всех связей М-сети (эта процедура названа пересчетом). Последовательность операций, производимых за один такт, такова: восприятие информации из внешней среды, пересчет, выбор СУТ наиболее возбужденной i-модели, принятие на основании полученной информации решения о взаимодействии со средой, выполнение этого решения. Эксперименты с РЭМом включали просчеты его состояний и регистрацию решений на протяжении 10-20 тактов.

Результаты исследования РЭМа показали перспективность использования М-сетей как при построении моделей процессов мышления, так и при разработке систем типа «искусственный разум», способных к самостоятельному эффективному функционированию в сложных условиях. Выяснилась также целесообразность дальнейшего проведения работ по изучению возможностей аппарата при построении более мощных моделей, а также исследования весьма важного в практическом и теоретическом отношениях вопроса об адаптивных возможностях М-автоматов.

Затем была построена и исследована новая модель - МОД. При его создании сохранялись как общая схема постановки задачи, так и принципиальная структура выбранного ранее условного сюжета моделирования. МОД также был разработан в виде неполного М-автомата. При этом его алгоритмическая часть отображала процессы планирования, связанные с предварительной организацией движения, а структурная - процессы принятия решений в ходе непосредственного взаимодействия со средой. Обе части целесообразно рассматривать как независимые модели мыслительных процессов, между которыми может быть организовано постоянное взаимодействие. Эти модели названы соответственно МОД-1 и МОД-2.

МОД-1 вырабатывал план деятельности М-автомата в среде в виде совокупности подцелей движения, основной цели и ожидаемых (предвидимых) состояний автомата в ходе движения. Алгоритмы восприятия внешней информации в МОД-1 моделировали процессы зрительного восприятия человека, построения возможных вариантов плана, их оценки, синтеза окончательного варианта, его разбиения на отдельные этапы, выбора объектов-ориентиров для каждого из этапов, моделировали процессы принятия решения человеком в условиях отсутствия полной информации о среде.

МОД-1 являлся неполным М-автоматом, основной объем его функций реализовался алгоритмическими структурами. М-сеть здесь содержала 62 i-модели, около 1000 связей и использовалась в основном для представления мотивационной сферы модели. МОД-1 был реализован в виде комплекса программ для ЦВМ М-220. Программы включали до 15 000 команд, их просчет занимал 20-30 мин машинного времени. Среда модели могла содержать до 625 объектов (это максимальное число). Каждый из объектов задавался упорядоченным набором из 8-10 признаков (входных воздействий). Выходом модели являлся оптимальный план передвижений в среде. В среднем такой план мог состоять из 30 элементов (целей, подцелей и ожидаемых отклонений внутренних состояний).

М-автомат МОД-2 вырабатывал конкретные реализации планов, построенных МОД-1. Его основная особенность связана с реализацией на М-сети программ самообучения. Последнее осуществлялось путем изменения веса первоначально заданных связей, установления новых связей и порождения новых узлов М-сети. Протекание процессов изменения структуры сети определялось особенностями среды, в которой действовал автомат, соотнесенными с поставленными перед ним задачами. Задачи могли формулироваться, например, в следующем виде: действовать так, чтобы обеспечить максимальное значение оценки «собственного комфорта», максимальное соответствие внешних и внутренних реакций автомата реакциям моделируемого объекта или быстрейшее достижение цели. Возможны были и комбинированные задачи.

Автомат может рассматриваться как модель деятельности человека по принятию решений в задачах движения в лабиринте. Кроме того, МОД-2 может быть использован в качестве устройства, управляющего передвижением технических систем, предназначенных для сбора информации, транспортировки и т.п. В зависимости от цели использования автомата изменяется и критерий оценки эффективности его функционирования.

МОД-2 - полный М-автомат. Его М-сеть может содержать до 400 i-моделей и до 2000 связей. На М-сети задана двухуровневая СУТ. МОД-2 был реализован в виде программы для ЦВМ БЭСМ-6. Программа содержала около 6000 команд. Время просчета одного такта 30-50 сек. Экспериментально были исследованы реакции автомата на протяжении до 300 тактов. На входы автомата подавалась информация о плане движения и об объектах среды, каждый из которых относится к одному из шести возможных типов. Всего среда могла содержать до 400 расположенных произвольным образом объектов. Предварительная информация о некоторых характеристиках среды и структуре оценочных функций задавалась в процессе начальной организации М-сети автомата. Количество выполняемых МОД-2 действий (выходных параметров или решений) - 22. Из них 17 - различного рода действия - шаги, перемещающие автомат в среде, а 5 - «активные» действия, изменяющие состояние среды или автомата («есть», «спать», «нести объект», «бросить объект», «создать убежище»). Поведение автомата состояло в формировании последовательностей решений о выполнении тех или иных действий и соответственно их фактическим выполнением. Были разработаны оценки поведения и предложены процедуры оптимизации автомата. Оптимизация выполнялась варьированием значений шести параметров обучения.

В ходе исследования МОД-2 был решен ряд вспомогательных задач-тестов. Представляет самостоятельный интерес результат одной из таких задач, связанной с моделированием процессов формирования понятий человеком. Здесь показана приводимость М-автомата к формам, моделирующим как индивидуальное, так и обобщенное групповое поведение. Были продемонстрированы методы такого приведения.

Модель механизмов речи. Одновременно с разработкой МОДа проводилось исследование, цель которого состояла в том, чтобы изучить возможности М-сетей в области нейрофизиологии и нейропсихологии, а также оценить практическую и познавательную важность таких моделей. Был разработан и исследован М-автомат, моделирующий механизмы речи. В модели представлены такие аспекты устной речи, как восприятие, осмысливание, словесное выражение. Преимущественное внимание уделялось содержательной стороне процессов переработки словесной информации. Модель предназначена для воспроизведения относительно простых речевых функций - ответов на вопросы ограниченного типа, повторения, называния. Она содержит следующие блоки: слуховых восприятий, сенсорный речевой, проприоцептивный речевой, понятийный, эмоций, мотивационный, двигательный речевой, артикуляторный и блок СУТ. Блоки модели соотнесены с определенными мозговыми образованиями. При задании организации М-сети использовались данные нейроморфологии, нейрофизиологии и клинической неврологии.

Модель представлена в виде необучающегося полного М-автомата. Его М-сеть содержит более 1000 i-моделей и 8000 связей между ними. М-автомат реализован в виде программы для ЦВМ БЭСМ-6, содержащей около 500 команд. Время просчета одного такта - 2 сек. В экспериментах наблюдалось поведение модели на протяжении до 100 тактов. На вход модели подавались буквы русского алфавита, объединенные в слова и фразы, а также специальные объекты, соответствующие образам предметов. На выходе модели, в зависимости от режима ее работы, наблюдались последовательности букв русского алфавита, которые были либо ответами на входные вопросы, либо повторением входных слов, либо названиями предметов. То обстоятельство, что при создании модели широко использовались данные нейрофизиологии, позволило в экспериментах имитировать ряд поражений мозга органического и функционального характера, приводящих к нарушениям функций речи. В частности, получены модельные отображения синдромов сенсорной, моторной, проводниковой и транскортикальной афазий.

Описанные М-автоматы составляют основной фонд «больших» моделей, разработанных и исследованных в процессе изучения возможностей и практических методов использования М-сетей.

Нами были выполнены и некоторые модельные разработки, в которых аппарат М-сетей использовался эпизодически или в модифицированном виде. Анализ результатов, полученных в разработках такого рода, может представлять серьезный интерес при оценке возможностей и свойств обсуждаемого нами аппарата.

Весь опыт моделирования поведения «разумного субъекта» в некоей среде - «лабиринте» - с использованием М-сети и расчетами на ЦВМ подытожен в монографии . В качестве примера на рис. 3 приведены результаты одного из экспериментов по исследованию поведения такого «субъекта».

Семь-восемь лет мы занимались созданием сетевых моделей на ЦВМ, пока не убедились, что возможности таких моделей ограничены. Объем расчетов оказался слишком большим даже для компьютера: за один такт нужно пересчитать циркуляцию «энергии» по всем связям и изменения в их проходимости, подсчитать активность всех элементарных моделей, пересчитать изменение их тренированности для следующего такта. Если же предусмотреть и возможность образования новых связей и новых моделей, иными словами, воспроизвести принцип самоорганизации, то количество счетной работы будет расти подобно снежному кому. Затраты машинного времени увеличиваются приблизительно пропорционально кубу числа моделей в сети. Но дело не только в расчетах - так же трудно оказалось отладить громоздкие программы. Так или иначе, выйти за предел 1000 моделей и 8000 связей нам не удалось. Формально мы воспроизвели в МОД самые простые программы психики, такие, как сознание и подсознание, оптимизация действий по многим критериям - чувствам с предвидением и планированием. Была продемонстрирована разная обобщенность или иерархия моделей, обучение, забывание и даже различия характера. Но в целом этот «субъект», путешествующий среди врагов и препятствий в поисках пищи, соответствовал лишь довольно примитивному животному.

Рис. 3. Схема движений и действий МОДа по карте.

Аналоговые модели. Роботы. Тем не менее существует много задач, для которых вполне достаточен и такой ограниченный интеллект. В частности - для роботов, предназначенных для специализированной деятельности. Важнейшим требованием для них должна быть автономность, независимость от ЦВМ, что привело к реализации сетевого интеллекта на физических элементах. Идея сама по себе проста: представить каждую элементарную модель в виде усилителя, на вход которого поступает потенциал от других моделей, а на выходе формируется усиленный потенциал, который тоже передается по связям и гасится пропорционально их сопротивлению. Из таких элементов-усилителей можно создать любую сеть, если каждому придать определенное значение - семантику. Одни элементы - модели предметов, другие - чувств и т.д., как в сетевых моделях РЭМ и МОД. Разные характеристики усилителей и разные сопротивления связей позволяют создать структуры любого назначения. Модель интеллекта на физических элементах в наибольшей мере приближается к имитации мозга. К сожалению, есть разница: несоизмеримо мало число элементов и связей. Однако сложность такого интеллекта целиком определяется технологией. Можно создать довольно большие сети, во всяком случае достаточные для робота.

В 1972 г. были начаты работы по созданию модели ИИ в виде сети из физических элементов. Цель их - построить систему управления в виде М-сети с системой усиления-торможения (СУТ) и разместить ее на тележке.

Прежде чем приступить к разработке макета, были проверены возможности сети из физических элементов с СУТ. Первая сеть содержала 26 узлов и около 300 связей и управляла перемещением писчика по условной среде, изображенной на карте. Результаты экпериментальных исследований этой системы оказались обнадеживающими. Тогда приступили к созданию транспортного робота - ТАИРа.

Конструктивно разрабатываемый макет робота представляет собой трехколесное шасси, на котором смонтированы комплект рецепторов (органов чувств), блок управления, энергосистема и прочие устройства. Размер шасси 1600x1100x600 мм. Все три колеса являются ведущими и имеют автономный привод от электродвигателей мощностью по 30 Вт. Переднее колесо поворотное. Питание электродвигателей осуществляется от аккумуляторных батарей. Скорость движения по ровной поверхности составляет 10-12 м/мин.

Датчики-рецепторы можно разбить на несколько групп.

1. Датчики, определяющие положение робота в пространстве:

а) навигационная система с компасом и двумя радиомаяками;

б) датчики углов наклона тележки в двух плоскостях.

2. Датчики информации об окружающей среде:

а) дистантные. Активный оптический дальномер с радиусом действия до 10 м. Система оптических датчиков близости с диапазоном расстояний до 30 см;

б) контактные датчики - система микровыключателей, установленных на гибком чехле, в который заключена тележка.

3. Датчики состояний робота:

а) термодатчики на электродвигателях;

б) датчики крутящего момента на приводах к колесам;

в) датчики напряжения на аккумуляторных батареях;

г) вибродатчик.

4. Датчик времени.

Основу системы управления представляет физически реализованная М-сеть. Специфическая СУТ в М-сети задает положительную обратную связь по возбуждениям узлов и обеспечивает тем самым доминирование в каждый момент времени одного или нескольких узлов над всеми другими. Ввод и вывод информации в М-сети соответствуют возбуждению определенных ее узлов (входных и выходных).

В настоящее время система управления роботом предполагает осуществление целенаправленного движения с обеспечением собственной безопасности (объезд препятствий, избегание опасных мест, поддержание внутренних параметров в заданных пределах) и минимизацию временных и энергетических затрат. Вся сеть, состоящая из 100 узлов, разбита на шесть сфер.

Сферы оценок и распознавания ситуаций являются входными. Аналогично сенсорным системам мозга человека здесь осуществляется анализ воспринятой датчиками информации, на основе которого выполняется интегральная оценка среды, условий задачи и собственных состояний.

Выбор характера поведения в текущей ситуации производится в сфере решений. При этом может быть принято решение, определяющее направление движения, осуществление какого-то сложного маневра или даже выполнение некоторого элементарного действия.

Организация самого двигательного поведения осуществляется тремя сферами, являющимися выходными для сети,- сферами маневров высшего уровня, маневров нижнего уровня и элементарных действий. Здесь формируется последовательность команд, поступающих к эффекторной системе - системе управления поворотным и тяговыми электродвигателями.

Все узлы сети (i-модели) представляют собой усилители постоянного тока со специальными характеристиками. Узлы каждой из выделенных сфер имеют свои определенные характеристики. Точно так же в каждой сфере действует своя СУТ. Связи между узлами выполнены из резистивных элементов в устройстве матричного типа. Для ввода информации от датчиков в сетевое устройство управления используется 60 каналов.

Внешний вид ТАИРа представлен на рис. 4. В настоящее время мы продолжаем работы по созданию новых систем управления роботами. Эти системы пока не претендуют на достижение высокого уровня интеллекта. Правда, для ограниченных целей нейроноподобная семантическая сеть на физических элементах с СУТ хорошо себя зарекомендовала и привлекла внимание исследователей и конструкторов, которые думают об автономных роботах. Планы отдела биокибернетики по совершенствованию автоматов предполагают реализовать обучение, создать ансамблевую организацию из элементов, позволяющую резко увеличить количество моделей при том же числе элементов, улучшить зрительное восприятие среды и даже дойти до человеческой речи. Я не уверен, что эти планы воплотятся в металл достаточно скоро, не потому, что идеи несостоятельны, а исключительно вследствие трудностей их технической реализации. Почти пятнадцать лет попыток моделирования разума человека привели меня лишь к ответу на вопрос «Что такое интеллект.», но существенно не приблизили к созданию его модели. Нейроноподобная семантическая сеть с переменной активностью элементов связей и с СУТ кажется наилучшим аналогом коры мозга, но размеры ее жестко ограничены сложностью воспроизведения, элементарные поведенческие реакции, полученные на описанных моделях, весьма далеки от человеческих и ничего не могут доказать. В самом деле, разве несколько сот элементов нашей сети могут заменить 10 миллиардов нейронов мозга. Если к этому прибавить, что каждая нервная клетка представляет собой функциональную систему из многих тысяч макромолекул, что она имеет несколько сот «входов» и может участвовать в работе различных клеточных ансамблей, давая почти астрономическое число моделей, то разве можно все это воспроизвести. К этому нужно добавить самоорганизацию в виде избирательной тренировки «входов» - синапсов, обеспечивающих память, и тренировку «выхода», резко повышающую активность нейрона. Нервная система - не просто сеть из одинаковых элементов. В ней имеется начальная структура связей и клеток с разной активностью, обеспечивающих врожденные рефлексы, чувства, программу доминирования. Тренируемость клеток и связей позволяет развивать и адаптировать врожденные реакции и наслаивать на них иерархию функциональных актов различных уровней обобщения и содержания. Все это, вместе взятое, дает человеческий разум - изумительное произведение природы, которое, раз возникнув, открыло в мозге новые возможности.

Рис. 4. Внешний вид ТАИРа.

После такой характеристики сложности и возможностей мозга задача его воспроизведения в модели кажется безнадежной. Трудно представить себе искусственную сеть из десятка миллиардов элементарных усилителей, каждый из которых может иметь сотни входов, обладает способностью к тренировке - то есть изменению характеристик. Трудно, но не безнадежно. В отличие от длительной естественной эволюции прогресс науки и техники стремителен и все более ускоряется. Поэтому в перспективе возможна и аналоговая сеть, сравнимая по мощности с мозгом. Важно правильно поставить задачу - в данном случае сказать, какими должны быть элементы и как их соединять друг с другом. Пожалуй, еще важнее представить алгоритм интеллекта в достаточно обобщенном виде, позволяющем реализовать его различными средствами.

Велики технологические трудности на пути до аналогового интеллекта. Поэтому так заманчивы универсальные цифровые машины, которые уже теперь достигли большой мощности. Совершенствуется их внешняя память и растет объем оперативной памяти. Быстродействие исчисляется миллионами операций в секунду. Разделение времени и создание параллельных программ позволяют повысить эффективность компьютеров. Создается впечатление, что возможности ЦВМ еще не достаточно использованы для реализации алгоритма интеллекта. То обстоятельство, что до сих пор наши попытки создания СИ не увенчались успехом, еще не означает, что исследования закончены. Нужно сохранить обобщенный алгоритм, но отказаться от сети с тем, чтобы уменьшить объем расчетов. Однако при этом следует лишь в минимальной мере поступиться принципами. Мы решили предпринять такую попытку - создать алгоритмическую модель интеллекта. Соображения к ее проекту будут представлены в заключительной части книги. А пока перейдем к изложению идей, положенных в основу этой модели.

Из книги Материализм и эмпириокритицизм автора Ленин Владимир Ильич

ВМЕСТО ВВЕДЕНИЯ КАК НЕКОТОРЫЕ «МАРКСИСТЫ» ОПРОВЕРГАЛИ МАТЕРИАЛИЗМ В 1908 ГОДУ И НЕКОТОРЫЕ ИДЕАЛИСТЫ В 1710 ГОДУ Кто сколько-нибудь знаком с философской литературой, тот должен знать, что едва ли найдется хоть один современный профессор философии (а также теологии), который

автора Лем Станислав

(e) Усилитель интеллекта Общая тенденция математизации наук (в том числе и таких, которые до сих пор по традиции не использовали математических средств), охватив биологию, психологию и медицину, постепенно проникает даже в гуманитарные области – правда, пока еще скорее в

Из книги Стратегии гениев (Аристотель Шерлок Холмс Уолт Дисней Вольфганг Амадей Моцарт) автора Дилтс Роберт

Уровни моделирования При создании модели конкретной личности учитывается ряд различных уровней, систем и подсистем, в которых данная личность действовала и которые мы можем исследовать. Нам следует взглянуть на историческую и географическую обстановку - то есть когда

Из книги Наше постчеловеческое будущее [Последствия биотехнологической революции] автора Фукуяма Фрэнсис

Из книги Алгоритмы разума автора Амосов Николай Михайлович

Метод эвристического моделирования Принцип метода состоит в том, что создается математическая модель объекта на основании описательной гипотезы о его структуре и функциях с использованием имеющихся в литературе количественных данных и добавлением недостающих путем

Из книги Конец науки: Взгляд на ограниченность знания на закате Века Науки автора Хорган Джон

Проект алгоритмической модели интеллекта Как же практически подойти к построению алгоритмической модели. Согласно правилам эвристического моделирования прежде всего нужно определить ее назначение, выбрать цель. Смоделировать человеческий разум - это кажется столь

Из книги Избранные труды автора Щедровицкий Георгий Петрович

Границы моделирования В феврале 1994 года журнал «Сайенс» опубликовал статью «Доказательство, легализация и подтверждение цифровых моделей в земных науках», которая обращается к проблемам, поставленным компьютерными моделями. Удивительно постмодернистская статья была

Из книги Понятие сознания автора Райл Гилберт

О различных планах изучения моделей и моделирования 1. Рассматривая вопрос о моделях и моделировании, необходимо различать: (А) решение специально-предметных научных задач путем построения моделей и (В) получение различных знаний, обслуживающих моделирование. Во

Из книги Учение Шопенгауэра о спасении автора Бергман Эрнст

(2) Определение границ интеллекта Место интеллекта в жизни человека (неважно, осознается это место метафорически или нет) принято описывать согласно определенным шаблонам. Об Интеллекте иногда говорят как об особом органе, уподобляя сильный или слабый интеллект сильному

Из книги 3. Диалектика природы и естествознания автора

(6) Примат интеллекта Теперь нам будет легко различить тот смысл, в котором интеллектуальные операции превалируют над проявлениями других ментальных способностей и «управляют» ими, от того смысла, в котором я отрицал тот факт, что при описании действий и реакций людей,

Из книги Диалектика природы и естествознания автора Константинов Федор Васильевич

c) Разрыв интеллекта с волей Если продолжить следовать за потоком шопенгауэровского мирового процесса, то как третий акт появляется разрыв интеллекта с волей и получение интеллектом своей самостоятельности. Для этого необходимо радикальное внутреннее преобразование

Из книги Сумма технологии автора Лем Станислав

Из книги Системная технология автора Телемтаев Марат Махметович

3. Диалектика естественного и искусственного в проблеме интеллекта В понятии «искусственный интеллект» выражается попытка осмыслить проблему интеллекта с разных сторон - естественнонаучной, психологической и философской. И это вполне правомерно. Человеческий разум

Из книги автора

Усилитель интеллекта ОБЩАЯ тенденция математизации наук (в том числе и таких, которые до сих пор по традиции не использовали математических средств), охватив биологию, психологию и медицину, постепенно проникает даже в гуманитарные области - правда, пока еще скорее в

Из книги автора

2.1. Особенности моделирования технологий Технологии осуществляются посредством различных орудий труда, в т.ч. и посредством машины. Технологии, в т.ч. и технологии производства машин, состоят из отдельных операций. При осуществлении материальных технологий

Из книги автора

3.1. Особенности моделирования систем Мы рассматриваем в данном разделе особенности моделирования систем и общих систем с позиций системной технологии. Мы исходим из общепринятого определения: «Модель – вспомогательный объект (или система), заменяющий изучаемый объект,

Проблемы моделирования сознания. Искусственный интеллект

На всем протяжении развития философии, начиная с античности, неоднократно ставилась проблема соотношения психических и физических (а затем и физиологических) явлений и процессов. Особый интерес к ней проявился в философии Нового времени в связи с поисками оснований человеческого сознания. Так, гилозоизм (от греч. hyle - вещество, материя, zoe - жизнь), исходивший из признания одушевленности всех тел, Космоса, природы, пытался отыскать корни психических явлений в материальном мире. Разделявший его установки Б. Спиноза, например, считал мышление атрибутом материи, свойством, присущим всей природе.

В XIX в. вульгарным материализмом (от лат. vulgarus - обыкновенный, простой), теоретическим предшественником которого являлся французский философ XVIII в. П. Кабанис, были предприняты попытки свести сложные психические процессы к физиологическим проявлениям работы человеческого мозга. Современные варианты этой традиции, в частности, представлены в биополевых концепциях сознания, точно так же недооценивающих идеальную сущность сознания, его социокультурную природу.

В отличие от вульгарного материализма и идеализма, диалектико-материалистическая философия исходила из признания того, что сознание человека, будучи идеальным по своей природе, является функциональным свойством высокоорганизованной материи - человеческого мозга.

Во 2-й половине XX в. благодаря информационно-компьютерной революции возникли новые возможности исследования работы человеческого мозга и его функций с помощью систем искусственного интеллекта. В исследованиях по искусственному интеллекту можно выделить четыре взаимосвязанные области, в которых разрабатываются:

1) системы, имитирующие отдельные творческие процессы (программы для решения игровых задач, автоматического перевода, доказательства теорем, распознавания изображений и т. д.);

2) интеллектуальные системы, основанные на знаниях (информационно-поисковые, расчетно-логические, экспертные);

3) новая архитектура ЭВМ (ЭВМ пятого поколения и новые технологии их использования);

4) интеллектуальные роботы (например, автономные транспортные средства, вооруженные многочисленными сенсорными системами).

Разработки в области искусственного интеллекта заложили реальную основу для проверки философских и научных гипотез о природе человеческого разума. Философия оказалась сопричастной экспериментальной деятельности, осуществляемой при разработке программ искусственного интеллекта. Так, например, в ходе попыток создания универсальных обучающих программ (М. Бонгард) была успешно апробирована идея Дж. Локка о распознавании как основе мышления. Создание программ, понимающих естественный язык, программ, способных доказывать математические теоремы, в частности, базируется на трактовке разума Г. Лейбницем, рассматривавшим его не в качестве «чистой доски», а, выражаясь современным языком, совокупности специализированных программ, подключающихся к работе по мере необходимости. За обнаружившейся необходимостью введения в программы искусственного интеллекта «универсальных объяснительных схем» просматривается идея И. Канта о существовании «априорных синтетических суждений», таких, как понятие причинности, представление о пространстве и времени.

В современной гуманитаристике проблема искусственного интеллекта рассматривается в следующих аспектах:

1) разработка критериев эффективности разрабатываемых алгоритмов обработки неформализованных данных (таких, как обычная человеческая речь), языковой коммуникации с другими машинами и людьми «на право» считаться искусственным интеллектом (это связано с именем Алана Тьюринга и предложенным им «тестом Тьюринга» - искусственным интеллектом может считаться такой алгоритм, при общении с которым независимый наблюдатель-человек не сможет провести различие между человеком и машиной;

2) обсуждение антропологических проблем в контексте информационных технологий (что есть «человек», если большинство реальных жизненных функций человека можно свести к коммуникации в сетевой среде; что произойдет, если мощь искусственного интеллекта по каким-то причинам вступит в противоборство с человеческим; условно говоря, «за счет чего армия людей сможет победить армию боевых роботов, и сможет ли вообще» - вопрос пока из области фантастики, но доступный для теоретического моделирования);