Естественный и искусственный интеллект философия кратко. Иными словами, разрабатывается не искусственный интеллект, а… система условно-рефлекторной деятельности или рефлективного мышления

  • Специальность ВАК РФ09.00.08
  • Количество страниц 180
Диссертация добавить в корзину 500p

Глава I. Философские и экспериментально-научные основания проблемы искусственного интеллекта

1.1. Проблемы определения понятий «интеллект» и искусственный интеллект».

1.2. Современные философско-теоретические и экспериментально-технологические проблемы создания искусственного интеллекта.

Глава 2. Философия сознания и искусственный интеллект

2.1 Проблема возможности создания искусственного интеллекта в контексте философии сознания.

2.2 Логико-математические аргументы против искусственного интеллекта (геделевский аргумент и аргумент китайской комнаты).

Введение диссертации (часть автореферата) на тему "Философские аспекты проблем создания искусственного интеллекта"

Актуальность темы исследования. Появление в конце 40-х годов XX столетия электронных цифровых вычислительных машин, обладающих универсальными возможностями и высокой производительностью - сразу же породил вопрос: могут ли машины подобного типа (при их дальнейшем совершенствовании) «мыслить» подобно человеку1? Иными словами, возможно ли создать машину, интеллектуальные возможности которой были тождественны интеллектуальным возможностям человека (или даже превосходили возможности человека). Успехи практической имитации некоторых простых интеллектуальных функций в пионерских работах 50-60 годов, а также некоторые теоретические соображения - породили у многих исследователей уверенность в том, что задача создания полноценного «искусственного разума» вполне разрешима и, более того, создание «умных машин» - дело ближайшего будущего (точнее, ближайших 20-30 лет). Однако все сроки прошли, а ожидаемый результат так и не был получен.

Современные «интеллектуальные машины» способны чисто внешним образом имитировать отдельные интеллектуальные функции человека, отдельные психические процессы (распознавание образов, решение логических задач, игра в шахматы и т.п.), но они не обладают интеллектуальностью в подлинном смысле этого слова - они не способны к самообучению, не могут осмысленно понимать человеческую речь и вступать с человеком в осмысленный диалог, не способны творчески подходить к решению проблем, не обладают той гибкостью поведения, которая характерна для человека. Собственно задача создания «машинного эквивалента» человеческого интеллекта современными разработчиками систем «искусственного интеллекта» фактически даже и не ставится, поскольку реальных путей решения этой задачи они не видят. Основные усилия направляются на решение конкретных, практически значимых задач, безотносительно к тому, приближает ли решение этих задач нас к «интегральному» искусственному интеллекту, воспроизводящему все основные интеллектуальные функции человека, или же нет.

Является ли, в таком случае исследование на тему «возможен ли искусственный интеллект, тождественный по своим возможностям человеческому», актуальным? На этот вопрос можно ответить так: хотя с точки зрения технических приложений и разработок - этот вопрос и потерял в настоящее время актуальность, он по-прежнему весьма интересен с философской точки зрения. (То, что интерес к данной проблеме сохраняется, видно хотя бы по той бурной дискуссии, которую в середине 90-х годов вызвали публикации Р. Пенроуза, в которых он, опираясь на теорему К. Геделя о неполноте формальных систем, обосновывал вывод о принципиальной невозможности создания машинных алгоритмов, способных имитировать во всем объеме интеллектуальные способности человека). Обычно отсутствие интереса к проблеме создания «интегрального» искусственного интеллекта человеческого уровня объясняют так: мы пока очень плохо понимаем природу человеческого интеллекта и, поэтому не можем ясно себе представить, каким образом можно создать его машинный аналог. При этом, однако, обычно неявно предполагают, что механизм человеческого мышления в принципе может быть прояснен и представлен в виде некоторого алгоритма, хотя решение этой задачи отодвигается на неопределенное будущее. Но это положение, как мы увидим далее, далеко не самоочевидно. Вполне возможно такое положение дел, что природа человеческого интеллекта такова, что «прояснить» его механизмы, свести

См.: Тьюринг А. Может ли машина мыслить? М., 1960. деятельность интеллекта к некоторому набору «функций» или «операций», невозможно в принципе. Тогда решение ограничиться решением частных, конкретных, практически значимых задач, вполне оправдано. В противном случае, если нет принципиальной разницы между человеческим и «машинным» умом, то, следует, видимо, вернуться к «глобалистским» подходам 50-60 годов и направить все усилия на исследование реальных механизмов мышления в надежде открыть некий «алгоритм человеческого ума». Такой подход в случае успеха позволил бы сразу решить практически неограниченное число прикладных задач - поскольку не нужно было бы каждый раз заново разрабатывать «интеллектуальные» программы для решения очередной задачи - ведь подлинно «интеллектуальная» машина была бы способна самостоятельно найти эффективный путь решения любой (или почти любой) поставленной перед ней задачи. Ведь именно эту способность - находить решения (и ставить сами задачи) самостоятельно мы, собственно, и называем интеллектом.

Таким образом, решение вопроса о принципиальной возможности машинной имитации человеческого интеллекта позволит нам оценить перспективность тех или иных направлений развития машинных «интеллектуальных систем». Но и вне этого «практического» аспекта, решение вопроса о принципиальной возможности создания машинного эквивалента человеческого «ума» имело бы огромное значение для понимания природы человеческого мышления и сознания, понимания природы психического в целом. С нашей точки зрения, накопленный к настоящему времени опыт создания различных «интеллектуальных систем», а также имеющиеся в настоящее время результаты исследования человеческого интеллекта и человеческого сознания в философии и психологии, позволяют уже сейчас дать, по крайней мере, предварительную оценку перспективы создания ал

2 См.: Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9); 1996, 2(23). горитмической искусственной системы, равной по своим возможностям человеческому интеллекту. Последнее и делает актуальной тему данного диссертационного исследования.

Степень разработанности проблемы. В работе исследуется широкий круг вопросов, традиционно относящихся к философии искусственного интеллекта. Можно отметить слабую теоретическую базу для философской рефлексии по поводу искусственного интеллекта, обусловленную, с одной стороны, пониженным интересом со стороны философов к проблемам человеческой практики (субъективный фактор), с другой стороны - объективной сложностью этих проблем.

Вопрос о возможности создания полноценной искусственной (машинной) имитации человеческого интеллекта впервые был поставлен А. Тьюрингом в 1950 году в его статье «Вычислительные машины и интеллект»3. Непосредственным поводом написания данной статьи было создание в 1945 году в Пенсильванском университете первой электронной цифровой вычислительной машины ЭНИАК. (Машина была создана группой под руководством проф. Дж. У. Мокли в декабре 1945 года. В 1946 году она была рассекречена. Идея же создания этой машины принадлежит профессору колледжа штата Айова Д.В. Атанасову. Еще в 1941 году он вместе с К.Э. Берри создал прототип ЭНИАКа - машину Эй-Би-Си (Атанасов-БерриКомпьютер) - которая, по сути, и была первым в мире цифровым компьютером. Однако до 1946 года все разработки в этой области были засекречены. Поэтому отсчет «компьютерной эры» обычно начинают с 1946 года)4.

Тьюринг одним из первых попытался выяснить какими возможностями обладают электронные вычислительные машины и можно ли по

3 См.: Тьюринг А. Может ли машина мыслить? М., 1960. средством алгоритмических вычислений, осуществляемых с помощью таких машин, имитировать деятельность человеческого интеллекта. Это, в свою очередь, поставило перед ним вопрос: какова природа человеческого мышления? Поскольку ни психология, ни философия не давали четкого ответа на этот вопрос, Тьюринг заменяет его более понятным и практичным вопросом: как оценить степень сходства человеческого и машинного интеллекта? В качестве теста на «интеллектуальность Тьюринг предложил свою знаменитую «игру в имитацию», известную ныне как «тест Тьюринга». Машина, по Тьюрингу, обладает свойством «разумности», если в заочном диалоге собеседник-человек не способен будет установить, с кем он имеет дело: с человеком или с разумной машиной.

Хотя такой чисто «прагматический» подход к пониманию «разумности» вызвал резкую критику со стороны философов5 (критики подчеркивали, что сущностное определение разума здесь подменяется простой констатацией сходства), тем не менее, для практических целей критерий Тьюринга был вполне удовлетворительным, и это обстоятельство в значительной мере предопределило тот прагматический стиль исследований в области искусственного интеллекта, который сохранился и до наших дней. Суть этого стиля - игнорирование всех сколько-нибудь сложных философских вопросов и ориентация лишь на достижение практических целей.

Уже в упомянутой статье Тьюринга ставилась задача создания универсального (интегрального) искусственного интеллекта. Тьюринг писал: «Мы можем надеяться, что машины, в конце концов, будут успешно соперничать с людьми во всех чисто интеллектуальных областях6.». Далее он предлагает следующий план: «. снабдить машину хорошими органами

4 О «докомпьютерной» предыстории искусственного интеллекта см. статью: Быковский И. А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.

5 См: Anderson A.R. Mind and Machines. N.Y. 1964.

6 Тьюринг А. Может ли машина мыслить? M., 1960. С. 57. чувств, а затем научить ее понимать и говорить по-английски. В этом случае машину можно будет обучать, как ребенка.»7.

Вскоре были осуществлены первые попытки реализации этого плана. В 1952 году А. Этткинд реализовал на машине программу, моделирующую условный рефлекс: реакция машины на «раздражитель» усиливалась или ослабевала в зависимости от положительного или отрицательного «подкрепления». Несколько позже он же занялся проблемой машинного перевода, надеясь на этом пути прийти к созданию «понимающей» машины. Параллельно в эти же годы велись разработки шахматных программ.

Хотя первые разработки выглядели весьма обнадеживающими, эти исследования не позволили создать машины, поведение которых хотя бы в отдаленной степени напоминало разумное поведение человека. Неудачи отчасти объяснялись тем, что ранние программы были построены на основе метода сплошного перебора вариантов, что вело к экспоненциальному росту объема вычислений при увеличении размерности задачи. Т.о., резервы быстродействия и памяти существовавших тогда ЭВМ были быстро исчерпаны. Кроме того, не удалось установить общие правила, с помощью которых любой вид мыслительной деятельности можно было бы представить в виде четкого алгоритма.

Важным шагом в развитии искусственного интеллекта была идея «эвристического программирования». Ее авторы Г. Саймон и А. Ньюэлл анализировали процессы решения логических задач людьми и обнаружили, что испытуемые часто использовали особые приемы (т.н. «эвристики») которые, не будучи универсальными, тем не менее, во многих случаях приводили к успеху (хотя и не давали полной гарантии решения задачи). Ньюэлл и Саймон попытались систематизировать эти приемы и разработали на этой основе программу, имитирующую, по их мнению, «практический интеллект» человека. Эти программы и получили название «эвристических». Впервые эвристики были применены в программе «Логик-теоретик», предназначенной для решения задач элементарной символической логики. Позже (1957 г.) найденные эвристики удалось распространить на более широкий класс задач - в результате была создана программа «Общий решатель задач» (GPS).

Именно с этих двух программ (Логик -теоретик и GPS) и начинается фактическая история «искусственного интеллекта». (Сам термин «исо кусственный интеллект» впервые появился в одной из статей Саймона и Ньюэлла, посвященной GPS, которая была опубликована в 1958 году).

Успешное применение «Логика-теоретика» , GPS и других подобных программ породили большие надежды и оптимизм и существенным образом стимулировали исследования в данной области. Масштаб этого оптимизма ясно виден из следующей цитаты из упомянутой статьи Саймона и Ньюэлла: «. в настоящее время в мире существуют машины, которые мыслят, учатся и проявляют способности к творчеству. Более того, их способности будут быстро расти вплоть до того момента в обозримом уже будущем, когда сфера их деятельности охватит круг вопросов, над которыми когда-либо размышлял человеческий разум»9. Далее они писали: «Не пройдет и десяти лет, как большинство психологических теорий примет форму программы для вычислительной машины или качественных характеристик машинных программ». Но существенного прогресса в области создания «интегрального искусственного интеллекта», равного по возможностям человеческому, ни через десять лет, ни по сей день, достигнуто не было.

8 Simon Н.А., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958.

9 Там же. С. 6.

Последующие исследования быстро дифференцировались на ряд специализированных направлений. Можно выделить следующие направления, традиционно относимые к области искусственного интеллекта:

1. Распознавание образов.

2. Доказательство теорем и решение задач.

3. Игры и принятие решений.

4. Естественные языки и их машинное понимание. Машинный перевод.

5. «Разумные роботы».

6. Экспертные системы.

7. Моделирование творческой деятельности.

8. Моделирование нейронных сетей. Моделирование поведения животных.

9. Специализированные интеллектуальные системы промышленного, военного, космического и т.п. назначения.

Первоначально предполагалось, что уже через 10 лет (т.е. к концу 60-х годов) появятся машины, которые смогут соперничать с человеком практически во всех областях интеллектуальной деятельности. Эти прогнозы не подтвердились. Только через 40 лет компьютер смог на равных сыграть в шахматы с чемпионом мира. По большинству рассмотренных позиций компьютер и сейчас существенно уступает человеку, по крайней мере, в тех случаях, когда речь идет о творческой интеллектуальной деятельности.

Подводя итог исследований в области искусственного интеллекта за последние 50 лет, мы можем сделать вывод, что при должной настойчивости любая локальная область интеллектуальной деятельности человека (по крайней мере, если она не носит ярко выраженного творческого характера) может быть представлена в виде алгоритма (совокупности четких инструкций) и передана машине. Однако конечная цель проекта «искусственный интеллект» - создание универсальной «разумной машины», которая могла бы обучаться, подобно человеку, и самостоятельно совершенствовать свое поведение, осваивая новые виды интеллектуальной деятельности и достигая при этом уровня человека средних способностей - эта цель не достигнута и появляется все больше сомнений в ее принципиальной достижимости. По крайней мере, никакого реального прогресса в создании такого самообучающегося «интегрального» интеллекта достигнуто не было.

Как, например, обстоит дело с «тестом Тьюринга»? С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. Пока ещё эти программы (т.н. боты) крайне малоразумны. Всё, что они делают - это применяют, более или менее удачно, заранее подсказанные человеком правила.

Осмыслить разговор боты, как правило, даже не пытаются. В основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки. Ясно, что при таком подходе создать действительно разумного собеседника нам никогда не удастся.

Компьютерные шахматные программы, хотя они и обыгрывают Кас-парова, магистральным путем к созданию интегрального искусственного интеллекта явно не являются. Их принцип действия - это перебор вариантов плюс использование накопленных в шахматной теории правил (теория эндшпилей, разыгрывание стандартных дебютов и т.п.). Эти правила нигде кроме шахмат, не применяются. Кроме того, шахматный компьютер не способен обучаться, не способен самостоятельно придумывать новые правила. «Шахматное творчество» для него недоступно.

Робота можно даже научить играть в футбол. Регулярно проводятся футбольные турниры роботов. Но даже самый лучший робот-футболист не сможет даже на элементарном уровне участвовать в игре в хоккей или в какой-либо другой игре, он не способен учиться, его программа основана, как правило, на очень примитивных инструкциях. Таким образом, ничего специфически «разумного» современные «интеллектуальные» программы не демонстрируют.

Параллельно с разработкой конкретных программ искусственного интеллекта появились философские работы, в которых делались попытки осмыслить данную проблематику. Сразу же нужно подчеркнуть, что философские исследования не оказывали и по сей день не оказывают сколько-нибудь существенного влияния на практические разработки в данной области. В целом можно выделить два основных направления развития «философии искусственного интеллекта».

Во-первых, многие философы позитивно восприняли идею возможности компьютерной имитации человеческой психики и попытались использовать эту идею для переосмысления традиционной проблематики философии сознания, философии интеллекта, а также психофизической проблемы. В основе этих попыток лежит т.н. «компьютерная метафора», т.е. уподобление мозга компьютеру, а психики - функции (или программе) этого компьютера. Один из представителей этого направления М. Минский прямо называет мозг «мясным компьютером», а сознание, по его мнению - «это просто то, что мозг делает».

Философское осмысление «компьютерной метафоры» породило так называемый «функциональный подход» к решению психофизической проблемы, который можно характеризовать классической формулой: «сознание есть функция мозга». (X. Патнем10, Д. Фодор11, Д.И. Дубровский12, Т. Ярвилехто13 и др). Компьютерная метафора также, видимо, существенным образом стимулировала в 50-60 годы создание различных «элиминирую

10 См.: Патнем X. Философия сознания. М., 1999.

См.: Fodor J.A. The Mind-Body Problem //Sci. Amer., 1981.№1. P.l 14-123.

12 См.: Дубровский ДИ. Психические явления и мозг. М., 1971. щих теорий», отрицающих существование сознания как особой «приватной» реальности (хотя философской основой элиминации «внутреннего мира» были относящиеся к более раннему периоду работы Л. Витгенштейна). Мы имеем здесь в виду таких авторов, как Д. Армстронг14, Дж. Смарт15, Г. Райл16, Г. Фейгл17 и др.

Воздействие «компьютерной метафоры» на психологию породило в 60-е годы весьма продуктивное направление психологических исследований -т.н. «когнитивную психологию»18. Нейрофизиологи, в свою очередь, получили компьютерные модели нейронных сетей19. Основная идея когнитивного подхода в психологии - рассмотреть психические процессы как процессы внутренней переработки сенсорной информации и выработки оптимальных поведенческих решений. Психолог- когнитивист пытается экспериментально установить, какие конкретно алгоритмы использует мозг человека, не принимая во внимание возможные нейрональные механизмы реализации данных алгоритмов.

Во-вторых, уже в 60-х -70-х годах ряд исследователей пытаются осмыслить проблематику искусственного интеллекта с позиций философии сознания. Именно представители этого направления впервые выразили сомнение в принципиальной разрешимости проблемы создания интегрального искусственного интеллекта и попытались выяснить, чем человеческий интеллект может принципиально отличаться от любых его возможных машинных имитаций.

Одна из первых работ, в которой была дана обстоятельная критика искусственного интеллекта, -это вышедшая в 1971 году (русский перевод

13См.: Ярвилехто Т. Мозг и психика. M., 1992.

14 См.: Armstrong D.M. Materialist Theory of Mind. L., 1969.

15Cm.: Smart J.J. Philosophy and Scientific Realism. L., 1963.

16 См.: Райл Г. Понятие сознания. М.,2000.

См.: Feigle Н. The "Mental" and the "Physical". Minneapolis, 1976.

18См.: Найсер У.Познание и реальность. М., 1981.

19 См.: Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989.

1978г.) работа X. Дрейфуса «Чего не могут вычислительные машины». В этой работе X. Дрейфус тщательно проанализировал допущения, лежащие в основе веры в возможность создания машинного аналога человеческого разума. Дрейфус выделяет четыре основных допущения:

1. Биологическое (нейродинамические процессы в мозге изоморфны некоторой переключательной схеме).

2. Психологическое (мышление есть процесс переработки информации, заданной в дискретной форме, причем эта переработка подчинена конкретному алгоритму).

3. Эпистемологическое (всякое знание можно формализовать).

4. Онтологическое (все существующее представимо в терминах множества четко определенных, независимых друг от друга элементов).

Дрейфус пытался показать, что биологическое допущение не согласуется с новейшими данными нейрофизиологии, тогда как другие три допущения не являются твердо установленными истинами и могут оказаться 20 несостоятельными.

Одно из основных препятствий на пути создания адекватной машинной модели человеческого интеллекта Дрейфус видит в неосуществимости алгоритмического моделирования человеческих потребностей, мотивов и деятельности целеполагания. При этом он подчеркивает биологический, телесно детерминированный характер человеческих потребностей и важность двигательной активности организма - как средства приобретения особого телесно-моторного опыта. Машину нельзя, по мнению Дрейфуса, запрограммировать таким образом, чтобы она была способна ставить собственные цели, испытывать желания и т.д.

20 Заметим, что примерно в это же время подобные возражения независимо от Дрейфуса обсуждались и в отечественной литературе. См., например, коллективную монографию «Управление, информация, интеллект под ред. А.И. Берга М., 1976.

Этот аргумент представляется весьма спорным, особенно если учесть более поздние разработки в области компьютерного моделирования моти

Л 1 вации, эмоций и целеполагания. В целом, следует признать, что работа Дрейфуса не дала определенного ответа на вопрос: возможен ли интегральный искусственный интеллект, равный по своим возможностям интеллекту человека. Гораздо большее значение, на наш взгляд, имеет так называемый «геделевский аргумент» против искусственного интеллекта. Впервые этот аргумент сформулировал британский математик Дж. Лукас в 1961 г.22 По мнению Дж. Лукаса, из известной теоремы К. Геделя «о неполноте формальных систем» (доказанной в 1931 г.) вытекает принципиальное различие между человеческим мышлением и любыми, сколь угодно сложными алгоритмическими системами искусственного интеллекта. В 60-е годы аргументация Лукаса была встречена весьма скептически и не повлияла существенно на исследования искусственных интеллектуальных систем. Однако в 1989 году этот аргумент «воскресил» и значительно усилил известный британский физик и математик Р. Пенроуз. Вышедшие одна за другой две его обстоятельные монографии привлекли к себе внимание и вызвали обширную дискуссию, в которой приняли многие известные математики, философы, нейрофизиологи и специалисты по искусственному интеллекту24. Но и в этой новой дискуссии опять возобладало скептическое отношение к геделевскому аргументу. С нашей точки зрения, многие возражения против геделевского аргумента явно несостоятельны и поэтому дискуссию по данному вопросу не следует считать закрытой.

21 См., например, доклад У. Фота в «Трудах международной объединительной конференции по искусственному интеллекту» М., 1975.

22 См.: Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961,36, pp. 112-127.

23 См.: Пенроуз P. Новый ум короля. М., 2002, Penrose R. Shadows of the Mind. L., 1993.

24 См. материалы этой дискуссии в журнале PSYHE выпуски 1995-96 г.г.

Большое значение для оценки возможности создания интегрального искусственного интеллекта имеет, как мы полагаем, придуманный американским философом Дж. Сёрлом мысленный эксперимент, известный как «аргумент китайской комнаты ». Сёрл задался вопросом: будет ли машинный эквивалент человеческого интеллекта действительно обладать такими психическими функциями, как понимание, чувственное восприятие, мышление и убедительно показал, что на этот вопрос следует ответить однозначно отрицательно (независимо от степени совершенства предполагаемой системы машинного интеллекта). Машина в любом случае будет лишь чисто внешним образом имитировать понимание, восприя^йе и мышление, ничего на самом деле не понимая, не воспринимая и не мысля.

Геделевский аргумент» и «аргумент китайской комнаты» - $то два важных аргумента, ставящих серьезным образом под сомнение й&змож-ность полноценного машинного моделирования человеческого мышления. Но требуется философское прояснение смысла этих аргументов, которые сами по себе носят не философский, а скорее логико-математический характер.

Существенный недостаток современных дискуссий о возможности или невозможности искусственного интеллекта - в них, как правило, очень мало используется тот богатый пласт идей, который был накоплен в философии сознания и философии интеллекта. Здесь нужно выделить две важные проблемы, которые широко обсуждались философами, но пока еще не вошли в круг представлений и интересов специалистов в области искусственного интеллекта. Это, во-первых, проблема уровневого строения человеческого мышления и, во-вторых, это психофизическая проблема.

В первом случае, ключевой является идея сложного, многоуровнего устройства человеческого интеллекта, которая разрабатывалась в филосо

25См.: Сёрл Дж. Разум мозга - компьютерная программа?// В мире науки. 1990. №3. С.7-13. фии начиная с античности. Нельзя сказать, что эта идея полностью игнорируется в философской литературе, посвященной проблематике искусственного интеллекта. Существует достаточно большое число работ, в том числе монографий, посвященных сопоставлению человеческого и машинного мышления (в основном это работы 70-х годов), в которых эта идея так или иначе затрагивается26. Недостаток этих и многих других работ видится в том, что в них не используют весь спектр философских разработок в области теории интеллекта и в философии сознания. Кроме того, как правило, уже изначально в работах такого плана присутствует априорная установка на принципиальную разрешимость проблемы машинного моделирования человеческого мышления. Установка, с нашей точки зрения, весьма спорная.

Мало внимания специалисты по искусственному интеллекту уделяют также психофизической проблеме. Для оценки возможности «переноса» человеческого мышления на новую субстратную основу важно знать, каким образом «естественное» человеческое мышление (и сознание в целом) соотносится с биологическим субстратом -мозгом. К сожалению, проблема «мозг и сознание» далека от окончательного решения. Но философами выработан целый ряд подходов к решению этой проблемы. Существует связь между способом решения психофизической проблемы и оценкой возможности создания искусственного интеллекта. Однако эта связь до сих пор систематически не исследовалась.

Учитывая отмеченные пробелы в философском анализе искусственного интеллекта, мы и определили приоритетные направления нашего исследования.

26 См, например Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972, Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973, Виноград Т. Программа, понимающая естественный язык. М., 1976, Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. и др. Из современных работ отметим содержательную статью Дубинский А.Г. К определению понятия "интеллект" И Искусственный интеллект. - 2001. - №4.

Теоретические и методологические основы исследования. Многоплановость содержания искусственного интеллекта, неоднозначность его толкования влечет за собой разнообразие подходов при решении фундаментальных проблем философии искусственного интеллекта. Поэтому в основу работы положен компаративистский подход и различные методы философского анализа: логический, системный подход, элементы структурного анализа. Теоретической основой исследования являются концепция сложного, многоуровневого строения человеческого интеллекта и идея его несоизмеримости с алгоритмическими системами. Анализируя искусственный интеллект и его связь с естественным интеллектом, мы опирались на работы таких отечественных и западных философов, как И.Ю. Алексеев, B.C. Библер, Дж. Вейценбаум, Б. Геранзон, В.М. Глушков, А.Г. Дубинский, X. Дрейфус, Э.В. Ильенков, X. Патнем, Р. Пенроуз, Д.А. Поспелов, С. Прист, Г. Райл, Р. Рорти, Дж. Сёрл, М. Таубе, Дж. Чалмерс и др.

Цель и задачи исследования. Основной целью настоящего исследования является всесторонний философский анализ проблемы возможности создания «интегрального» искусственного интеллекта, т. е. создания искусственных систем, эквивалентных по своим функциональным, поведенческим возможностям человеческому интеллекту.

Для достижения этой цели необходимо решить следующие задачи:

1. Дать четкую дефиницию понятий «интеллект» и «искусственный интеллект».

2. Проанализировать историческое становление и современное состояние проблемы искусственного интеллекта.

3. Исследовать основные подходы к решению психофизической проблемы и дать в этом контексте оценку перспектив создания искусственного интеллекта.

4. Провести критический анализ основных аргументов «за» и «против» принципиальной разрешимости проблемы создания искусственного интеллекта.

Объект исследования. Объектом исследования выступает «искусственный интеллект», рассматриваемый как совокупность технических средств, моделирующих различные аспекты «естественного» интеллекта человека.

Предмет исследования. В качестве предмета исследования выступают проблема принципиальной возможности создания искусственного интеллекта, тождественного по своим функциональным возможностям естественному.

Новизна диссертационного исследования. Новизна предпринятого исследования связана с самой постановкой и решением проблемы, в особенностях подхода к ней. Диссертация является первым комплексным философским исследованием понятий "интеллект" и "искусственный интеллект", а также проблем создания "интегрального" искусственного интеллекта, в котором:

1. Впервые продемонстрировано принципиальное различие в понимании сущности интеллекта и искусственного интеллекта в философии и в компьютерных науках.

2. Дан оригинальный анализ современных концепций, рассматривающих возможность создания искусственного интеллекта и находящихся в связи с практическими разработками в этой области.

3. Показано, что функционалистский подход, исследуя естественный интеллект с позиций компьютерных наук, интерпретирует мыслительную способность человека, как реализацию алгоритмического вычисления, не принимая во внимание сложности и парадоксы, к которым ведет идея полной алгоритмизации мыслительных процессов.

4. Получен вывод, что теоретические разработки в области «интегрального» искусственного интеллекта, несмотря на многочисленные успехи в области практического создания конкретных (локальных) интеллектуальных систем, свидетельствуют о принципиальных трудностях на пути создания полноценного искусственного аналога человеческого интеллекта, отвечающего сформированным в философии представлениям о человеческой интеллектуальности.

Положения, выносимые на защиту. С учетом общих теоретических результатов, полученных в результате исследования, на защиту выносятся следующие основные положения:

1. Интеллект представляет собой целостный комплекс способностей, включающий здравый смысл, рассудок, разум и интуицию. Наличие интеллекта предполагает способность к теоретическому обобщению, к творческому мышлению, предполагает способность не только самостоятельно решать задачи, но и самостоятельно их ставить, открывать новые проблемные области исследования.

2. В современных философских и научных исследованиях по искусственному интеллекту последний понимается как способность решать интеллектуальные задачи путем приобретения, запоминания и целенаправленного преобразования знаний в процессе обучения, а также при адаптации к разнообразным обстоятельствам. Понятие интеллектуальности как способности к решению определенных задач не отражает всей многомерности и сложности человеческой интеллектуальной деятельности. Важнейшая характеристика человеческого интеллекта - способность не только решать, но и ставить принципиально новые задачи - не поддается алгоритмической имитации.

3. Практические трудности создания интегрального искусственного интеллекта определяются принципиальными качественными отличиями человеческого интеллекта от алгоритмических систем. В пользу существования таких качественных отличий свидетельствует ряд аргументов философского и логико-математического характера («геделевский аргумент», «аргумент китайской комнаты» и др.), которые показывают, что человеческий интеллект обладает способностями (ассоциируемыми с понятием «творчество»), выходящими за рамки возможностей любых, сколь угодно сложных алгоритмических систем. Сказанное, однако, не исключает возможности алгоритмического воспроизведения отдельных, не носящих явно творческого характера интеллектуальных функций или интеллектуальной деятельности человека в конкретных предметных сферах (шахматы, решение логических задач заданного уровня сложности, управление конкретным производством).

4. Натуралистические подходы к пониманию природы сознания и решению психофизической проблемы, наиболее соответствующие идее о возможности алгоритмической имитации человеческого интеллекта (элиминирующие теории и функциональный подход), неудовлетворительны в концептуальном плане, поскольку либо вообще отрицают наличие сознания, либо не способны объяснить, как явления сознания (как феномены внутреннего мира) могут возникнуть в качестве «результата мозговой деятельности». Другие (ненатуралистические) подходы к решению психофизической проблемы: двухаспектный подход (психофизический параллелизм) и дуализм (интеракционизм) явно не совместимы с идеей возможности создания искусственного интеллекта.

5. Всякая аргументация, основанная на экспериментах в области возможности создания искусственного интеллекта, должна быть подвергнута строгому анализу на теоретико-философском уровне, вне которого любые утверждения о возможности создания искусственного интеллекта или о его успешном моделировании как свершившемся факте не могут быть признаны истинными.

Теоретическая и практическая значимость исследования определяются обозначенными актуальностью и новизной работы. В результате предпринятого диссертационного исследования философия науки пополнилась новыми положениями и выводами об искусственном интеллекте. Решение основных задач работы: определение понятий интеллекта и искусственного интеллекта, анализ основных проблем, связанных с попытками разработки метода создания искусственного интеллекта - позволило получить в ходе данного исследования результаты, которые в условиях современной техногенной цивилизации могут сформировать адекватное мировоззрение и оценить сущность исследуемых феноменов. Выводы исследования могут также расширить понимание проблем сознания и сформировать положительную установку на возможность создания и применение искусственного интеллекта.

Результаты данного исследования имеют и методологическое значение для теоретических и практических разработок, относящихся к теме искусственного интеллекта. Материалы могут быть использованы при подготовке курсов: «Философия техники», «Концепции современного естествознания», лекций по отдельным разделам и специальным темам систематического курса философии.

Апробация результатов исследования. Основное содержание диссертационного исследования отражено в двух статьях и брошюре.

Главные положения, результаты и выводы, содержащиеся в диссертации докладывались и обсуждались на итоговых научных конференциях в СГУ им. Н. Г. Чернышевского:

1. Межвузовская научная конференция «Философия науки: идеи, проблемы, перспективы развития» (Саратов, май 2002).

2. Конференция молодых ученых «Философия: жизненный мир человека» (Саратов, декабрь 2002).

3. Межвузовская научная конференция «Человек в глобальном мире» (Саратов, декабрь 2003). Структура работы. Диссертация состоит из введения, двух глав, четырех параграфов, заключения и библиографического списка литературы.

Заключение диссертации по теме "Философия науки и техники", Быковский, Игорь Александрович

ЗАКЛЮЧЕНИЕ

Анализируя основные аргументы, выдвигаемые против искусственного интеллекта, рассматривая данные о многоуровневом строении человеческого интеллекта, а также оценивая реальное положение дел в области компьютерной имитации человеческого мышления, мы пришли к выводу: полная машинная имитация человеческого интеллекта, по всей вероятности, принципиально не возможна. Здесь уместно процитировать Д.Ф. Араго, который говорил: «Тот, кто говорит «невозможно» вне чистой математики, тот не понимает своего предмета». Поэтому наше заключение и содержит оговорку «по всей видимости». История науки говорит нам о том, что любые, сколь угодно убедительные и обоснованные теоретические заключения могут быть опровергнуты новыми, неожиданными фактами. Поэтому нельзя априори исключить, что интегральный искусственный интеллект, равный по возможностям человеческому, все же когда-нибудь будет создан - вопреки всем теоретическим запретам. В этом случае нам придется существенным образом пересмотреть привычные для нас способы теоретической аргументации.

Учитывая сказанное, примем более осторожную формулировку нашего заключения: идея возможности создания машинного аналога человеческого интеллекта не представляется в настоящее время в достаточной степени теоретически и эмпирически обоснованной. Напротив, существует ряд весьма убедительных аргументов, которые указывают на существование принципиального различия между интеллектом человека и любыми, сколь угодно сложными «интеллектуальными» алгоритмическими системами.

Следует ли отсюда, что исследования в области искусственного интеллекта нужно свернуть? Нет, конечно. Мы не можем искусственно воспроизвести человеческий интеллект в целом, но вполне можем воспроизвести отдельные его функции и имитировать его действие в ограниченных предметных сферах. Исследования в этих направлениях уже сейчас дают ощутимый экономический эффект, приносят реальную пользу человечеству. Все, чего человек реально достиг, все конкретные результаты его творчества в той мере, в какой мы их способны понять и объяснить - вполне могут быть представлены в виде алгоритмов и, таким образом, могут быть «пересажены» в «машинный ум» (об этом, в частности, убедительно говорят успехи шахматных программ). Но человек всегда способен пойти дальше, придумать что-то новое, небывалое, т.е. способен к подлинному творчеству, чего никак нельзя сказать о машине.

Создать машину, способную к творчеству, т.е. такую машину, которая бы действительно создавала что-то принципиально новое, а не копировала или компилировала бы уже открытые приемы и методы работы, видимо, принципиально не возможно. Сама идея творчества противоречит алгоритмическому подходу: творить - это и значит действовать не по правшам. «Правил творчества» нет и быть не может (хотя были попытки и творчество представить в виде алгоритма).

Польза от исследований в области искусственного интеллекта не ограничивается только лишь экономической выгодой. Если верно заключение о невозможности имитации функции человеческого интеллекта каким-то альтернативным по отношению к человеческому мозгу способом, то отсюда следует, что попытки создания искусственного интеллекта, если они окажутся успешными, помогут нам в конечном итоге понять нечто важное относительно природы нашего сознания и нашего ума. Ведь эти попытки, с этой точки зрения, могут быть успешными только в том случае, если нам удастся раскрыть (или угадать) механизм человеческого мышления и воспроизвести его каким-то искусственным путем. Но здесь необходимо учитывать тот факт, что полное понимание того или иного явления предполагает возможность его алгоритмического описания. Предполагаемая «неал-горитмизируемость» сознания исключает его полное и исчерпывающее описание и, соответственно, исключает полное и исчерпывающее понимание «сущности сознания», что, однако, само по себе не исключает возможности его искусственного воспроизведения.

Неалгоритмизируемость» сознания не означает, однако, что исследование человеческого сознания и мышления принципиально не возможно. Просто никакое описание, никакая теория сознания и мышления не сможет полностью исчерпать предмет исследования, и, таким образом, задача исследования сознания или интеллекта - это бесконечная задача, поскольку сам предмет - есть нечто бесконечное.

Именно об этом, по существу, и говорит нам «геделевский» аргумент. Моделирование человеческого мышления предполагает также и моделирование математического мышления. Но согласно теореме Геделя даже математическое мышление не может быть представлено с помощью какой-либо конечной совокупности алгоритмов. При этом никакое расширение исходного списка аксиом нам не поможет. Но последнее как раз и означает, что мышление человека-математика бесконечно превосходит мышление любой сколь угодно сложной машины-математика.

Используя математическую метафору можно сказать, что естественный и искусственный интеллект соотносятся примерно так же, как бесконечные счетные множества и множества мощности континуума. И те и другие множества - бесконечны. Но это бесконечности разных порядков, бесконечности не сводимые друг к другу.

Известная теорема Левенгейма-Сколема утверждает, что всякая математическая теория, ориентированная изначально на объекты, имеющие мощность континуума, истинна, также, и для некоторой счетной модели. В нашей аналогии это означает, что всякая конкретная интеллектуальная процедура естественного ума может быть переведена на язык алгоритмов. Но, тем не менее, «полный набор» интеллектуальных способностей человека никогда не может быть переведен в форму алгоритма, поскольку континуум все же не изоморфен счетному множеству.

Отрицательный результат теоретических и практических исследований в области искусственного интеллекта, а именно - констатация нашей неспособности создать полную алгоритмическую модель человеческого интеллекта - будет иметь, помимо всего прочего, и большое позитивное философское и этическое значение. Ведь фактически, мы впервые получим опытное доказательство того, что мы не машины! Для философии сознания это будет означать, что сознание следует мыслить как нечто незамкнутое, открытое в бесконечность. В этики - этот результат даст нам эмпирическое доказательство того, что мы подлинно свободны, обладаем свободой воли, и, следовательно, полностью ответственны за свои поступки.

Список литературы диссертационного исследования кандидат философских наук Быковский, Игорь Александрович, 2003 год

1. Алексеева И.Ю. Знание как объект компьютерного моделирования. // Вопросы философии, 1987, №3. С. 42-49.

2. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // Философия науки и техники, 1991, №9. С. 44-53.

3. Амосов A.M. Искусственный разум. Киев, 1969. С. 122.

4. Анисов A.M. ЭВМ и понимание математических доказательств // Вопросы философии, 1987, №3, С. 29-40.

5. Анохин П.К. Избранные труды: Философские аспекты теории функциональной системы. М., 1978. С.113.

6. Антипенко Л.Г. Проблема неполноты теории и ее гносеологическое значение. М., 1986. С. 167.

7. Аристотель. Метафизика. М., JI., 1934.С. 345.

8. Армер П. О возможностях кибернетических систем. // Таубе М. Вычислительные машины и здравый смысл. М., 1964. С. 275.

9. Берг А.И. Информация, управление, интеллект. М., 1976.С. 374.

10. Ю.Бергсон А. Материя и память.// Собрание сочинений.Т. 1., 1992. С.203.

11. Библер B.C. Мышление как творчество. М., 1975. С.275.

12. Бирюков Б.В. О возможностях искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С. 106.

13. Бруно Д. Диалоги. М., 1949. С.291.

14. М.Бруно Д. О героическом энтузиазме. М., 1953. С.93.

15. Будущее искусственного интеллекта. Ред.: Карл, Левитин, Поспелов, Хорошевский. М., Наука, 1991.

16. Быковский И.А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.

17. П.Валиев К. А. Квантовые компьютеры: можно ли их сделать большими? УФН, 169,(6), 691 694 (1999).

18. Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 340.

19. Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 120.

20. Винер Н. Кибернетика и общество. М. ИЛ, 1958.С.270.

21. Виноград Т. Программа, понимающая естественный язык.М.,1976. С.230.

22. Витгенштейн Л. Философские работы. М., 1994. С. 174.

23. Гаврилов А.В., Канглер В.М. Использование искусственных нейронных сетей для анализа данных. // Сб. научн. трудов НГТУ. Новосибирск: Изд-во НГТУ, 1999. - № 3(16). С. 78- 105.

24. Геранзон Б. Практический интеллект// Вопросы философии, 1998, №6. С. 42-49.

25. Глушков В. М. Кибернетика и искусственный интеллект. Кибернетика и диалектика. М.,1978. С. 162-168.

26. Гоббс Т. Избр. Произведения: в 2 тт. М., 1965. Т.2. с. 380.

27. Гольбах П. Избранные произведения: В 2 т. М., 1963., т.1., С. 164.

28. Грановская P.M., Березкина И.Л. Интуиция и искусственный интеллект. Л., 1991. С. 242.

29. Гурова Л. Л. Психологический анализ решения задач. Воронеж, 1976, С. 112.

30. Гуссерль Э. Феноменология как строгая наука. Новочеркасск, 1994. С.429.

31. Дрейфус X. Чего не могут вычислительные машины: Критика искусственного разума. М., 1978. С.258.

32. Дубинский А.Г. К определению понятия "интеллект" // Искусственный интеллект. 2001. - №4. С. 72-79.

33. Дубровский Д. И. Информация, сознание, мозг. М., 1980. С.1 58.

34. Дубровский Д. И. Психические явления и мозг. М., 1971. С.275.

35. Дубровский Д.И. Психика и мозг результаты и перспективы исследований // Мозг и разум. М., 1994. С. 148.

36. Ефимов Е.И. Решатели интеллектуальных задач. М., 1982. С. 143. 37.3ахарченко В.М., Скроцкий Г.В. Как создать оптический «мозг»//

37. Кибернетика, дела практические. М.,1987 С. 124.

38. Иваницкий А. М. Сознание: Критерии и возможные механизмы. // Мозг и разум. М., 1994. С.113- 120.

39. Иванов Е. М. Материя и субъективность. Саратов. 1998. С.70.

40. Иванов Е.М. К вопросу о «вычислимости» функции сознания // Topos Noetos. 2000.(2). С. 45- 79.

41. Иванов Е.М. Материя и субъективность. Саратов, 1998. С.112.

42. Ильенков Э.В. Диалектическая логика. М., 1974. С. 136.

43. Кант И. Критика чистого разума. Избранные произведения. Соч. в 6 т., т. 3. М.1964. С.321.

44. Касымжанов А.Х., Кельбуганов А.Ж. О культуре мышления. М., 1981. С.46.

45. Клике Ф. Пробуждающееся мышление: У истоков человеческого интеллекта. М., 1982. С.285.

46. Кондаков Н.И. Логический словарь-справочник. М., 1975. С.203

47. Криницкий И.А. Алгоритмы вокруг нас. М., 1984. С. 136.

48. Кругликов Р.И. «П.В. Симонов. Созидающий мозг. Нейробиологические основы творчества // Вопросы философии, 1994, №3. С. 65- 79.

49. Кузин JI. Т. Основы кибернетики, т. 2., С. 415.

50. Кушнир Г. А. Системы искусственного интеллекта. Лекция., М. 2001.С.122.

51. Лекторский В.А. Субъект, объект, познание. М., 1980. С.230.

52. Литвинова А.Л. Роль интуиции в научном познании // Философия о предмете и субъекте научного познания / Под ред. Э.Ф. Караваева, Д.Н. Разеева. СПб., 2002. С. 140-143

53. Лосский И.О. Чувственная, интеллектуальная и мистическая интуиция. М., 1995. С. 476.

54. Марголис Дж. Личность и сознание. М., 1986. С. 274.

55. Милютин Ю.Е. Здравый смысл и концепция вкуса Т. Рида // Эстетика сегодня: состояние, перспективы. Материалы научной конференции. 2021 октября 1999 г. Тезисы докладов и выступлений. СПб., 1999. С. 4356.

56. Молчанов В.И. Время и сознание. Критика феноменологической философии. М., 1988. С. 138.

57. Найсер У. Познание и реальность. М., 1981. С. 178.

58. Николай Кузанский Сочинения в 2-х т. М., 1980. С. 479.

59. Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973.С. 236.

60. Новая философская энциклопедия. В 4 томах. Т. 2, М., 2001. С. 590.61 .Новая философская энциклопедия. В 4 томах. Т. 4, М., 2001. С. 590.

61. Патнем X. Философия сознания. М., 1999.С. 425.

62. Пахомова Е. П., Сусин П. В. Устройство распознования речевых сигналов. // тез. докл. юбил. конф. ученых Кур. Политехи. Ин-та, (Курск, 1994).-Курск, 1994. С. 78.

63. Пенроуз Р. Новый ум короля М., 2003. С.183.

64. Пенроуз Р. Новый ум короля. М., 2003.С456.

65. Петров С. Подходы и теории отражения в когнитивной психологии.// Философские науки. 1991. №2. С.61-73.

66. Платон. Диалоги. М., 1986. С. 326.

67. Платон. Соч.: в 3 т. М., 1968. Т. 1. С. 219.

68. Пойа Д. Как решать задачу. М., 1959. С. 186.

69. Пойа Д. Математическое открытие. М., 1970. С143. 71 .Поппер К. Логика и рост научного знания. М.: Прогресс, 1983. С. 107.

70. Поспелов Д.А. Профессионально и проблемно ориентированные интеллектуальные системы// Кибернетика, перспективы развития. М., 1981. С.84.

71. Поспелов Д.А. Семиотические модели в управлении// Кибернетика, перспективы развития. М., 1981. С.72.

72. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту. М., Наука, 1982. С. 184.

73. Прист. С. Теории сознания. М.: Идея- Пресс. 2000. С 287.

74. Райл Г. Понятие сознания. М.,2000. С. 179.

75. Растригин Л.А. Вычислительные машины, системы, сети. М., 1982. С.223.

76. Роджерс X. Теория рекурсивных функций эффективная вычислимость. М., 1972. С. 142.

77. Рорти Р. Философия и зеркало природы. Новосибирск. 1997. С.187.

78. Сахаров Д. Неизбежность нейробиологии // Знание сила. 1984. №10. С.28.

79. Серл Дж. Разум мозга компьютерная программа?// В мире науки. 1990. №3. С.7-13.

80. Словарь современного русского языка. М., 1956. С. 736.

81. Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989. С. 147.

82. Сотник С.Л. Конспект лекций по курсу «Основы проектирования систем искусственного интеллекта» М, 2001. С. 134.

83. Сперри Р.У. Перспективы менталистской революции и возникновение нового научного мировоззрения //Мозг и разум. М., 1994. С.20-44.

84. Спиноза Б. Избранные произведения: В 2 т. М., 1957. Т.1, с. 356.

85. Тит Лукреций Кар. О природе вещей. М., 1983. С. 138.

86. Толковый словарь/ Под ред. С.И. Ожегова. М., 1972. С.232.

87. Тьюринг А. Может ли машина мыслить? М., 1960. С. 157.

88. Тюхтин B.C. Соотношение возможностей естественного и искусственного интеллектов//Указ. Соч.М., 1973. С. 193.

89. Уинстон П. Искусственный интеллект. М., 1980. С.130.

90. Урсул А.Д. Филдософия и общенаучный характер проблемы искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С.114.

91. Фогель JL, Оуэне А., Уолш М. Искусственный интеллект и эволюционное моделирование. М., 1969. С.280.

92. Фрагменты ранних греческих философов. 4.1. От эпических космогоний до возникновения атомистики. М., 1989. С.191.

93. Франк C.J1 .Предмет знания // Франк СЛ. Предмет знания. Душа человека. СПб., 1995. С. 572.

94. Хилл Т.Н. Современные теории познания. М., 1965. С. 179.

95. Шалютин С.М. Искусственный интеллект: Гносеологический аспект. М., 1985. С. 479.

96. Штумпф К. Душа и тело // Новые идеи в философии. №8.1913. С. 285.

97. Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972. С. 289.

98. Юм Д. Сочинения: В 2 т. М., 1965. Т.1. С. 746.

99. Ярвилехто Т. Мозг и психика. М., 1992. С.256.

100. Anderson A.R. Mind and Machines. N.Y. 1964. P. 132.

101. Armstrong D.M. Materialist Theory of Mind. L., 1969. P.235.

102. Artificial intelligence as science and artificial intelligence as engineering/ Narasimhan R. // Curr. Sci. 1993. - 64, №6. - P. 361-365.

103. Baars B. In the theatre of consciousness: the workspace of the mind, NY, 1997. P.321.

104. Baars В. In the theatre of consciousness: the workspace of the mind, NY, 1997. P. 345.

105. Baars B. J. Can Physics Provide Theory of consciosness. // PSYCHE, 1995., 2(8). P. 36-57.

106. Block N. On a confusion about a function of consciousness, 1994, MS; P.223.

107. Bock J.K. Towards a cognitive psychology of syntax: Information processing contributions to sentance formulation // Psychological Review, 1982, 89, P.l-47.

108. Bostrom N. How long before superintelligence? // Int. Jour, of Future Studies, 1998, vol. 2. P. 134.

109. Chalmers D.J. Facing Up to the Problem of Consciousness // Journal of Consciousness Studies, 2 (3), 1995, P.200 219;

110. Chalmers D.J. Mind, Machines, and Mathematics // PSYCHE, 1995, 2(9).

111. Dennett D. Consciousness Explanded. Boston, 1991. P. 14-37.

112. Feigle H. The "Mental" and the "Physical". Minneapolis, 1976. P.l 68.

113. Fodor J.A. The Mind-Body Problem // Sci. Amer., 1981 .№1.

114. Gray J. A. The content of consciousness: a neuropsychological conjecture // Behavioral and Brain Sciences, 1995, 18(4), P.659-722;

115. Hameroff S, Penrose R. Orchestrated Reduction of Quantum Coherence in Brain Microtubules: A Model of Consciousness //Toward a Science of Consciousness. The First Tucson Discussions and Debates. Tucson. 1996. P.l14.

116. Holender D. Semantic activation without conscious identification in dichotic listening, parafoveal vision, and visual masking // Behavioral and Brain Sciences, 1986, 9, P. 1-66.

117. Insert- model based microrobot with elastic hinges/ Suzuki Kenji, Shimoyma Isao // J. Microelectromech. Syst.-1994.- 3, №1 .-P. 4- 9.

118. Kahneman D., Treisman A. Changing views of attention and automaticity // Varieties of Attention, 1984, Academic Press. P. 123.

119. Kosugi Makoto// Denshi joho tsushin gakkai ronbunshi. D2. Trans. Inf. And Commun. Eng. D2. 1993.- 76, №6.-P. 1132-1139.

120. La Berge D. Automatic information processing: A review // Attention and Perfomance, 1981,9, P.173-186.

121. Lewis J.L. Semantic processing of unattended messages using dichotic listening // Jornal of Experimental Psychology, 1970, 85, P.220-227.

122. Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961, 36, P. 112127.

123. Maudlin T. Between the Motion and the Act // PSYCHE, 1995, 2(2)

124. McCullough D. Can Humans Escape Godel? // PSYCHE, 1995, 2(4); McDermott D. Penrose is Wrong // PSYCHE, 1995, 2 (2).

125. Mitsubishi Electronic develops high precision image processing system for face recognition// JIPDEC INF. Quart. 1994. - №96. - P.37- 38.

126. Nerual network learning control of robot manipulators using gradually increasing task difficulty/ Sanger Terence D. // IEFF Trans. Rob. And. Autom.- 1994. -10. №3.- P.323- 333.

127. Oakley A.D., Eames L.S. The plurality of consciousness // Brain and mind, 1985, Methuen,P.217-251.

128. Penrose R. Beyond the Doubting of Shadow // PSYCHE, 1996, 2 (23). P.41-63.

129. Penrose R. Shadows of the Mind. L., 1993. P.321.132. Psyche, 1996,2(23).

130. Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9).

131. Schacter D.L. Implicit memory: History and current status // J. of Experimental Psychology: Learning,Memory and Cognition, 1987,13, P. 501-518.

132. Shanon В. The function of consciousness // Toward a science of consciousness. The first Tucson discussion and debates, Tucson,!996. P.376.

133. Shor P.W. Algorithms for Quantum Computation: Discrete Log and Factoring // Proceedings of the 35th annual Symposium on the Foundations of Computer Science. IEEE. Computer Society Press. 1994. P. 124.

134. Simon H.A., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958. P.423.

136. Some methodological aspects of machine learning/ Boticario J. G., Mira J. // Cybern. And Syst. 1994. -25, №2. - P.233- 258.

137. Stapp H.P. Why Classical Mechanics Cannot Naturally Accommodate Consciousness bat Quantum Mechanics Can // Psyche. 2 (21). 1996. P.234-264.1A1. The current approaches in pattern recognition/ Kerka Jiri I I Kybernetika. -1994.-30. №2.-P. 159-15.

138. Treisman A.M., Squire R.,& Green J. Semantic processing in dichotic listening? A replication // Memory and Cognition, 1974,2, P.641-646.

139. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.

140. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.

Философия искусственного интеллекта (ИИ) охватывает широкий круг фундаментальных проблем, связанных с созданием искусственного интеллекта. В чём сущность разума? Каковы принципы его работы? И, наконец, - возможно ли создание искусственного интеллекта? Несмотря на огромные успехи в создании программ и алгоритмов, способных решать многие интеллектуальные задачи гораздо эффективнее человека, мы не можем найти ясного и однозначного ответа на эти вопросы.

Ответ на вопрос о возможности существования искусственного интеллекта определялся мировоззренческой ориентацией мыслителя: дуалистическая традиция, восходящая к Р.Декарту, постулировала невыразимость мышления через телесное, тогда как материалистическая традиция считала мышление производным от телесного. Декарт, исходя из своей дуалистической системы, считал мышление атрибутом лишь человека (даже животных он описывал как «автоматы»), тогда как материалистическая традиция теоретически оставляла возможность существования мышления не только у людей.

Что же можно считать критерием наличия разума? Обыденное сознание, как правило, воспринимает в качестве критерия разумности поведение. Мы считаем нечто разумным или неразумным, оценивая его поведение. Но какова связь между сущностью разума человека и его внешним проявлением – разумным поведением? Какое поведение будет разумным? Как по чьему-либо поведению можно определить, обладает ли это существо разумом?

Ещё в XVIII в. Д.Дидро в своих «Философских размышлениях» заявлял, что если он найдёт попугая, способного ответить на любой вопрос, то этого попугая, без сомнения, придётся считать разумным существом.

В 1936 году философ А. Айер рассмотрел вопрос касательно других разумов: как узнать, что другие люди имеют тот же сознательный опыт, что и мы? «Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания».

«Могут ли машины мыслить?» - такой вопрос поставил в 1950 г. британский математик и логик А.Тьюринг. Он подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Тьюринг, однако, выбрал другой путь; вместо этого он заменил исходный вопрос другим, «который тесно связан с исходным и формулируется относительно недвусмысленно». По существу, он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?». «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Преимуществом нового вопроса, как утверждает Тьюринг, является то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека», для чего Тьюринг предлагает эмпирический тест.

Суть теста Тьюринга в следующем. В разных комнатах находятся судья, человек и машина. Судья ведёт переписку с человеком и машиной, заранее не зная, кто из собеседников является человеком, а кто – машиной. Время ответа на вопрос является фиксированным, так что судья не может определить машину по этому признаку (во времена Тьюринга машины работали медленнее человека, а сейчас реагируют быстрее). Если судья не может определить, кто из его собеседников является машиной, то машина смогла пройти тест Тьюринга и может считаться мыслящей. Причём, машина не просто будет подобием разума человека – она будет именно разумом, т.к. у нас не будет никакой возможности отличить её поведение от поведения человека. Такая трактовка искусственного интеллекта как полноправного эквивалента естественного получила название «сильного ИИ».

Обратим внимание на то, что тест Тьюринга вовсе не подразумевает, что машина должна «понимать» суть тех слов и выражений, которыми она оперирует. Машина должна лишь должным образом имитировать осмысленные ответы.

В 1980 г. Дж.Сёрл предлагает мысленный эксперимент, критикующий тест Тьюринга и представление о возможности существования разума без понимания. Суть эксперимента в следующем. Сёрл пытается имитировать знание китайского языка, которого не понимает.

«…предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов, и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов».

Таким образом, Сёрл проходит подобие теста Тьюринга на знание китайского языка, которого на самом деле не знает. Очевидно, что в данном случае Сёрл выполняет исключительно механическую работу и легко может быть заменён машиной. Сёрл показывает, что тест Тьюринга вовсе не является критерием наличия сознания, а лишь критерием способности манипулировать символами.

Суть позиции Сёрла по вопросу искусственного интеллекта сводится к следующему: разум оперирует смысловым содержанием (семантикой), тогда как компьютерная программа полностью определяется своей синтаксической структурой. Следовательно, программы не являются сущностью разума и их наличия недостаточно для наличия разума. Разум не может сводиться лишь к выполнению компьютерной программы. То, что порождает разум, должно обладать, по крайней мере, причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга. Т.е. Сёрл отметает прочерченный Тьюрингом прямой путь к искусственному интеллекту.

Впрочем, против мысленного эксперимента Сёрла было приведено немало возражений. Вот основные из них:

· для того, чтобы гарантировано пройти тест, в книге должны содержаться адекватные ответы на ВСЕ существующие вопросы. Т.е. книга должна обладать всезнанием, иначе вероятность того, что необычный вопрос вгонит систему в ступор, будет ненулевой.

· на самом деле, тест на знание китайского языка проходит система, состоящая из Дж. Сёрла, книги правил и людей, которые эту книгу правил составляли. А вот люди, составлявшие книгу, несомненно, обладают знанием китайского языка. Хотя другие части системы язык не понимают.

Также, аргументом против теста Тьюринга как критерия наличия разума является то, что тест Тьюринга на самом деле является тестом на человекоподобие, а не на разумность вообще. При прохождении теста машина должна вести себя как человек – но ведь далеко не всё человеческое поведение разумно, а многие интеллектуальные задачи машина может решать гораздо эффективнее человека (например, математические вычисления). Стремление же пройти тест Тьюринга заставляет машины быть «не слишком умной». Можно привести такое сравнение: если бы инженеры начала XX в., создавая самолёт, пытались сделать его точной копией птицы, они были бы похожи на современных учёных, которые пытаются создать машину, мыслящую точно так же, как мыслит человек. Это совершенно непрактично. Самолёты летают не как птицы, тем не менее, они летают гораздо быстрее, дальше и выше птиц. Т.е. тест Тьюринга не раскрывает сущности разума, а лишь указывает на успешную имитацию его внешнего проявления, причём проявления не самого значимого. «Способность болтать – еще не признак интеллекта» - резюмируют эту позицию сценаристы фильма «Звёздные войны».

Эти теоретические рассуждения подтверждаются и практикой создания интеллектуальных программ. Например, типична история машинного перевода, возможности которого еще несколько десятилетий считались значительно превосходящими возможности переводчика-человека. Но на практике, несмотря на немыслимые объёмы информации, которые способна хранить машина, перевод в лучшем случае настолько стилистически «коряв» и уродлив, что «машинный перевод» стал своеобразной темой комедийного интернет - искусства. Любому хорошему переводчику известно, что для настоящего перевода (даже технического) мало словаря и грамматики. Тут еще нужны знания в той области, к которой относится текст - переводчик должен понимать, о чём в тексте идёт речь. Т.е. синтаксис без семантики не даёт возможности решать большую часть интеллектуальных задач, доступных разуму человека.

Поэтому, для разработчиков современных интеллектуальных программ тест Тьюринга не стал универсальным критерием их успеха. Зато получил огромное распространение «тест Тьюринга наоборот» - назойливая CAPTCHA.

Как мы видим, поиск возможности создания искусственного интеллекта в любом случае упирается в вопрос: что такое разум?

В 1963 А.Ньюэлл и Г.Саймон, основываясь на анализе языка, предположили, что сущность разума заключается в способности оперировать символами. Такой подход позволил создать программу, способную решить любую интеллектуальную задачу в том случае, если задача могла быть формализована (например, доказывать теоремы, играть в шахматы и т.п.). Способность выполнять символьные вычисления вполне достаточна для решения интеллектуальных задач, а без таких вычислений разумное поведение невозможно. Таким образом, разум может быть рассмотрен как устройство, оперирующее информацией в соответствии с формальными правилами. В рамках данного подхода искусственный интеллект создаётся по аналогии с мозгом и нервной системой человека, т.е. по принципу нейросети. Нейросети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения - одно из главных преимуществ нейросетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение.

Этот подход подвергся критике со стороны философа Х.Дрейфуса. Суть его возражений в следующем:

· знание человека о мире состоит не только и не столько из объективных знаний о мире, сколько из нашего субъективного отношения к нему и склонности воспринимать и интерпретировать события так или иначе. Даже если мы используем символическую систему для выражения наших мыслей, мысли всё равно формируются во многом под воздействием бессознательных факторов. Следовательно, рассмотрение разума может как устройства, оперирующего информацией в соответствии с формальными правилами, недостаточно для понимания сущности разума и создания искусственного интеллекта.

· не всё знание и не все задачи могут быть формализованы. Значительная часть восприятия человека не может быть адекватно выражена в символах. Следовательно, ИИ, построенный как символическая система, сможет решать лишь небольшой круг формализуемых задач, не являясь разумом.

Практика создания ИИ подтвердила правоту скептицизма Дрейфуса. Современные нейрокомпьютеры способны эффективно решать многие задачи, но до возможностей человеческого разума им бесконечно далеко. Таким образом, сведение разума к оперированию символами по формальным правилам не привело к пониманию его сущности.

Хотя качественного прорыва в создании сильного ИИ не произошло, количественно вычислительные возможности ЭВМ возрастали экспоненциально, и в данный момент сложность современных ЭВМ неумолимо приближается к сложности мозга человека. Возможно ли, что количественный рост сложности вычислительных систем приведёт к их качественному скачку?

В 1993 г. математик и писатель В. Виндж предложил концепцию, описывающую последствия возникновения ИИ, превосходящего по вычислительным возможностям человеческий разум. С того момента, как ИИ будет открывать новое знание быстрее человека, ИИ сможет создавать всё более и более совершенные вычислительные машины, которые будут ускорять рост знания в ещё большей степени, т.е. процесс будет нарастать как снежный ком, становясь недоступным пониманию человека. После этого развитие ИИ станет настолько стремительным, что даже самые приблизительные прогнозы о том, что произойдёт дальше, теряют смысл. В.Виндж назвал этот момент «технологической сингулярностью».

Технологическая сингулярность характеризуется появлением нового вида знания – т.н. машинного знания, т.е. знания, доступного лишь машине. Как это может выглядеть? Например, как математическая теорема, доказанная машиной. Первая крупная математическая теорема, доказанная с помощью компьютера, - т.н. «теорема о четырех красках». Ее формулировка элементарна: для того чтобы раскрасить географическую карту так, чтобы никакие два граничащих региона не были одного цвета, достаточно всего четырех разных красок. Два региона считаются граничащими, если они имеют протяженную границу, то есть состоящую больше чем из одной точки. Доказательство теоремы о четырех красках - прецедент использования компьютера при решении классических математических задач. В то же время оно примечательно своей длиной и сложностью. Даже после применения компьютера, позволившего значительно сократить вычисления, текст доказательства элементарно формулируемого утверждения имеет астрономическую длину. Нетрудно представить себе появление такой теоремы, доказательство которой будет слишком длинным, чтобы человеческой жизни хватило на его проверку. И тогда развитие знания и получение его плодов окажутся прерогативой искусственного разума.

И всё же даже на пути теоретических рассуждений на тему создания сильного ИИ остаётся одно веское «но». Развитие «машинного» знания предполагает возможность не только решения искусственным разумом уже поставленных и формализованных задач, но и постановку и осмысление принципиально новых. Т.е. разум должен быть способен к творчеству. Но сама идея творчества противоречит алгоритмическому подходу, ведь творчество – это деятельность вне формальных правил и алгоритмов, постановка и решение принципиально новых задач. Вполне вероятно, что разум принципиально невозможно свести к определённому набору операций и алгоритмов, а это значит, что самостоятельное развитие для алгоритмически построенного ИИ окажется недоступным.

Возможность создания машинного аналога человеческого разума не представляется в настоящее время теоретически и эмпирически обоснованной. Напротив, мы рассмотрели ряд убедительных аргументов, которые указывают на принципиальные различия между интеллектом человека и любыми, сколь угодно сложными «интеллектуальными» алгоритмическими системами. На данный момент философия искусственного интеллекта не смогла методом моделирования ответить на вопрос «что такое разум?», но зато мы можем уверенно заключить, чем разум не является. Теория и практика создания ИИ позволяет нам с уверенностью отвергнуть представления о «человеке-машине» и о сводимости деятельности разума к выполнению набора формальных вычислений.

Наиболее важным значением философских проблем ИИ представляется не создание пусть и весьма совершенных алгоритмов для решения практических задач, а те новые горизонты в понимании природы и сущности сознания, которые открываются в процессе решения вопросов создания ИИ. Таким образом, философия искусственного интеллекта в полной мере следует максиме Сократа «познай самого себя».

Литература:

1. Сирл Дж. Разум мозга - компьютерная программа? // В мире науки. (Scientific American. Издание на русском языке) № 3, 1990. - М., «Мир», 1990.

2. Сёрль Дж. Рациональность в действии / Пер. с англ. А. Колодия, Е. Румянцевой. - М.: Прогресс-Традиция, 2004. - 336 с.

3. Васильев В.В. Трудная проблема сознания. - М., Прогресс-Традиция, 2009. – 272 с.


А.Айер. Язык, Истина и логика.- с.140.

Цит. По «В мире науки», 1990, № 3, с. 7-11)

C ompletely A utomated P ublic T uring test to tell C omputers and H umans A part - тест, по замыслу разработчиков, позволяющий программе определить, кем является пользователь системы: человеком или программой. Впрочем, автору этих строк неизвестна ни одна «капча», которую с высокой вероятностью опознать человек, а ни одна программа не смогла бы.

Быковский И.А. Философские аспекты проблем создания искусственного интеллекта – автореферат дисс. на соискание уч. ст. к.ф.н. – Саратов, 2003.

Может ли машина мыслить?

Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук. Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году . Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта .

Термин «сильный искусственный интеллект» ввел Джон Сёрль , его же словами подход и характеризуется:

Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум - это разум.

Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

В своем мысленном эксперименте «Китайская комната », Джон Сёрль показывает, что даже прохождение теста Тьюринга может не являться достаточным критерием наличия у машины подлинного процесса мышления.

Мышление есть процесс обработки находящейся в памяти информации: анализ, синтез и самопрограммирование.

Аналогичную позицию занимает и Роджер Пенроуз , который в своей книге «Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем .

Что считать интеллектом?

Существуют разные точки зрения на этот вопрос. Аналитический подход предполагает анализ высшей нервной деятельности человека до низшего, неделимого уровня (функция высшей нервной деятельности, элементарная реакция на внешние раздражители (стимулы), раздражение синапсов совокупности связанных функцией нейронов) и последующее воспроизведение этих функций. Существует определение интеллекта как способности решать интеллектуальные задачи. Здесь под интеллектуальной задачей понимается та задача, у которой не существует известного алгоритма решения. То есть задача, для которой нужно создать алгоритм с нуля. Например, доказательство недоказанной теоремы, научное открытие, художественная деятельность и так далее. Некоторые специалисты за интеллект принимают способность рационального, мотивированного выбора, в условиях недостатка информации. То есть интеллектуальной просто считается та программа деятельности (не обязательно реализованная на современных ЭВМ), которая сможет выбрать из определенного множества альтернатив, например, куда идти в случае «налево пойдёшь …», «направо пойдёшь …», «прямо пойдёшь …».

Наука о знании

Также, с проблемами искусственного интеллекта тесно связана эпистемология - наука о знании в рамках философии. Философы, занимающиеся данной проблематикой, решают вопросы, схожие с теми, которые решаются инженерами ИИ о том, как лучше представлять и использовать знания и информацию.

Этические проблемы создания искусственного разума

Этот раздел содержит вопросы, касающиеся искусственного интеллекта и этики.

  • Если в будущем машины смогут рассуждать, осознавать себя и иметь чувства, то что тогда делает человека человеком, а машину - машиной?
  • Если в будущем машины смогут осознавать себя и иметь чувства, возможно ли будет их эксплуатировать или придется наделять их правами?
  • Если в будущем машины смогут рассуждать, то как сложатся отношения людей и машин? Данный вопрос был не раз рассмотрен в произведениях искусства на примере противостояния людей и машин. К примеру, батлерианский джихад в романе «Дюна» Фрэнка Герберта, проблемы взаимоотношения с ИскИнами в романе Дэна Симмонса «Гиперион», война с машинами в кинофильме «Терминатор» и так далее.
  • Будет ли человек, которому в результате многочисленных медицинских ампутаций заменили 99 процентов тела на искусственные органы, считаться машиной?

Данные вопросы рассматриваются в рамках философии техники и трансгуманистической философии .

См. также

Ссылки

  • А. В. Савельев. О конференциях по философии искусственного интеллекта - обзор основных современных направлений философии искусственного интеллекта

Примечания

Литература

  • Петрунин Ю. Ю., Рязанов М.А., Савельев А. В. Философия искусственного интеллекта в концепциях нейронаук. - 1-е. - М .: МАКС Пресс, 2010. - С. 84. - ISBN 978-5-317-03251-7

Wikimedia Foundation . 2010 .

Смотреть что такое "Философия искусственного интеллекта" в других словарях:

    История искусственного интеллекта, как учение о развитии современной науки и технологии создания интеллектуальных машин, имеет свои корни в ранних философских исследованиях природы человека и процесса познания мира, расширенных позднее… … Википедия

    Искусственный интеллект (ИИ) (англ. Artificial intelligence, AI) это наука и разработка интеллектуальных машин и систем, особенно интеллектуальных компьютерных программ, направленных на то, чтобы понять человеческий интеллект. При этом… … Википедия

    - (Державний університет інформатики і штучного інтелекту), ранее Институт проблем искусственного интеллекта высшее учебное заведение г. Донецк, Украина. На данный момент является частью ДонНТУ и называется Институт информатики и… … Википедия

    Френологическая «карта сознания». Френология была одной из самых ранних попыток ответить на вопрос о том, что такое разум. Философия сознания философская дисциплина, предметом изучения которой является природа сознания, а также соотношение… … Википедия

    философия сознания глазами ученых - ФИЛОСОФИЯ СОЗНАНИЯ ГЛАЗАМИ УЧЕНЫХ концепции физиков, математиков, нейробиологов, посвященные объяснению феномена сознания. Еще сравнительно недавно мало кто из них интересовался проблемой сознания (исключениями являются У. Пенфильд, Р.… … Энциклопедия эпистемологии и философии науки

    Скульптура «Мыслитель» (фр. Le Penseur) Огюста Родена, которая часто используется в качестве символа философии … Википедия

    Философия языка раздел философии, предметом которого является изучение оснований и пределов зависимости познавательного процесса от языка. Содержание 1 Общие положения 2 История … Википедия

    Философия в советской и постсоветской России - 1. Советский период. Развитие философской мысли в России после 1917 г. претерпело кардинальные изменения. Мн. представители религиозно философских течений, господствовавших в кон. XIX нач. XX в., были высланы или эмигрировали из страны.… … Русская Философия. Энциклопедия

    Философия - (philosophy, греч. любовь к мудрости), использование разума и его доводов для поиска истины и исследования природы реальности, прежде всего причин и природы вещей, принципов орг ции сущего, восприятия, поведения человека в материальном мире.… … Народы и культуры

    ФИЛОСОФИЯ НОВОГО И НОВЕЙШЕГО ВРЕМЕНИ период в развитии философской мысли (17 19 вв), давший созвездие выдающихся мыслителей различных стран и народов При всей уникальности творческого вклада каждого из них можно вьщелить главные идеи и… … Философская энциклопедия

Книги

  • Искусственный интеллект. Методология, применения, философия , Финн В.К.. В настоящей книге систематически рассматривается главный продукт искусственного интеллекта - интеллектуальные системы. Интеллектуальные системы, представленныев книге, реализуют оригинальный…

Введение

Современные философы и исследователи науки часто рассматривают междисциплинарные науки как одно из выдающихся достижений заново открытых в 20 веке. Искусственный интеллект и искусственная жизнь представляют прекрасный пример такой интеграции многих научных областей. Конечно, междисциплинарность тоже имеет свою цену. Химики, биологи, специалисты в области вычислительных наук и многие другие изучают различные аспекты живых систем, пользуясь при этом сходными методами. Основными методами изучения искусственной жизни являются: синтез искусственных систем с аналогичным живым системам поведением, изучение динамики развития процесса, а не конечного результата, конструирование систем демонстрирующих феномен созидания. То что объединяет исследователей в области искусственной жизни (ИЖ) – это методы, в отличие от их целей. Конечно, существует общий интерес к жизни как к феномену для изучения. К сожалению, жизнь слишком сложна, чтобы можно было наметить общие направления в исследованиях. Доказательствам последнего утверждения может служить тот факт, что некоторые заинтересованы в исследовании «систем, демонстрирующих феномены живых систем«, другие изучают природу химического репродуцирования или пытаются решить философские проблемы самосознания. В то же время совершенно другой вид исследователей, относящихся к области роботики, пытаются создавать физические системы, демонстрирующие некоторое поведенческое сходство с животными.

По современным научным данным человеческий мозг содержит около 2 40 основных «вычислительных» узлов нейронов, которых соединяют около 2 50 связей синапсов. Современные вычислительные системы стремительно приближаются по своим вычислительным возможностям к мозгу. Искусственные нейронные сети контролируют сложнейшие системы управления и слежения, проявляют способности в области распознавания изображения вплоть до возможности создания интеллектуальных автопилотов. Уже активно занимается искусственными системами область, считавшаяся прерогативой человека – компьютеры стали лучше людей играть в шахматы. В таких условиях приобретает особую значимость рассмотрение основных философских вопросов, связанных с искусственным интеллектом и искусственной жизнью. При этом, очевидно, возможно взаимовлияние искусственного интеллекта и искусственной жизни на философские проблемы мышления и жизни вообще. Современные западные философы широко рассматривают данные проблемы. При этом на первое место выходит обсуждение мышления и самосознания. При этом достаточно часто высказывается мнение о неприемлемости классического картезианского дуализма для рассмотрения вопросов, связанных с искусственной жизнью.

В качестве основы данной работы рассматривались труды довольно известного современного философа, ученика Мартина Хайдеггера, Майкла Веллера определяющего в своих работах взаимосвязь современных проблем искусственной жизни и искусственного интеллекта с картезианским и неоаритотелевым подходами рассмотрения мышления и жизни как таковой.

1 Два вида науки о мышлении

Искусственная жизнь, замечательная и быстро развивающаяся область научного знания, которая может совершить переворот в науке о мышлении. С другой стороны, еще весьма большой объем теоретических исследований требуется, чтобы приблизиться к систематическому пониманию концептуальных рамок, в которых может развиваться наука о мышлении на базе искусственной жизни. Такое понимание необходимо не только в академических исследованиях в области философии науки. Оно поможет сформировать вопросы, требующие дальнейшего рассмотрения и объяснить результаты эмпирических исследований. Далее приводится попытка систематического рассмотрения данной проблемы. Целью является разделить и провести сравнение двух видов науки о мышлении (ортодоксальной и биологически-ориентированной), и показать, как эти два отдельных стиля мышления в области научного познания являются потомками двух радикально различающихся взглядов на место разума в природе (картезианский и аристотелев взгляды). Главной идеей будет то, что искусственная жизнь потенциально может стать интеллектуальным двигателем биологически ориентированной науки о мышлении, действующей в рамках общих аристотелеевых концепций.

Жизнь в науке о мышлении рассматривается как простое явление. Бесспорно, что искусственный интеллект был теоретическим ядром в данной области, в том смысле, что эти концепции, разработанные для искусственного интеллекта или обычно применяемые в этой области (такие концепции как алгоритм, эвристика и обработка информации) обеспечивают науку о мышлении терминологическим базисом. Однако появление в рассмотрении также искусственной жизни придало данной области познания большую законченность.

На практике под крышей термина искусственная жизнь гнездится грандиозное разнообразие различных проектов от моделей копирования ДНК и систем с обратной связью датчик-двигатель до изучения коллективного разума и динамики роста населения. Такое разнообразие приводит к трудности компактного определения для данной области знания. Однако, в контексте данной работы, будет правильным использовать определение искусственной жизни как попытки познания живых систем (включая, в предельном случае, феномен который можно сгруппировать вместе под такими понятиями как разум, мышление и познание) посредством анализа и/или синтеза артефактов (компьютерных моделей, искусственных миров и роботов). В то же время при адоптации строго ограниченного точного определения искусственного интеллекта (т.е. фундаментально логически обоснованного или основанного исключительно на разуме человеческого уровня) возникает разрыв между искусственной жизнью и искусственным интеллектом для определенных видов исследований в области искусственной жизни (например, разработки роботов с интеллектом животного уровня), хотя они и относятся к некоторому, пусть и нестандартному, типу искусственного интеллекта. Для точности формулировок терминов в дальнейшем рассмотрении проведем различие между искусственной жизнью (которая всегда включает определенные формы искусственного интеллекта) и искусственным интеллектом, который не является в то же время искусственной жизнью. В дальнейшем будем называть второй вариант исследований искусственным интеллектом в ортодоксальной форме (orthodox AI или OAI).

OAI может быть определен путем его отношения к идее, что здоровая наука о разуме может, по большей части, игнорировать биологические размышления, которые тяготеют к входу в общую картину в качестве только «деталей конкретного воплощения» либо «случайные исторические частности», и в целом не обеспечивает и не содержит концепций и принципов обычно используемых для построения научного объяснения разума. Данная тенденция к биологической нейтральности выражается в наборе различных измерений таких как (а) вынесение из области рассмотрения либо предельно упрощенный взгляд на то, что происходит в нервной биологической системе и (в более общем случае) в биологическом теле, (б) пренебрежение скованностью налагаемой на биологический разум необходимостью действовать в реальном времени в часто враждебной, непредсказуемой и не прощающей ошибок обстановке и (в) закрытие глаз на тот факт, что поведение животных зачастую высоко специфично в рамках их экологической ниши.

OAI, охарактеризованное выше, будет использовано в качестве интеллектуального ядра, для того, что будем в дальнейшем называть ортодоксальной наукой о мышлении (orthodox cognitive science OCS). Согласно означенному соотношению, можно ожидать от OCS демонстрации такого же отношения биологической нейтральности, как и у OAI, только в данном случае по отношению к научному объяснению мышления и познания. И это будет именно то, что мы искали. В ортодоксальной истории науки о мышлении, для того чтобы объяснить вид познания демонстрируемого биологическим мыслителем возможно по большей части игнорировать факты биологии биологического мыслителя. (Исключение из этого правила – определение нормальной функции посредством дарвиновского естественного отбора будет рассмотрено далее).

Большинство, хотя и далеко не все, работы в области искусственного интеллекта и науки о мышлении являются ортодоксальными (т.е. как было определено выше, биологически нейтральными). Это включает в себя подавляющее большинство, хотя и далеко не все модели, разработанные под флагом коннективизма. (Удручающее общее утверждение, что коннективисткие сети, в общем, являются «биологически реалистичными психологическими моделями» по-видимому, фиктивно. Далее этому будет дано объяснение.) Теперь рассмотрим радикально отличающийся вид исследований: реально биологическая наука о мышлении. Под этим термином подразумевается наука о мышлении, которая следует тому, что Годфри-Смит называл строгой непрерывностью, утверждение о том что «жизнь и разум имеют общую абстрактную структуру или набор базовых организационных свойств… Разум буквально подобен жизни.» Согласно этому утверждению, направляющим принципом биологической науки о мышлении будет то, что мышление может быть объяснено с использованием тех же фундаментальных концепций и принципов, что и описание других биологических феноменов. Биологическая наука о мышлении буквально является наукой о жизни.

Отметим четыре положения, касающихся строгой непрерывности:

1. Строгая непрерывность влечет за собой, – но не проистекает из – более слабых форм непрерывности, согласно которой для того, чтобы некоторая сущность имела разум она должна быть живой, хотя для того чтобы быть живой наличие разума не является необходимым. Данная форма непрерывности сама по себе недостаточна для действительно биологической науки о мышлении, так как она не дает гарантии, что кто-либо должен обращаться к принципам построения живого объекта для того, чтобы понять процесс мышления.

2. Из строгой непрерывности не следует, что жизнь и мышление есть одно и то же. Они находятся в непрерывной последовательности, но не эквивалентны.

3. В контексте биологической науки о мышлении, строгая непрерывность предполагает методологию изучения «снизу-вверх». Сначала исследователь проводит поиск удовлетворительного объяснения некоторого простого не мыслящего проявления жизни (Для основания подходящей теоретической концепции). Затем производится его противопоставление более сложной мыслящей сущности.

4. Строгая непрерывность, в первую очередь, беспокоит тех, кто жаждал действительно обобщенной науки о мышлении. Конечно, может оказаться, что сходный набор структурных свойств выражен не только в жизни и разуме натуральных земных природных существ, но и в их неземных копиях (если данных феномен существует), а также во всех формах искусственной жизни и искусственной ментальности, которая возможно способна существовать (если кто-либо считает, что артефакты могут буквально быть живыми и иметь разум). Если повернуть рассмотрение в эту сторону, то идея о обобщенной науке о мышлении будет спасена. Однако, ничто в идее строгой непрерывности не гарантирует такой результат.

Очевидно, что положение о том, что биологическая наука о мышлении может быть построена вокруг OAI выходит за рамки разумного сомнения. Но как же теперь поступать с искусственной жизнью? Ранее предполагалось, что искусственная жизнь может быть охарактеризована как попытка использования искусственной среды для исследования феномена жизни. Это продвигает нас в правильном направлении. Уже был отмечен тот факт, что объяснение интеллекта, разума и мышления стоит на повестке дна в области изучения искусственной жизни. Это показывает, что канонический взгляд с точки зрения изучения искусственной жизни предполагает рассмотрение данных феноменов как исключительно связанных с (и являющихся подмножеством) живых систем, которые заключают в себе, в целом, то, что делают живые системы, согласно слабой форме непрерывности, определенной ранее. Конечно, данное принятие слабой формы непрерывности не обязывает рассматривающих искусственную жизнь принимать ведущий принцип биологической науки о мышлении, тезис о строгой непрерывности. Тем не менее, хотя строгая непрерывность не является строго обязательной в характере искусственной жизни, исследователи, работающие в области искусственной жизни и смежных областях, часто покупаются на эту идею. Например, выдвигается аргумент, что модели искусственной жизни обеспечат объяснение неожиданных проявлений составляющих основу жизни и разума. Также предполагается, что подрыв обычного иммунологического распознавания свой-чужой будет иметь последствия в области таких высокоуровневых явлений как самосознание и индивидуализм. Решающим фактом является то, что характер искусственной жизни не только допускает строгую непрерывность, но и активно поощряет ее. Несмотря на этот факт, искусственная жизнь является действительным OAI.

На данной стадии возникает необходимость прояснить взаимоотношения, существующие между искусственной жизнью и биологической наукой о мышлении. Объяснение живых систем, предлагаемое в рамках искусственной жизни обычно формулируется в рамках теоретического словаря, поддерживающего набор различных научных концепций (таких как самоорганизация, автономия, реакция на внешние проявления и т.п.). Если бы подобные концепции обеспечивались биологической наукой о мышлении с ее теоретическим словарем, тогда искусственная жизнь смогла бы стать таким же интеллектуальным базисом для науки о мышлении, каким ортодоксальный искусственный интеллект является для ортодоксальной науки о мышлении.

2 Картезианская теория

Будет очень полезно на некоторое время сконцентрироваться на одном специфическом спорном вопросе, по которому расходятся ортодоксальная и биологическая наука о мышлении, а именно выражение соотношения которое существует между нейробиологическими/биохимическими свойствами живых организмов с одной стороны и мышлением с другой стороны. (В результате данный спорный вопрос создает первое направление биологической нейтральности в ортодоксальной науке о мышлении, как было определено в предыдущей главе). Различие в этом вопросе может быть объяснено тем фактом, что два вида науки о мышлении сформированы в радикально различающихся философских концепциях. В целом биологическая наука о мышлении наиболее органично ложится в рамки общей аристотелевой концепции, в то же время у ортодоксальной науки о мышлении наблюдаются картезианские корни.

Важно то, что Декарт мыслил органическое тело мыслителя как еще один физический объект в физическом мире. Учитывая дуализм обоснования, данная идея приводила его к тому, что нейробиологическое/биохимическое обоснование событий в теле мыслителя неуместно в психологическом обосновании событий в разуме мыслителя, в том смысле, что психологическое обоснование может быть проведено в отсутствии любого, сколько бы то ни было детализированного нейробиологического/биохимического знания о теле мыслящего объекта. Данное обосновательное отделение разума от физического носителя приводил в результате к прерывистости в обосновании в данном контексте между жизнью и разумом. Научное обоснование процессов, которые рассматривались картезианством как органические, относящиеся к телесной жизни (такие процессы как пищеварение, размножение и рост) немедленно попадало в область биологических объяснений, которая толковалась как принижаемая физической наук. Научное обоснование физических процессов, с другой стороны, нуждается в изложении на языке, совершенно отличающемся от биологического языка, в языке специфическом для психологии. Это равнозначно отклонению положений строгой непрерывности. Другими словами, дуализм обоснования несовместим с биологической наукой о мышлении.

В настоящее время функционалисты в философии разума придерживаются взглядов, что определяющее свойство типа ментального состояния является причинная роль того, что состояние играет в посредничестве между (1) сенсорными входами, (2) другими типами ментальных состояний и (3) моторикой поведения. Строго говоря, функционализм не проводит связей к природе основы, на которой реализованы ментальные состояния, так как сущность в некотором частном ментальном состоянии уже является, как уже говорилось, сущностью в некотором специфическом функциональном состоянии, и совершенно эквивалентные функциональные состояния могут быть, в принципе, реализованы биохимически на углеродной основе, в виде кремниевого мозга или в виде картезианского разума самого по себе. Здесь, в принципе, функционализм входит составной частью в дуализм субстанций. Данный принципиальный факт может показаться незначительным, если считать, что функционализм обычно является рабочей лошадкой теории распознавания, согласно которой любая сущность данного типа ментального состояния является единственной и сходна с некоторым физическим состоянием в физической системе. Но, дополнение к требованиям распознавания не рассматривает нейробиологические и биохимические детали тела биологического мыслящего объекта относящегося к процессу психологического обоснования. Согласно функционалистам, процесс психологического обоснования может проводиться в превосходной изоляции от этих частных деталей. Подобная позиция уже рассматривалась ранее: функционализм является формой картезианского дуализма обоснования.

Так как же база дуализма обоснования в функционализме уместна в понимании ортодоксальной науке о мышлении? Ответом является, что ортодоксальная наука о мышлении построена на функционализме. В самом деле, вычислительные состояния (тип состояний к которым прибегают ортодоксальный искусственный интеллект и ортодоксальная наука о мышлении) прекрасные примеры функционально определенных состояний. При этом нет никакого противоречия в том, что одно из классических положений функционализма было выражено в теории путем использования машины Тьюринга. Как только принимается функционалисткие основы ортодоксальной науки о мышлении и вместе с ней общее картезианское рассмотрение отношений между живым телом и разумом которые порождаются данными основами, можно увидеть почему ортодоксальная наука о мышлении связана с идеей, что может быть описано без понимания или существенных ссылок на нейробиологический или биохимический базис данного процесса мышления. Другими словами, можно видеть почему ортодоксальная наука о мышлении принимает положения совершенно неприемлемые биологической наукой о мышлении.

3 Следом за картезианством

Теперь самое время затронуть биологическую науку о мышлении, чтобы увидеть, что может быть принято в рассмотрение из области пост-картезианства. Исследования в области коннективистских (или искусственных нейронных) сетей являются подходящей для этого областью, так как подобные исследования относятся как к ортодоксальному искусственному интеллекту так и к искусственной жизни.

Вообще говоря, коннективисты могут быть охарактеризованы как микрофункционалисты. Это подтверждается тем, что стандартные архитектурные предположения, сделанные в ортодоксальном (т.е. в стиле ортодоксальной науки о мышлении) коннективизме следуют функционалисткому положению об уделении минимального теоретического внимания биологическому базису мышления. Пока справедливо, что архитектура ортодоксальных коннективистких сетей походит на абстрактную структуру биологической нервной системы существует значительное поле для разногласий. Например: (1) в коннективистких сетях зачастую накладываются некоторые ограничения на возможные соединения (сети без обратных связей или симметричные сети), что, вообще говоря, не соответствует реальным нервным системам; (2) биологические системы изначально зашумлены; (3) весьма редко существует сколько-нибудь реальное соответствие между коннективистким элементом и биологическим нейроном (последний представляет собой гораздо более сложный объект); (4) большинство коннективистких сетей однородны по составу элементов, структуре и функциям, в то время как биологические сети обычно содержат множество типов нейронов; (5) синхронизация в коннективистких сетях традиционно базируется либо на глобальном цифровом тактовом сигнале, который поддерживает прогрессивную активность элементов либо путем метода стохастического обновления; но очевидно предположить, что индивидуальное течение времени для нейронов является одним из значительных факторов в понимании поведения биологических нейронных сетей.

Такие архитектурные расхождения означают, что внутренняя динамика стандартной коннективисткой сети выглядит бедно по сравнению с тем, что демонстрирует биологическая сеть. Исходя из строгой непрерывности, исследователь должен ожидать найти, что, например, осцилляторные ритмы и хаотические аттракторы – явления, часто используемые коннективистами, но которые в основном сфокусированы в области нейробиологии будут решающим фактором в понимании мышления. Ориентированные на искусственную жизнь исследователи в области роботики часто допускают искусственную эволюцию для разработки сенсорно-моторноых систем управления на базе нейронных сетей, в которой, по крайней мере, некоторые из ограничений архитектурных предположений, описанных выше, отбрасываются, что позволяет, поэтому добиваться более богатой внутренней динамики. Такие динамические нейронные сети, которые (по крайней мере, частично) биологически обоснованы, несомненно, представляют важный шаг в направлении биологической науки о мышлении. Но это еще только начало. Если посмотреть поближе на биологический мозг, увиденное породит идею, что то, что называют мышлением может быть объяснено только привлечением идеи о сигналах посылаемых вдоль тонких специфических соединительных путей. Например, существуют экспериментальные доказательства того, что постсинаптические рецепторы фиксируют пресинаптические выходы вещества глютамата от выводов отличных от «их собственных» пресинаптических выводов. Так как глютамат выделяется в виде облака, пресинаптический выход может воздействовать на удаленные постсинаптические рецепторы. Нет оснований предполагать, что такой эффект как распространение глютамата, который не отрабатывается стандартным моделированием нейронных сетей, может рассматриваться как «детали конкретной реализации« или случайный шум, который может быть проигнорирован когда искусственный носитель используется для исследования подноготной мыслящей системы. Также существует большая вероятность, что существуют еще необходимые свойства той стратегии, согласно которой мозг вносит свой вклад в адаптивное поведение. Короче, нужно всегда помнить, что чем бы еще он не был, биологический мозг является комплексной химической машиной. Для того, чтобы интегрировать эти навязанные биологией наблюдения в логичные теоретические рамки, необходимо также найти некартезианское концептуальное пространство для размышлений о жизни и разуме, пространство в рамках строгой непрерывности. К счастью такое пространство существует в концепции Аристотеля.

4 От психологии к psyche-логии

Аристотелев термин psyche обычно переводят как душа, но это не совсем так. Слово душа несет в себе много от бестелесной, спиритической формы существования, которая не соответствует подавляющей тенденции размышлений Аристотеля. Как отмечается, для Аристотеля жалящая крапива имела psyche. Можно сказать, что для Аристотеля psyche организма являлся набор специфически-типологических свойств в силу которых организм жив. Другими словами, любой вид организмов имеет ассоциированный с ним некоторый набор жизненных свойств, которые при нормальных обстоятельствах могут быть выражены в отдельных представителях данного вида, и в нормальных обстоятельствах для организмов данного вида быть живым значит проявлять типичный для данного вида набор жизненных свойств, то есть psyche. Жизненные свойства, составляющие любую отдельную psyche, могут браться из чего-то подобного следующему списку: самообеспечение питанием, рост и развитие, размножение, потребность к пище, тактильные ощущения, бесконтактные формы ощущений, самоконтролируемое движение, разум и интеллект. Грубо говоря, чем далее элемент в этом списке, тем более совершенным сущностям он принадлежит. Это важно, потому что psyche это иерархическая структура, в которой, вообще говоря, способность к определенным жизненным свойствам предполагает способность к менее совершенным жизненным свойствам из приведенного списка. Так, например, способность к тактильным ощущениям предполагает способность к потребности в пище, размножению, росту и самообеспечению питанием. К тому же, существует отношение выразительной зависимости между жизненными свойствами, так что любое жизненное свойство не может быть полностью познано в отрыве от других при рассмотрении конкретной частной psyche.

По взглядам Аристотеля концепция psyche необходима для достижения удовлетворительных обоснований в науках о жизни. Для понимания его аргументации необходимо представить различие между формой и материей. В первом приближении форма по Аристотелю означает что-то вроде различных видов организации. Он говорит о том, что частичные очертания конкретной статуи являются формой статуи, в то время ее материальным содержанием является физический материал, из которого она сделана. Форма топора – это что-то сходное с его способностью рубить, а материальное содержание – дерево и железо, из которых этот топор сделан. Перемещаясь в биологический мир, формой глаза является его способность видеть, а материальным содержанием, в соответствии с аристотилеевым виденьем древней биологии, вода. Формой гнева является что-то вроде желания возмездия; материальным же содержанием, по Аристотелю, является кипение крови в области сердца. Когда Аристотель применяет различие формы и материального содержания ко всем живым организмам, мы говорим, что форма живого существа это его psyche, его набор жизненных способностей; материальное же содержание это органическое тело, которое реализует эти способности.

Исходя из данного предварительного понимания концепции формы, дать объяснение в терминах формы означает дать объяснение, в котором характерная особенность организации сущности для лучшего объяснения дается в отличие от материального состава сущности. Так, скажем, кто-то хочет описать, как домашняя муха осуществляет визуально корректируемую навигацию в реальном времени в беспорядочной, динамически изменяющейся обстановке. Аристотелев взгляд должен, по крайней мере, присутствовать в идее, что дисциплины, такие как нейробиология и биохимия могут быть скомбинированы в целях объяснения функционирования машины, допускающей такое поведение. Фактически, что бы наука ни подразумевала под словом материальность, аристотелев взгляд будет предполагать ожидание прямого материального объяснения визуально направляемой воздушной навигации домашней мухи. Такое объяснение далеко не тривиально. Каждый из двух композитных глаз мухи представляет собой панорамный нерегулярный двухмерный массив фото сенсоров. Эти массивы соединены в параллельную сеть соответствующих обработчиков изображения (биологических процессоров) и органов контролирующих полет (процессоров управления полетом), работающих асинхронно в реальном времени. Через последующую нейронную сеть, данная система управляет набором мускулов, которые вместе с гироскопическими органами осуществляют управление крыльями. Тем не менее, любое чисто материальное объяснение, пусть даже комплексное, не позволит науке о жизни понять этот материальный процесс как природный феномен, которым оно, собственно и является. Для создания комплексного природного объяснения, необходимо понимание данного процесса в контексте частичного набора жизненных способностей, которые являются определяющими для жизни домашней мухи – домашняя муха как форма жизни, как можно было бы сказать.

Индивидуальные жизненные способности могут, конечно, разделяться различными видами, хотя сказать, что нарцисс и человек разделяют жизненную способность к самообеспечению пищей не то же самое, что сказать, что нарцисс и человек достигли самообеспечения пищей одинаковыми путями; могут быть вариации между видами в том, как выражены разделяемые жизненные способности. Согласно Аристотелю, все живые объекты обладают способностью самообеспечения пищей, роста и разложения и размножения. Растения обладают только этими жизненными свойствами, в то время как животные обладают данными жизненными свойствами плюс также жизненными свойствами, относящимися к области восприятия. Отметим, что это с представление жизненных свойств, относящихся к области восприятия представляет собой первое, с чем сталкиваются и что часто рассматривают как разум и мышление. На верху логической иерархии psyche располагается наиболее причудливая из всех жизненных способностей, то что называют разумом. По Аристотелю, единственное существо, обладающее этой жизненной способностью – это человек. Надо сказать, что почти невозможно соединить аристотелево рассмотрение разума со всем остальным, что он говорит о жизненных способностях, потому что, хотя его основная тенденция отвергнуть идею, что psyche онтологически отделена от тела, он все еще заявляет, что активная часть жизненной способности разума (нечто вроде интеллектуальной интуиции) бессмертна и вечна. Рассматривая эту явную неувязку, современные интерпретаторы, очевидно, поставили человеческий интеллект на одну планку со всем остальным. Одним из путей достижения этого является развитие аристотелева взгляда, что части природного процесса развития, посредством которого мы, люди приходим к выражению полного набора типичных для вида жизненных способностей (наша особая животная форма), является для нас становлением через социализацию и развитие языка рационального использования интеллекта. Для этой траектории развития, классифицируемой как природная, культура и язык могут рассматриваться как чисто биологические феномены – конечно исключительно человеческие, но, тем не менее, чисто биологические. Тем не менее, если предположить, что это может быть сделано, тогда происходит фиксация интерпретации psyche, которая не допускает ни онтологического, ни обосновательного разделения между живым телом и разумом.

Так, согласно Аристотелю, из действительности того факта, что частное живое природное тело имеет psyche характеристики жизни своего вида, следует, что живое природное тело способно производить определенные вещи. При этом разум может рассматриваться просто как одна из этих вещей, способность, которая позволяет некоторым организмам быть живыми. И где проводятся рассуждения о поглощении питания, воспроизводстве, восприятии или мышлении проводятся рассуждения о присущей жизненной способности, биологическом феномене, который может быть объяснен в терминах материи и psyche. Другими словами, Аристотель был теоретиком, придерживавшимся строгой непрерывности. Основным предположением является, что аристотелевская концепция psyche обеспечивает как хорошую поддержку, так и удобный способ рассмотрения и использования более детально тезиса строгой непрерывности, который является центральным стержнем биологической науки о мышлении на базе искусственной жизни.

Заключение

Так как функционализм был определен как неокартезианская теория разума, в качестве контраста ей противопоставляются аристотелевские концептуальные рамки. Производится рассмотрение с аристотелевской точки зрения научной области, относящейся к искусственной жизни.

Сейчас является обычным для функционалистких философов разума в натуралистической традиции соединять идею функций разума с идеей функции дарвиновской эволюции. С дарвинисткой точки зрения функция эволюции, например, части визуальной системы лягушки – определять пищу в формах мух (вместо того, чтобы определять быстро движущиеся черные точки, на которые реагирует подсистема), потому что это то, для чего подсистема была выбрана в течении эволюционной истории лягушки (чем определять быстро движущиеся черные точки, некоторые из которых не являются мухами). Видимо, нет прямой необходимости соединения функции мышления с эволюционными функциями, для того чтобы функционализм смог работать. Однако, функционалисты нуждаются в источнике для апелляции в случае необходимости устранения фиктивных атрибутов функций (т.е. например, что функция части визуальной системы лягушки – определять быстро движущиеся черные точки). Для искусственных систем – источник апелляции сами исследователи. Функции искусственных объектов это то, что заложено в них разработчиками.

В данной работе были рассмотрены основные тенденции развития философии в области искусственно интеллекта и искусственной жизни, в том числе различие между ортодоксальной наукой о мышлении и биологическим мышлением в данной области философии. Первая тяготеет к игнорированию биологических соображений, в то время как последнее держится за мнение, что жизнь и разум разделяют общий набор организационных свойств. Было рассматрено предположение выдвигаемое современными философами когнитивистами, что искусственная жизнь является интеллектуальным потенциальным двигателем последнего. Были показаны концептуальные принципы такой движимой искусственной жизнью науки о мышлении. Обращая особое внимание на отношение между нейробиологическими и биохимическими феноменами и мышлением, показано, что переход к функционализму в ортодоксальной науке о мышлении обеспечивает неоспоримое доказательство, что данное приближение проистекает из картезианского рассмотрения взаимоотношений между телом и разумом. С другой стороны, фундаментальные заключения биологического познания поддерживают радикально отличающиеся общие теории Аристотеля. Рассмотрено, как концепция самоорганизации – главная теоретическая идея искусственной жизни – является ключевым камнем неоаристотелевой науки биологического познания.

МИНИСТЕРСТВО ОБЩЕГО И

ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ

НОВОСИБИРСКИЙ ГОСУДАРСТВЕННЫЙ

ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ

КАФЕДРА ФИЛОСОФИИ

ПО ДИСЦИПЛИНЕ “ФИЛОСОФИЯ”

НА ТЕМУ: “ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ”

Факультет: ПМиИ

Группа: ПММ-41

Студент: Слепынин А. Ю.

Преподаватель: Буторин В. Я.

Новосибирск 1999г.


Введение 3

Взгляды на термин "знание" 5

Аспект представления знаний 5

Знание как основа 6

Рефлексия как одна из составляющих интеллектуальной деятельности 9

Понятие рефлексии 9

Неотъемлимость рефлексии 12

Математическо-технические аспекты реализации систем

искусственного интеллекта 13

Природа обработки естественного языка 15

Основная проблема обработки естественного языка 16

Распознавание речи 17

Практическая реализация 18

Семантические сети 20

Искусственный интеллект и теоретические проблемы психологии 21

Сознаниие и разум 23

Что такое сознание? 23

Сознание и выживание 24

Есть ли разум? 25

Чем же отличается сознание от самообучения? 26

Человек вооружен 27

Осознавание себя 27

Сознание - это не материальный предмет 28

Разумны только люди? 30

Заключение 31

Словарь терминов 33

Использованная литература 35

Введение

Современные философы и исследователи науки часто рассматривают междисциплинарные науки как одно из выдающихся достижений заново открытых в 20 веке. Искусственный интеллект и искусственная жизнь представляют прекрасный пример такой интеграции многих научных областей. Конечно, междисциплинарность тоже имеет свою цену. Химики, биологи, специалисты в области вычислительных наук и многие другие изучают различные аспекты живых систем, пользуясь при этом сходными методами. Основными методами изучения искусственной жизни являются: синтез искусственных систем с аналогичным живым системам поведением, изучение динамики развития процесса, а не конечного результата, конструирование систем демонстрирующих феномен созидания. То что объединяет исследователей в области искусственной жизни (ИЖ) - это методы, в отличие от их целей. Конечно, существует общий интерес к жизни как к феномену для изучения. К сожалению, жизнь слишком сложна, чтобы можно было наметить общие направления в исследованиях. Доказательствам последнего утверждения может служить тот факт, что некоторые заинтересованы в исследовании “систем, демонстрирующих феномены живых систем”, другие изучают природу химического репродуцирования или пытаются решить философские проблемы самосознания. В то же время совершенно другой вид исследователей, относящихся к области роботики, пытаются создавать физические системы, демонстрирующие некоторое поведенческое сходство с животными. По современным научным данным человеческий мозг содержит около 240 основных “вычислительных” узлов нейронов, которых соединяют около 250 связей синапсов. Современные вычислительные системы стремительно приближаются по своим вычислительным возможностям к мозгу. Искусственные нейронные сети контролируют сложнейшие системы управления и слежения, проявляют способности в области распознавания изображения вплоть до возможности создания интеллектуальных автопилотов. Уже активно занимается искусственными системами область, считавшаяся прерогативой человека - компьютеры стали лучше людей играть в шахматы. В таких условиях приобретает особую значимость рассмотрение основных философских вопросов, связанных с искусственным интеллектом и искусственной жизнью. При этом, очевидно, возможно взаимовлияние искусственного интеллекта и искусственной жизни на философские проблемы мышления и жизни вообще.


Взгляды на термин “знание”


В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.


Аспект представления знаний

Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии - науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления - когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.

Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: знать должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний - в науке о познании (эпистемологии или гносеологии), а его конечная цель - программные средства информатики.

Во многих случаях подлежащие представлению знания относятся к довольно ограниченной области, для характеристики которой говорят об “области рассуждений” или “области экспертизы”. Численная формализация таких описаний в общем малоэффективна. Напротив, использование символического языка, такого, как язык математической логики, позволяет формулировать описания в форме, одновременно близкой и к обычному языку, и к языку программирования. Впрочем, математическая логика позволяет рассуждать, базируясь на приобретенных знаниях: логические выводы действительно являются активными операциями получения новых знаний из уже усвоенных.


Знание как основа

Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, - это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.

Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, - подчеркивает акад. Г. С. Поспелов, - представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.

Проблема представления знаний возникла как одна из проблем искусственного интеллекта. Она связана с переходом исследований в этой области в некоторую новую фазу. Речь идет о создании практически полезных систем (прежде всего так называемых экспертных систем), применяемых в медицине, геологии, химии. Создание такого рода систем требует интенсивных усилий по формализации знания, накопленного в соответствующей науке.

С термином “представление знаний” связывается определенный этап в развитии математического обеспечения ЭВМ. Если на первом этапе доминировали программы, а данные играли вспомогательную роль своеобразной “пищи” для “голодных” программ, то на последующих этапах роль данных неуклонно возрастала. Их структура усложнялась: от машинного слова, рамещенного в одной ячейке памяти ЭВМ, происходил переход к векторам, массивам, файлам, спискам. Венцом этого развития стали абстрактные типы данных, обеспечивающие возможность создания такой структуры данных, которая наиболее удобна при решении задачи. Последовательное развитие структур данных привело к их качественному изменению и к переходу от представления данных к представлению знаний. Уровень представления знаний отличается от уровня представления данных не только более сложной структурой, но и существенными особенностями: интерпретируемость, наличие классифицируемых связей (например, связь между знаниями, относящихся к элементу множества, и знаниями об этом множестве), которые позволяют хранить информацию, одинаковую для всех элементов множества, записанную одноактно при описании самого множества, наличие ситуативных отношений (одновременности, нахождения в одной точке пространства и т. п., эти отношения определяют ситуативную совместимость тех или иных знаний, хранимых в памяти). Кроме того, для уровня знаний характерны такие признаки, как наличие специальных процедур обобщения, пополнения имеющихся в системе знаний и ряда других процедур.

Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей - как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.

В последние годы все чаще стал употребляться термин “компьютерное моделировнаие”. Очевидно, имеет смысл обозначать им построение любого из состовляющих компьютерной системы - будь то знаковая модель или материальная.

Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных филосовских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности... Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры. ...Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные филосовские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные филосовские вопросы”.

Понятие “знание” можно и должно считать одним из ключевых как с точки зрения теории искусственного интеллекта, так и гносеологии. Именно философия пытается дать полную картину, полное объяснение природы того или иного понятия. В этом смысле она несомненно должна идти на первом месте, т. к. любая наука должна базироваться на строгих принципах. В этом смысле философскому познанию отводится ключевая роль в разработке и исследованию концепции знания, как объекта для моделирования. Таким образом, знание в гносеологическом смысле является основой.

С введением термина “знание” появляется свойство “осознавать”, т. е. “понимать” свои интеллектуальные возможности. В свою очередь это означает не что иное, как рефлексию.


Рефлексия

как одна из составляющих интеллектуальной деятельности


Понятие рефлексии

Исследования в области искусственного интеллекта возникли под влиянием идей кибернетики - прежде всего идеи общности процессов управления и передачи информации в живых организмах, обществе и компьютерах. Примечательно, что снятие идеологических запретов на кибернетику в период “оттепели” повлекло за собой бурное развитие исследований по кибернетике, и та ее область, которая впоследствии была осознана как проблематика создания систем искусственного интеллекта, сформировалась особенно быстро.

Интересно отметить, что реабилитация кибернетики и, в частности, проблемы искусственного интеллекта (или как тогда говорили, создание “мыслящих маши”) отнюдь не была сопряжена с общим процессом деидеологизации науки. “Оправдание” кибернетики произошло стараниями нескольких крупных ученых, искренне доказывавшими материалистический характер кибернетического воззрения на мир. Вслед за учеными эту задачу взяли на себя профессиональные философы.

Философская приемлемость проблематики искусственного интеллекта в ее традиционном виде была обусловлена лежащим в ее основе представлением о том, что “порядок и связь идей те же, что порядок и связь вещей”. Тем самым создать в компьютере структуру, воспроизводящую “мир идей”, означало означало попросту создать структуру изоморфную структуре вещественного мира, т. е. построить “электронную модель мира”. Эта модель интерпретировалась как компьютерная модель человеческих знаний о мире. Процесс человеческого мышления интерпретировался в компьютере как машинный поиск таких трансформаций модели, которые должны были перевести компьютерную модель в некое финальное состояние (например, матовую позицию в шахматах).

Для этого система искусственного интеллекта нуждалась в знаниях о том, как осуществлять трансформации состояний модели, приводящие к заранее заданной цели - состоянию с определенными свойствами. В первое время было распространено убеждение в принципиальной способности компьютера к самостоятельному исследованию хранящейся в нем модели, т. е. к самообучению стратегии достижения поставленной цели.

Данная гипотетическая способность интерпретировалась как возможность машинного творчества, как основа создания будущих “мыслящих машин”. И, хотя в реально разрабатывавшихся системах достижение цели осуществлялось на основе человеческого опыта с помощью алгоритмов, основанных на теоретическом анализе создаваемых моделей и результатов проводимых на них экспериментов, идеи построения самообучаемых систем многим казались наиболее перспективными. Лишь к 80-му году была осознана значимость проблемы использования в интеллектуальных системах человеческих знаний о действительности, повлекшая серьезную разработку баз знаний и методов извлечения личных знаний экспертов.

С развитием изучения данного направления возникла идея рефлексивного управления. До этого момента в кибернетике управление рассматривалось как передача объекту сигналов, непосредственно воздействующих на его поведение, а эффективность управления достигалась с помощью обратной связи - получения информации о реакциях управляемого объекта. Рефлексивное же управление - есть передача информации, воздействующей на имеющийся у объекта образ мира. Тем самым обратная связь излишняя - состояние субъекта известно передающему информацию.

Интересными оказались компьютерные модели, в которых успех достигался за счет включения рефлексии о противодействующих намерениях партнеров.

Философская традиция называет рефлексией мысль о мысли, т. е. ситуацию, когда предметом мысли оказывается не вещь, а факт мышления. Св. Фома Аквинский определял рефлексию как “мысль, догоняющую мысль”.

Сам факт рефлексии означает, что деятельность человеческого сознания отнюдь не ограничивается созданием моделей, воспроизводящих (“отражающих”) внешнюю действительность. Рефлексия - мнение субъекта об имеющемся у него образе действительности, т. е. критический образ этого образа, подразумевающий оценку создаваемых в воображении моделей. Классическая парадигма искусственного интеллекта игнорирует данное обстоятельство и поэтому не интересуется рефлексией. Вероятно, что такое игнорирование связано с бытующим взглядом на рефлексию как на критическое сомнение, которое мешает последовательному проведению эффективных действий. Классическая парадигма искусственного интеллекта предполагала наличие жесткого целеполагания, т. е. ясной и не подлежащей сомнению цели, достижение которой означает решение проблемы независимо от используемых средств (если последнее обстоятельство не противоречит основным принципам построения самой интеллектуальной системы). В системе с развитой рефлексией цель также может оказаться предметом критической рефлексии. Человек, способный к глубокой рефлексии, не может быть абсолютно целеустремленным, ибо он способен усомниться в безоговорочной ценности поставленной перед ним цели.

Традиционные системы искусственного интеллекта основаны на идеологии целеориентированного поведения типа шахматной игры, где цель обоих партнеров состоит в том, чтобы поставить мат другому ценой любых жертв. Не случайно именно шахматные программы оказались столь важными для отработки методов искусственного интеллекта.


Неотъемлемость рефлексии

Ответом с технической точки зрения может служить следующее. Как и любая компьютерная программа, наделенная средствами самодиагностики и самоисправления (а такие средства уже становятся стандартном), т. е. средствами повышения надежности, системы искусственного интеллекта должны контролировать происходящие процессы - как внешние, так и внутренние. Однако, может показаться, что в этом смысле будет достаточным просто развитая структура обратных связей. Сразу надо оговориться, что под обратной связью следует понимать только ответную реакцию (или получение информации о ней) после какого-то конкретного действия системы. Обратная связь лишь предоставляет данные, информацию, но ни в коей мере не интерпретирует их. Норбертом Винером в книге “Кибернетика, или управление и связь в животном и машине” были приведены примеры нарушений нервной системы людей и их последствия. Так люди с нарушением системы ориентации собственных конечностей в пространстве (не чувствующие своих рук и ног, случай, когда конечности “немеют”) должны были визуально контролировать свои действия. Это было типичное нарушение обратной связи. Рефлексия же подразумевает анализ полученной картины. Математика - наука абстрактная. Любую предметную область, с которой работает математик, он описывает с помощью моделей, структура и сложность которых зависит от конкретных поставленных задач. Анализ функционирования собственной модели или модели “всей окружающей действительности” (в рамках поставленной задачи), контроль над ее состоянием, прогнозирование состояния - есть ни что иное, как реализация рефлексии. Рефлексия - есть некий метауровень. С применением языков высокого уровня, таких как язык Пролог, позволяющий формулировать цели и строить логические выводы достижимости этих целей, задача реализации рефлексии уже может быть частично решена. С их помощью можно построить некую метаструктуру, надстройку, некий метауровень, позволяющий оценивать поведение предыдущего. Однако, при рассмотрении термина “глубокая рефлексия” или “многоуровневая рефлексия” встает проблема построения моделей самой системой. Здесь на помощь могут приходят абстрактные типы данных. Они позволяют оперировать структурами данных любой конечной сложности. Таким образом можно считать, что системы искусственного интеллекта могут содержать модель рефлексии (математика оперирует только моделями).

Это может быть ответом на вопрос “Можно ли машину заставить понимать, что она понимает?”, но не на вопрос о обязательном включении рефлексии. Попробуем ответить от противного: а можно ли отвергнуть рефлексию, можно ли считать интеллектуальную систему полноценной без умения оценивать, “понимать” свои действия? Думаю, что нельзя. Более того, рефлексию следует считать одним из главных инструментов построения поведения систем. Как ни забавно это звучит, но говоря самоконтроля и самопонимания, можно говрить о некоторой этике поведения системы.


Математическо-технические

аспекты реализации систем искусственного интеллекта


С конца 40-х годов ученые все большего числа университетских и промышленных исследовательских лабораторий устремились к дерзкой цели: построение компьютеров, действующих таким образом, что по результатам работы их невозможно было бы отличить от человеческого разума.

Терпеливо продвигаясь вперед в своем нелегком труде, исследователи, работающие в области искусственного интеллекта (ИИ), обнаружили, что вступили в схватку с весьма запутанными проблемами, далеко выходящими за пределы традиционной информатики. Оказалось, что прежде всего необходимо понять механизмы процесса обучения, природу языка и чувственного восприятия. Выяснилось, что для создания машин, имитирующих работу человеческого мозга, требуется разобраться в том, как действуют миллиарды его взаимосвязанных нейронов. И тогда многие исследователи пришли к выводу, что пожалуй самая трудная проблема, стоящая перед современной наукой - познание процессов функционирования человеческого разума, а не просто имитация его работы. Что непосредственно затрагивало фундаментальные теоретические проблемы психологической науки. В самом деле, ученым трудно даже прийти к единой точке зрения относительно самого предмета их исследований - интеллекта. Здесь, как в притче о слепцах, пытавшихся описывать слона, пытается придерживаться своего заветного определения.

Некоторые считают, что интеллект - умение решать сложные задачи; другие рассматривают его как способность к обучению, обобщению и аналогиям; третьи - как возможность взаимодействия с внешним миром путем общения, восприятия и осознания воспринятого. Тем не менее многие исследователи ИИ склонны принять тест машинного интеллекта, предложенный в начале 50-х годов выдающимся английским математиком и специалистом по вычислительной технике Аланом Тьюрингом. Компьютер можно считать разумным,- утверждал Тьюринг,- если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком.

Обеспечение взаимодействия с ЭВМ на естественном языке (ЕЯ) является важнейшей задачей исследований по искусственному интеллекту (ИИ). Базы данных, пакеты прикладных программ и экспертные системы, основанные на ИИ, требуют оснащения их гибким интерфейсом для многочисленных пользователей, не желающих общаться с компьютером на искусственном языке. В то время как многие фундаментальные проблемы в области обработки ЕЯ (Natural Language Processing, NLP) еще не решены, прикладные системы могут оснащаться интерфейсом, понимающем ЕЯ при определенных ограничениях.

Существуют два вида и, следовательно, две концепции обработки естественного языка:

· для отдельных предложений;

· для ведения интерактивного диалога.

Природа обработки естественного языка

Обработка естественного языка - это формулирование и исследование компьютерно-эффективных механизмов для обеспечения коммуникации с ЭВМ на ЕЯ. Объектами исследований являются:

· собственно естественные языки;

· использование ЕЯ как в коммуникации между людьми, так и в коммуникации человека с ЭВМ.

Задача исследований - создание компьютерно-эффективных моделей коммуникации на ЕЯ. Именно такая постановка задачи отличает NLP от задач традиционной лингвистики и других дисциплин, изучающих ЕЯ, и позволяет отнести ее к области ИИ. Проблемой NLP занимаются две дисциплины: лингвистика и когнитивная психология.

Традиционно лингвисты занимались созданием формальных, общих, структурных моделей ЕЯ, и поэтому отдавали предпочтение тем из них, которые позволяли извлекать как можно больше языковых закономерностей и делать обобщения. Практически никакого внимания не уделялось вопросу о пригодности моделей с точки зрения компьютерной эффективности их применения. Таким образом, оказалось, что лингвистические модели, характеризуя собственно язык, не рассматривали механизмы его порождения и распознавания. Хорошим примером тому служит порождающая грамматика Хомского, которая оказалась абсолютно непригодной на практике в качестве основы для компьютерного распознавания ЕЯ.

Задачей же когнитивной психологии является моделирование не структуры языка, а его использования. Специалисты в этой области также не придавали большого значения вопросу о компьютерной эффективности.

Различаются общая и прикладная NLP. Задачей общей NLP является разработка моделей использования языка человеком, являющихся при этом компьютерно-эффективными. Основой для этого является общее понимание текстов, как это подразумевается в работах Чарняка, Шенка, Карбонелла и др. Несомненно, общая NLP требует огромных знаний о реальном мире, и большая часть работ сосредоточена на представлении таких знаний и их применении при распознавании поступающего сообщения на ЕЯ. На сегодняшний день ИИ еще не достиг того уровня развития, когда для решения подобных задач в большом объеме использовались бы знания о реальном мире, и существующие системы можно называть лишь экспериментальными, поскольку они работают с ограниченным количеством тщательно отобранных шаблонов на ЕЯ.

Прикладная NLP занимается обычно не моделированием, а непосредственно возможностью коммуникации человека с ЭВМ на ЕЯ. В этом случае не так важно, как введенная фраза будет понята с точки зрения знаний о реальном мире, а важно извлечение информации о том, чем и как ЭВМ может быть полезной пользователю (примером может служить интерфейс экспертных систем). Кроме понимания ЕЯ, в таких системах важно также и распознавание ошибок и их коррекция.


Основной проблемой NLP является языковая неоднозначность. Существуют разные виды неоднозначности:

· Синтаксическая (структурная) неоднозначность: во фразе Time flies like an arrow для ЭВМ неясно, идет ли речь о времени, которое летит, или о насекомых, т.е. является ли слово flies глаголом или существительным.

· Смысловая неоднозначность: во фразе The man went to the bank to get some money and jumped in слово bank может означать как банк , так и берег .

· Падежная неоднозначность: предлог in в предложениях He ran the mile in four minutes/He ran the mile in the Olympics обозначает либо время, либо место, т.е. представлены совершенно различные отношения.

· Референциальная неоднозначность: для системы, не обладающей знаниями о реальном мире, будет затруднительно определить, с каким словом - table или cake - соотносится местоимение it во фразе I took the cake from the table and ate it .

· Литерация (Literalness): в диалоге Can you open the door? - I feel cold ни просьба, ни ответ выражены нестандартным способом. В других обстоятельствах на вопрос может быть получен прямой ответ yes/no , но в данном случае в вопросе имплицитно выражена просьба открыть дверь.

Центральная проблема как для общей, так и для прикладной NLP - разрешение такого рода неоднозначностей - решается с помощью перевода внешнего представления на ЕЯ в некую внутреннюю структуру. Для общей NLP такое превращение требует набора знаний о реальном мире. Так, для анализа фразы Jack took the bread from the supermarket shelf, paid for it, and left и для корректного ответа на такие вопросы, как What did Jack pay for? , What did Jack leave? и Did Jack have the bread with him when he left ? необходимы знания о супермаркетах, процессах покупки и продажи и некоторые другие.

Прикладные системы NLP имеют преимущество перед общими, т.к. работают в узких предметных областях. К примеру, системе, используемой продавцами в магазинах по продаже компьютеров, не нужно ”раздумывать” над неоднозначностью слова terminals в âîïðîñå How many terminals are there in the order ? .

Тем не менее, создание систем, имеющих возможность общения на ЕЯ в широких областях, возможно, хотя пока результаты далеки от удовлетворительных.


Распознавание речи

По мере развития компьютерных систем становится все более очевидным, что использование этих систем намного расширится, если станет возможным использование человеческой речи при работе непосредственно с компьютером, и в частности станет возможным управление машиной обычным голосом в реальном времени, а также ввод и вывод информации в виде обычной человеческой речи.

Существующие технологии распознавания речи не имеют пока достаточных возможностей для их широкого использования, но на данном этапе исследований проводится интенсивный поиск возможностей употребления коротких многозначных слов (процедур) для облегчения понимания. Распознавание речи в настоящее время нашло реальное применение в жизни, пожалуй, только в тех случаях, когда используемый словарь сокращен до 10 знаков, например при обработке номеров кредитных карт и прочих кодов доступа в базирующихся на компьютерах системах, обрабатывающих передаваемые по телефону данные. Так что насущная задача - распознавание по крайней мере 20 тысяч слов естественного языка - остается пока недостижимой. Эти возможности пока недоступны для широкого коммерческого использования. Однако ряд компаний своими силами пытается использовать уже существующие в данной области науки знания.

Для успешного распознавания речи следует решить следующие задачи:

1) обработку словаря (фонемный состав),

2) обработку синтаксиса,

3) сокращение речи (включая возможное использование жестких сценариев),

4) выбор диктора (включая возраст, пол, родной язык и диалект), тренировку дикторов,

5) выбор особенного вида микрофона (принимая во внимание направленность и местоположение микрофона),

6) условия работы системы и получения результата с указанием ошибок.

Существующие сегодня системы распознавания речи основываются на сборе всей доступной (порой даже избыточной) информации, необходимой для распознавания слов. Исследователи считают, что таким образом задача распознавания образца речи, основанная на качестве сигнала, подверженного изменениям, будет достаточной для распознавани, но тем не менее в настоящее время даже при распознавании небольших сообщений нормальной речи, пока невозможно после получения разнообразных реальных сигналов осуществить прямую трансформацию в лингвистические символы, что является желаемым результатом.


Практическая реализация


Разработки в области искусственного интеллекта ведутся и в Новосибирском Государственном Техническом Университете. На факультете Прикладной Математики и Информатики (ФПМиИ) элементы теории искусственного интеллекта входят в базовую программу подготовки специалистов. Одним из ведущих специалистов в данной области является профессор Хабаров В.И., зав. кафедрой Программных Систем и Баз Данных (ПСиБД). Одно из направлений его исследований связано с внедрением семантических и нейронных сетей в системы управления и анализа данных, систем накопления и представления знаний. В качестве примера можно назвать разработку CASE-технологии, базированной на ультрасетях.

Тенденции развития современных информационных технологий приводят к постоянному возрастанию сложности информационных систем (ИС), создаваемых в различных областях экономики. Современные крупные проекты ИС характеризуются, как правило, следующими особенностями:

· сложность описания (достаточно большое количество функций, процессов, элементов данных и сложные взаимосвязи между ними), требующая тщательного моделирования и анализа данных и процессов;

· наличие совокупности тесно взаимодействующих компонентов (подсистем), имеющих свои локальные задачи и цели функционирования (например, традиционных приложений, связанных с обработкой транзакций и решением регламентных задач, и приложений аналитической обработки (поддержки принятия решений), использующих нерегламентированные запросы к данным большого объема);

· отсутствие прямых аналогов, ограничивающее возможность использования каких-либо типовых проектных решений и прикладных систем;

· необходимость интеграции существующих и вновь разрабатываемых приложений;

· функционирование в неоднородной среде на нескольких аппаратных платформах;

· разобщенность и разнородность отдельных групп разработчиков по уровню квалификации и сложившимся традициям использования тех или иных инструментальных средств;

· существенная временная протяженность проекта, обусловленная, с одной стороны, ограниченными возможностями коллектива разработчиков, и, с другой стороны, масштабами организации-заказчика и различной степенью готовности отдельных ее подразделений к внедрению ИС.


Несмотря на высокие потенциальные возможности CASE-технологии (увеличение производительности труда, улучшение качества программных продуктов, поддержка унифицированного и согласованного стиля работы) далеко не все разработчики информационных систем, использующие CASE-средства, достигают подобных результатов. Применение семантических сетей для проектирования данного вида систем является по своей сути шагом в абсолютно новом направлении, что позволяет проектировать и внедрять интеллектуальные обучаемые системы для поддержки принятия решений.

Семантические сети

Семантическая сеть - структура для представления знаний в виде узлов, соединенных дугами. Самые первые семантические сети были разработаны в качестве языка-посредника для систем машинного перевода, а многие современные версии до сих пор сходны по своим характеристикам с естественным языком. Однако последние версии семантических сетей стали более мощными и гибкими и составляют конкуренцию фреймовым системам, логическому программированию и другим языкам представления.

Начиная с конца 50-ых годов были создано и применены на практике десятки вариантов семантических сетей. Несмотря на то, что терминология и их структура различаются, существуют сходства, присущие практически всем семантическим сетям:

1) узлы семантических сетей представляют собой концепты предметов, событий, состояний;

2) различные узлы одного концепта относятся к различным значениям, если они не помечено, что они относятся к одному концепту;

3) дуги семантических сетей создают отношения между узлами-концептами (пометки над дугами указывают на тип отношения);

4) некоторые отношения между концептами представляют собой лингвистические падежи, такие как агент, объект, реципиент и инструмент (другие означают временные, пространственные, логические отношения и отношения между отдельными предложениями;

5) концепты организованы по уровням в соответствии со степенью обобщенности так как, например, сущность, живое существо, животное, плотоядное.

Однако существуют и различия: понятие значения с точки зрения философии; методы представления кванторов общности и существования и логических операторов; способы манипулирования сетями и правила вывода, терминология. Все это варьируется от автора к автору. Несмотря не некоторые различия, сети удобны для чтения и обработки компьютером, а также достаточно мощны, чтобы представить семантику естественного языка.


Искусственный интеллект

и теоретические проблемы психологии


Можно выделить две основные линии работ по ИИ. Первая связана с совершенствованием самих машин, с повышением "интеллектуальности" искусственных систем. Вторая связана с задачей оптимизации совместной работы "искусственного интеллекта" и собственно интеллектуальных возможностей человека.

Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта.

1. "Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний" - эта позиция характерна для многих зарубежных специалистов по ИИ.

2. Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно подчерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.

3. Третья позиция характеризуется оценкой исследования в области искусственного интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических знаний в плане психологического обеспечения работ по ИИ.

Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.

В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение "машинного" и "немашинного" есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия - в психологическом смысле "операция" отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).

В работах по искусственному интеллекту постоянно используется термин "цель". Анализ отношения средств к цели А.Ньюэлл и Г.Саймон называют в качестве одной из "эвристик". В психологической теории деятельности "цель" является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах "целью" называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений или перцептивного образа. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.

Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, "целей", но и оценочными функциями. И у искусственных систем есть своего рода "ценностные ориентации". Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.

Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.


Несколько слов о сознании


Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.


Что такое сознание?

Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?

Обычно слово сознание применяется, как характеристика отдельного существа. Оно может "потерять сознание". А слово разум означает принципиальную способность быть сознательным. Например, "человек разумный". Однако, есть и другие толкования.

Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.

Раз уж нельзя это точно доказать, то нужно субъективно судить о наличии сознания у некоторого объекта по его поведению. При этом можно принять какое-то поведение за сознательное, а впоследствии выяснить, что это была ошибка. Но более надёжного способа нет, и не стоит терять время на его установление, если только это не окажется критичным для ответа на поставленные вопросы.

Сущность субъекта субъективна. Человек относится к себе слишком предвзято. И хотя почти любой человек может сделать полезные выводы о природе сознания на основании поведения людей, скорее всего, эти аргументы не убедительны для других людей. Поэтому стоит рассмотреть сознание других животных.


Сознание и выживание

Поведение животного управляется его нервной системой. Обычно, чем больше мозг животного, тем разумнее поведение этого животного. Нервная система, как и другие органы и системы организма, изобретена природой как одно из средств, обеспечивающих выживание вида. Развитие нервной системы и увеличение централизованного мозга произошло тоже в результате эволюционной борьбы за выживание. Но есть такие формы жизни, которые выживают и без нервной системы, например, растения.

Растения не живут, а выживают. Сравним индивидуальное поведение растения и животного. Что, собственно, в их поведении способствует выживанию

вида? Само слово поведение плохо подходит к растению. Растения проживают свой век без заметного проявления индивидуальных свойств. Выживаемость одного растения заключается в том, что оно способно вынести неблагоприятные условия, которые могут наступить в какой-то период жизни растения. Приспособляемость вида растений к изменяющимся условиям обеспечивается тем, что растения, которые плохо приспособлены к данным условиям, не выживают и не передают свои неудачные признаки потомству.

Животные способны улучшить свою жизнь. Они совершенно иначе относятся к неблагоприятным условиям животные, например, кошки и мышки. Они активно пытаются найти выход из положения. Собственно, это и можно назвать поведением. Поведение - это достаточно быстрая реакция в ответ на изменяющиеся внешние условия. Если плохие условия сохраняются долго, то кошка пытается приспособиться к ним. Она ищет правильное поведение в новой для неё обстановке. Но если все попытки улучшить ситуацию оказываются безнадёжными, то кошке, как и растению, остаётся только надеяться и терпеть.

Сложное поведение животных является проявлением условных и врожденных рефлексов. Это справедливо как для простых животных, вроде улитки, так и для наиболее смышлёных, вроде собаки. В отличие от растений, животные, имеющие нервную систему, способны приобретать условные, генетически не запрограммированные рефлексы, то есть обучаться.

Животные могут найти новое выгодное (то есть разумное?) поведение. В некоторых случаях поведение, основанное на приобретённых рефлексах, настолько "разумно", что некоторые, например я, считают его разумным без кавычек. Является ли это поведение проявлением "настоящего" разума или лишь изощрённой адаптацией живого организма к меняющемуся миру, не известно, так как мы можем судить о разуме только по поведению, и не имеем конструктивного "индикатора наличия разума". А чем, если не адаптацией к миру вплоть до изменения мира по своим потребностям, является поведение человека?

Итак, условившись судить о разуме по поведению, можно выделить два важных факта.


Есть ли разум?

Суждение о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.

Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а "возникает" при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь "нулевую" или "исчезающе малую" разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных. Явно разумность заключается не в том, что существо питается и размножается, потому что подобные признаки есть и у растений, которые, судя по отсутствию поведения, разумом не обладают.

Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, тоже не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. "Цель" и "решение" сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения "более наблюдаемы", но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.

Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта.


Чем же отличается сознание от самообучения?

Сознание - это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться.

Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления "творческого мотора". Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) - и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.

Вместо слова "самообучение" иногда используют более широкое понятие "адаптация". Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к

адаптации (к самообучению). Изобретение нового поведения - признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество - один из атрибутов сознания.


Человек вооружен

Человек, снабженный современными техническими средствами (книгами, автомобилями, оружием), способен выжить в более широком диапазоне внешних условий. Он лучше адаптирован к миру, чем человек, как живое существо. В

соответствии с таким определением, можно считать, что сознание цивилизованного человека продолжает развиваться, хотя сознание "биологического" человека, может быть, имеет пределы, которые уже достигнуты, судя по тому, что нам приходится интенсивно учиться всю жизнь и наша разумность пропорциональна способности к адаптации.

Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно

научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.


Осознавание себя

"Начальное" сознание не гарантирует осознавания. Осознавание - это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.

Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания "внешнего" мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.

Осознавание ощущений обеспечивает тот же внутренний механизм сознания - мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.

Сознание - это процесс, и это стоит еще раз подчеркнуть! (Сразу приходит в голову то, что ЭВМ - это тоже постоянный процесс: стоит ее выключить и она становится просто мебелью, вроде тумбочки, или частью интерьера, “теряет сознание”. Когда же она включена, то постоянно находится в состоянии “самосознания”, непрерывно контролируя все внутренние и все доступные ей внешние процессы.) Можно полностью сохранить информацию, и остановить процесс её обработки. При этом сознание исчезнет.

Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга - это его взаимодействие с другими органами. Поведение руки - это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное "не улучшаемое" поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.

Сознание - это не материальный предмет.

Вопрос "где находится сознание" не имеет смысла. Необходимую обработку информации может выполнять локальный нервный узел, мозг или удалённый процессор, но сознание не находится внутри этих органов. Например, мы видим бабочку на экране компьютера. Обработка её ощущений (вернее - модели ощущений) происходит внутри системного блока, а материального тела у неё вообще нет. Отсюда следует, что нельзя присваивать функцию сознания мозгу, так как мозг является только одним из органов, поддерживающих наблюдаемое сознательное поведение живого существа. Осознавание необходимо только там, где невозможна автоматизация.

Живой мозг, как информационная машина, постоянно взаимодействует с объектным миром. Только малую часть своих способностей он выделяет для осознаваемого творчества. А сам механизм сознания - это неостановимый процесс, который работает, даже когда мы спим и ничего не осознаём. Осознание себя - это только один из многочисленных процессов, происходящих в сознании при управлении телом и его поведением в окружающем мире. Это процесс творческого (то есть, неавтоматического) восприятия внешнего мира. Восприятие мира нельзя полностью автоматизировать, так как разумное живое существо должно быть готово к неожиданному непредсказуемому изменению в окружающем мире. Требуется сохранять внимание и иметь "резерв разумности" (осознавание и способность к умозаключениям), чтобы адекватно изменить поведение.

Большая часть процессов сознания - это управление органами тела, доведённое до автоматизма, и поэтому оно не осознаваемо. Можно сделать допущение, что в то время, когда мозг и другие органы ещё не родившегося ребёнка развивались и приучались взаимодействовать друг с другом, этот творческий процесс самообучения был осознаваем. А материнский организм помогал обучению, страхуя плод от слишком богатого творчества.

Осознание себя индивидуальностью - не основа сознания, а ощущаемая, наиболее творческая сторона его работы, которая не может превратиться в автоматическое легко узнаваемое поведение. Поэтому сознание другого субъекта непосредственно не наблюдаемо. А вот собственное сознание наблюдаемо. Хотя автоматические процессы и составляют основную работу механизма сознания, но они являются подсознательными и не отвлекают нашего внимания от творческой работы сознания, какой бы малой она ни была.

Критерий понимания – это работающий самообучающийся алгоритм. Разработав алгоритм (технологию) самообучения или универсальной адаптации и снабдив этим алгоритмом искусственное существо, мы обеспечиваем его средством для развития сознания и осознавания себя.


Разумны только люди?

Пусть создана искусственная жизнь. Попробуем проверить разумность какого-нибудь искусственного существа. Если оно развивалось в окружении себе подобных, а не людей, то у него совсем другой мир интересов. Оно будет похоже для нас не на мыслителя или хитреца из теста Тьюринга, а на животное, машину или программу.

Постоянный динамический контакт с объектным миром является обязательным

условием как жизни, так и разума. А полноценная разумная жизнь возможна только в какой-нибудь культурной среде. Например, среди людей. Для того чтобы мы могли признать существо разумным, оно должно приспособиться к человеческой культуре. Если попугай сможет пройти тест Тьюринга, то никто не станет сомневаться в том, что он обладает сознанием. Но если такой же или ещё более разумный попугай никогда не встречал людей, то он не может пройти тест Тьюринга. Потому что это тест на наличие человеческого сознания.


Заключение


Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов во многом объясняется именно ее тесной связью с этой "вечной" проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют два основных диаметрально противоположных направления: материализм и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что "...тот вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, как бы ни казалось оно сверхчувствительным, являются продуктом вещественного, телесного органа.

Можно пытаться объяснить, что так как кибернетика позволяет моделировать некоторые функции мозга, то сознание или разум имеет чисто материальную основу. Однако данная область может считаться слабо изученной, несмотря на труд не одного поколения ученых, и делать подобные выводы еще более чем рано. Данное утверждение не есть поддержка сторонников идеализма, оно лишь является мнением человека, немного занимающегося математикой.

До сих пор диалектико-материалистиеское понимание мышления опиралось главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.

Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание - это цепочка. Знание в области искусственного интеллекта - тоже есть цепочка, причем бесконечная.

Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.


Словарь терминов


Ниже приводятся наиболее часто употребляемые понятия в терминологии проектирования систем искусственного интеллекта.


База знаний (Knowledge Base):

Совокупность программных средств, обеспечивающих поиск, хранение, преобразование и запись в памяти компьютера сложно структурированных информационных единиц (знаний).


Вывод (Inference):

Получение новых информационных единиц из ранее известных. Частным случаем вывода является логический вывод.


Знания (Knowledge):

Совокупность сведений, образующих целостное описание, соответствующее некоторому уровню осведомленности об описываемом предмете, событии, проблеме и т.д.


ИИ-программирование (AI-programming):

Разработка инструментального программного обеспечения для решения задач искусственного интеллекта. В ИИ-программировании создаются языки программирования, ориентированные на особенности задач искусственного интеллекта, языки представления и обработки знаний, экспертные оболочки и другие инструментальные средства.


Искусственный интеллект (Artificial Intelligence, AI):

Научное направление, в рамках которого ставятся и решаются задачи аппаратного или программного моделирования тех видов человеческой деятельности, которые традиционно считаются интеллектуальными (представление знаний, обучение, общение и т.п.).


Нейронная сеть (Neural Network, NN):

Сеть, состоящая из множества простых процессоров (нейронов, узлов), каждый из которых, возможно, имеет локальную память. Нейроны связаны однонаправленными коммуникационными каналами (связями), по которым передается численные (в противоположность символьным) данные. Узлы манипулируют только своими локальными данными и входными данными, которые они получают по связям.


Представление

Действие, делающее некоторое понятие воспринимаемым посредством фигуры, записи, языка или формализма.


Представление знаний

Формализация истинных убеждений посредством фигур, записей или языков.


Использованная литература


1. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.

2. Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.

3. Анисов А.М. ЭВМ и понимание матемматических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.

4. Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.

5. Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.

6. Винер Н. Киберентика или управление и связь в животном и машине. Второе издание: М., Наука 1983.

7. Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.

8. Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.

9. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.

10. Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.

11. Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.

12. Тьюринг А. Может ли машина мыслить?: М., Наука 1960.

13. Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопосы философии”: журнал 1995 №7, с. 163-167.

14. Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопосы философии”: журнал 1990 №7, с. 32-41.

15. Корниенко Е. Механизмы сознания: www.glasnet.ru 1998 (электронная публикация)


Репетиторство

Нужна помощь по изучению какой-либы темы?

Наши специалисты проконсультируют или окажут репетиторские услуги по интересующей вас тематике.
Отправь заявку с указанием темы прямо сейчас, чтобы узнать о возможности получения консультации.