Титаренко философские проблемы искусственного интеллекта. Сознание и искусственный интеллект

МИНИСТЕРСТВО ОБЩЕГО И

ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ

НОВОСИБИРСКИЙ ГОСУДАРСТВЕННЫЙ

ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ

КАФЕДРА ФИЛОСОФИИ

ПО ДИСЦИПЛИНЕ “ФИЛОСОФИЯ”

НА ТЕМУ: “ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ”

Факультет: ПМиИ

Группа: ПММ-41

Студент: Слепынин А. Ю.

Преподаватель: Буторин В. Я.

Новосибирск 1999г.


Введение 3

Взгляды на термин "знание" 5

Аспект представления знаний 5

Знание как основа 6

Рефлексия как одна из составляющих интеллектуальной деятельности 9

Понятие рефлексии 9

Неотъемлимость рефлексии 12

Математическо-технические аспекты реализации систем

искусственного интеллекта 13

Природа обработки естественного языка 15

Основная проблема обработки естественного языка 16

Распознавание речи 17

Практическая реализация 18

Семантические сети 20

Искусственный интеллект и теоретические проблемы психологии 21

Сознаниие и разум 23

Что такое сознание? 23

Сознание и выживание 24

Есть ли разум? 25

Чем же отличается сознание от самообучения? 26

Человек вооружен 27

Осознавание себя 27

Сознание - это не материальный предмет 28

Разумны только люди? 30

Заключение 31

Словарь терминов 33

Использованная литература 35

Введение

Современные философы и исследователи науки часто рассматривают междисциплинарные науки как одно из выдающихся достижений заново открытых в 20 веке. Искусственный интеллект и искусственная жизнь представляют прекрасный пример такой интеграции многих научных областей. Конечно, междисциплинарность тоже имеет свою цену. Химики, биологи, специалисты в области вычислительных наук и многие другие изучают различные аспекты живых систем, пользуясь при этом сходными методами. Основными методами изучения искусственной жизни являются: синтез искусственных систем с аналогичным живым системам поведением, изучение динамики развития процесса, а не конечного результата, конструирование систем демонстрирующих феномен созидания. То что объединяет исследователей в области искусственной жизни (ИЖ) - это методы, в отличие от их целей. Конечно, существует общий интерес к жизни как к феномену для изучения. К сожалению, жизнь слишком сложна, чтобы можно было наметить общие направления в исследованиях. Доказательствам последнего утверждения может служить тот факт, что некоторые заинтересованы в исследовании “систем, демонстрирующих феномены живых систем”, другие изучают природу химического репродуцирования или пытаются решить философские проблемы самосознания. В то же время совершенно другой вид исследователей, относящихся к области роботики, пытаются создавать физические системы, демонстрирующие некоторое поведенческое сходство с животными. По современным научным данным человеческий мозг содержит около 240 основных “вычислительных” узлов нейронов, которых соединяют около 250 связей синапсов. Современные вычислительные системы стремительно приближаются по своим вычислительным возможностям к мозгу. Искусственные нейронные сети контролируют сложнейшие системы управления и слежения, проявляют способности в области распознавания изображения вплоть до возможности создания интеллектуальных автопилотов. Уже активно занимается искусственными системами область, считавшаяся прерогативой человека - компьютеры стали лучше людей играть в шахматы. В таких условиях приобретает особую значимость рассмотрение основных философских вопросов, связанных с искусственным интеллектом и искусственной жизнью. При этом, очевидно, возможно взаимовлияние искусственного интеллекта и искусственной жизни на философские проблемы мышления и жизни вообще.


Взгляды на термин “знание”


В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.


Аспект представления знаний

Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии - науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления - когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.

Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: знать должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний - в науке о познании (эпистемологии или гносеологии), а его конечная цель - программные средства информатики.

Во многих случаях подлежащие представлению знания относятся к довольно ограниченной области, для характеристики которой говорят об “области рассуждений” или “области экспертизы”. Численная формализация таких описаний в общем малоэффективна. Напротив, использование символического языка, такого, как язык математической логики, позволяет формулировать описания в форме, одновременно близкой и к обычному языку, и к языку программирования. Впрочем, математическая логика позволяет рассуждать, базируясь на приобретенных знаниях: логические выводы действительно являются активными операциями получения новых знаний из уже усвоенных.


Знание как основа

Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, - это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.

Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, - подчеркивает акад. Г. С. Поспелов, - представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.

Проблема представления знаний возникла как одна из проблем искусственного интеллекта. Она связана с переходом исследований в этой области в некоторую новую фазу. Речь идет о создании практически полезных систем (прежде всего так называемых экспертных систем), применяемых в медицине, геологии, химии. Создание такого рода систем требует интенсивных усилий по формализации знания, накопленного в соответствующей науке.

С термином “представление знаний” связывается определенный этап в развитии математического обеспечения ЭВМ. Если на первом этапе доминировали программы, а данные играли вспомогательную роль своеобразной “пищи” для “голодных” программ, то на последующих этапах роль данных неуклонно возрастала. Их структура усложнялась: от машинного слова, рамещенного в одной ячейке памяти ЭВМ, происходил переход к векторам, массивам, файлам, спискам. Венцом этого развития стали абстрактные типы данных, обеспечивающие возможность создания такой структуры данных, которая наиболее удобна при решении задачи. Последовательное развитие структур данных привело к их качественному изменению и к переходу от представления данных к представлению знаний. Уровень представления знаний отличается от уровня представления данных не только более сложной структурой, но и существенными особенностями: интерпретируемость, наличие классифицируемых связей (например, связь между знаниями, относящихся к элементу множества, и знаниями об этом множестве), которые позволяют хранить информацию, одинаковую для всех элементов множества, записанную одноактно при описании самого множества, наличие ситуативных отношений (одновременности, нахождения в одной точке пространства и т. п., эти отношения определяют ситуативную совместимость тех или иных знаний, хранимых в памяти). Кроме того, для уровня знаний характерны такие признаки, как наличие специальных процедур обобщения, пополнения имеющихся в системе знаний и ряда других процедур.

Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей - как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.

В последние годы все чаще стал употребляться термин “компьютерное моделировнаие”. Очевидно, имеет смысл обозначать им построение любого из состовляющих компьютерной системы - будь то знаковая модель или материальная.

Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных филосовских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности... Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры. ...Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные филосовские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные филосовские вопросы”.

Понятие “знание” можно и должно считать одним из ключевых как с точки зрения теории искусственного интеллекта, так и гносеологии. Именно философия пытается дать полную картину, полное объяснение природы того или иного понятия. В этом смысле она несомненно должна идти на первом месте, т. к. любая наука должна базироваться на строгих принципах. В этом смысле философскому познанию отводится ключевая роль в разработке и исследованию концепции знания, как объекта для моделирования. Таким образом, знание в гносеологическом смысле является основой.

С введением термина “знание” появляется свойство “осознавать”, т. е. “понимать” свои интеллектуальные возможности. В свою очередь это означает не что иное, как рефлексию.


Рефлексия

как одна из составляющих интеллектуальной деятельности


Понятие рефлексии

Исследования в области искусственного интеллекта возникли под влиянием идей кибернетики - прежде всего идеи общности процессов управления и передачи информации в живых организмах, обществе и компьютерах. Примечательно, что снятие идеологических запретов на кибернетику в период “оттепели” повлекло за собой бурное развитие исследований по кибернетике, и та ее область, которая впоследствии была осознана как проблематика создания систем искусственного интеллекта, сформировалась особенно быстро.

Интересно отметить, что реабилитация кибернетики и, в частности, проблемы искусственного интеллекта (или как тогда говорили, создание “мыслящих маши”) отнюдь не была сопряжена с общим процессом деидеологизации науки. “Оправдание” кибернетики произошло стараниями нескольких крупных ученых, искренне доказывавшими материалистический характер кибернетического воззрения на мир. Вслед за учеными эту задачу взяли на себя профессиональные философы.

Философская приемлемость проблематики искусственного интеллекта в ее традиционном виде была обусловлена лежащим в ее основе представлением о том, что “порядок и связь идей те же, что порядок и связь вещей”. Тем самым создать в компьютере структуру, воспроизводящую “мир идей”, означало означало попросту создать структуру изоморфную структуре вещественного мира, т. е. построить “электронную модель мира”. Эта модель интерпретировалась как компьютерная модель человеческих знаний о мире. Процесс человеческого мышления интерпретировался в компьютере как машинный поиск таких трансформаций модели, которые должны были перевести компьютерную модель в некое финальное состояние (например, матовую позицию в шахматах).

Для этого система искусственного интеллекта нуждалась в знаниях о том, как осуществлять трансформации состояний модели, приводящие к заранее заданной цели - состоянию с определенными свойствами. В первое время было распространено убеждение в принципиальной способности компьютера к самостоятельному исследованию хранящейся в нем модели, т. е. к самообучению стратегии достижения поставленной цели.

Данная гипотетическая способность интерпретировалась как возможность машинного творчества, как основа создания будущих “мыслящих машин”. И, хотя в реально разрабатывавшихся системах достижение цели осуществлялось на основе человеческого опыта с помощью алгоритмов, основанных на теоретическом анализе создаваемых моделей и результатов проводимых на них экспериментов, идеи построения самообучаемых систем многим казались наиболее перспективными. Лишь к 80-му году была осознана значимость проблемы использования в интеллектуальных системах человеческих знаний о действительности, повлекшая серьезную разработку баз знаний и методов извлечения личных знаний экспертов.

С развитием изучения данного направления возникла идея рефлексивного управления. До этого момента в кибернетике управление рассматривалось как передача объекту сигналов, непосредственно воздействующих на его поведение, а эффективность управления достигалась с помощью обратной связи - получения информации о реакциях управляемого объекта. Рефлексивное же управление - есть передача информации, воздействующей на имеющийся у объекта образ мира. Тем самым обратная связь излишняя - состояние субъекта известно передающему информацию.

Интересными оказались компьютерные модели, в которых успех достигался за счет включения рефлексии о противодействующих намерениях партнеров.

Философская традиция называет рефлексией мысль о мысли, т. е. ситуацию, когда предметом мысли оказывается не вещь, а факт мышления. Св. Фома Аквинский определял рефлексию как “мысль, догоняющую мысль”.

Сам факт рефлексии означает, что деятельность человеческого сознания отнюдь не ограничивается созданием моделей, воспроизводящих (“отражающих”) внешнюю действительность. Рефлексия - мнение субъекта об имеющемся у него образе действительности, т. е. критический образ этого образа, подразумевающий оценку создаваемых в воображении моделей. Классическая парадигма искусственного интеллекта игнорирует данное обстоятельство и поэтому не интересуется рефлексией. Вероятно, что такое игнорирование связано с бытующим взглядом на рефлексию как на критическое сомнение, которое мешает последовательному проведению эффективных действий. Классическая парадигма искусственного интеллекта предполагала наличие жесткого целеполагания, т. е. ясной и не подлежащей сомнению цели, достижение которой означает решение проблемы независимо от используемых средств (если последнее обстоятельство не противоречит основным принципам построения самой интеллектуальной системы). В системе с развитой рефлексией цель также может оказаться предметом критической рефлексии. Человек, способный к глубокой рефлексии, не может быть абсолютно целеустремленным, ибо он способен усомниться в безоговорочной ценности поставленной перед ним цели.

Традиционные системы искусственного интеллекта основаны на идеологии целеориентированного поведения типа шахматной игры, где цель обоих партнеров состоит в том, чтобы поставить мат другому ценой любых жертв. Не случайно именно шахматные программы оказались столь важными для отработки методов искусственного интеллекта.


Неотъемлемость рефлексии

Ответом с технической точки зрения может служить следующее. Как и любая компьютерная программа, наделенная средствами самодиагностики и самоисправления (а такие средства уже становятся стандартном), т. е. средствами повышения надежности, системы искусственного интеллекта должны контролировать происходящие процессы - как внешние, так и внутренние. Однако, может показаться, что в этом смысле будет достаточным просто развитая структура обратных связей. Сразу надо оговориться, что под обратной связью следует понимать только ответную реакцию (или получение информации о ней) после какого-то конкретного действия системы. Обратная связь лишь предоставляет данные, информацию, но ни в коей мере не интерпретирует их. Норбертом Винером в книге “Кибернетика, или управление и связь в животном и машине” были приведены примеры нарушений нервной системы людей и их последствия. Так люди с нарушением системы ориентации собственных конечностей в пространстве (не чувствующие своих рук и ног, случай, когда конечности “немеют”) должны были визуально контролировать свои действия. Это было типичное нарушение обратной связи. Рефлексия же подразумевает анализ полученной картины. Математика - наука абстрактная. Любую предметную область, с которой работает математик, он описывает с помощью моделей, структура и сложность которых зависит от конкретных поставленных задач. Анализ функционирования собственной модели или модели “всей окружающей действительности” (в рамках поставленной задачи), контроль над ее состоянием, прогнозирование состояния - есть ни что иное, как реализация рефлексии. Рефлексия - есть некий метауровень. С применением языков высокого уровня, таких как язык Пролог, позволяющий формулировать цели и строить логические выводы достижимости этих целей, задача реализации рефлексии уже может быть частично решена. С их помощью можно построить некую метаструктуру, надстройку, некий метауровень, позволяющий оценивать поведение предыдущего. Однако, при рассмотрении термина “глубокая рефлексия” или “многоуровневая рефлексия” встает проблема построения моделей самой системой. Здесь на помощь могут приходят абстрактные типы данных. Они позволяют оперировать структурами данных любой конечной сложности. Таким образом можно считать, что системы искусственного интеллекта могут содержать модель рефлексии (математика оперирует только моделями).

Это может быть ответом на вопрос “Можно ли машину заставить понимать, что она понимает?”, но не на вопрос о обязательном включении рефлексии. Попробуем ответить от противного: а можно ли отвергнуть рефлексию, можно ли считать интеллектуальную систему полноценной без умения оценивать, “понимать” свои действия? Думаю, что нельзя. Более того, рефлексию следует считать одним из главных инструментов построения поведения систем. Как ни забавно это звучит, но говоря самоконтроля и самопонимания, можно говрить о некоторой этике поведения системы.


Математическо-технические

аспекты реализации систем искусственного интеллекта


С конца 40-х годов ученые все большего числа университетских и промышленных исследовательских лабораторий устремились к дерзкой цели: построение компьютеров, действующих таким образом, что по результатам работы их невозможно было бы отличить от человеческого разума.

Терпеливо продвигаясь вперед в своем нелегком труде, исследователи, работающие в области искусственного интеллекта (ИИ), обнаружили, что вступили в схватку с весьма запутанными проблемами, далеко выходящими за пределы традиционной информатики. Оказалось, что прежде всего необходимо понять механизмы процесса обучения, природу языка и чувственного восприятия. Выяснилось, что для создания машин, имитирующих работу человеческого мозга, требуется разобраться в том, как действуют миллиарды его взаимосвязанных нейронов. И тогда многие исследователи пришли к выводу, что пожалуй самая трудная проблема, стоящая перед современной наукой - познание процессов функционирования человеческого разума, а не просто имитация его работы. Что непосредственно затрагивало фундаментальные теоретические проблемы психологической науки. В самом деле, ученым трудно даже прийти к единой точке зрения относительно самого предмета их исследований - интеллекта. Здесь, как в притче о слепцах, пытавшихся описывать слона, пытается придерживаться своего заветного определения.

Некоторые считают, что интеллект - умение решать сложные задачи; другие рассматривают его как способность к обучению, обобщению и аналогиям; третьи - как возможность взаимодействия с внешним миром путем общения, восприятия и осознания воспринятого. Тем не менее многие исследователи ИИ склонны принять тест машинного интеллекта, предложенный в начале 50-х годов выдающимся английским математиком и специалистом по вычислительной технике Аланом Тьюрингом. Компьютер можно считать разумным,- утверждал Тьюринг,- если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком.

Обеспечение взаимодействия с ЭВМ на естественном языке (ЕЯ) является важнейшей задачей исследований по искусственному интеллекту (ИИ). Базы данных, пакеты прикладных программ и экспертные системы, основанные на ИИ, требуют оснащения их гибким интерфейсом для многочисленных пользователей, не желающих общаться с компьютером на искусственном языке. В то время как многие фундаментальные проблемы в области обработки ЕЯ (Natural Language Processing, NLP) еще не решены, прикладные системы могут оснащаться интерфейсом, понимающем ЕЯ при определенных ограничениях.

Существуют два вида и, следовательно, две концепции обработки естественного языка:

· для отдельных предложений;

· для ведения интерактивного диалога.

Природа обработки естественного языка

Обработка естественного языка - это формулирование и исследование компьютерно-эффективных механизмов для обеспечения коммуникации с ЭВМ на ЕЯ. Объектами исследований являются:

· собственно естественные языки;

· использование ЕЯ как в коммуникации между людьми, так и в коммуникации человека с ЭВМ.

Задача исследований - создание компьютерно-эффективных моделей коммуникации на ЕЯ. Именно такая постановка задачи отличает NLP от задач традиционной лингвистики и других дисциплин, изучающих ЕЯ, и позволяет отнести ее к области ИИ. Проблемой NLP занимаются две дисциплины: лингвистика и когнитивная психология.

Традиционно лингвисты занимались созданием формальных, общих, структурных моделей ЕЯ, и поэтому отдавали предпочтение тем из них, которые позволяли извлекать как можно больше языковых закономерностей и делать обобщения. Практически никакого внимания не уделялось вопросу о пригодности моделей с точки зрения компьютерной эффективности их применения. Таким образом, оказалось, что лингвистические модели, характеризуя собственно язык, не рассматривали механизмы его порождения и распознавания. Хорошим примером тому служит порождающая грамматика Хомского, которая оказалась абсолютно непригодной на практике в качестве основы для компьютерного распознавания ЕЯ.

Задачей же когнитивной психологии является моделирование не структуры языка, а его использования. Специалисты в этой области также не придавали большого значения вопросу о компьютерной эффективности.

Различаются общая и прикладная NLP. Задачей общей NLP является разработка моделей использования языка человеком, являющихся при этом компьютерно-эффективными. Основой для этого является общее понимание текстов, как это подразумевается в работах Чарняка, Шенка, Карбонелла и др. Несомненно, общая NLP требует огромных знаний о реальном мире, и большая часть работ сосредоточена на представлении таких знаний и их применении при распознавании поступающего сообщения на ЕЯ. На сегодняшний день ИИ еще не достиг того уровня развития, когда для решения подобных задач в большом объеме использовались бы знания о реальном мире, и существующие системы можно называть лишь экспериментальными, поскольку они работают с ограниченным количеством тщательно отобранных шаблонов на ЕЯ.

Прикладная NLP занимается обычно не моделированием, а непосредственно возможностью коммуникации человека с ЭВМ на ЕЯ. В этом случае не так важно, как введенная фраза будет понята с точки зрения знаний о реальном мире, а важно извлечение информации о том, чем и как ЭВМ может быть полезной пользователю (примером может служить интерфейс экспертных систем). Кроме понимания ЕЯ, в таких системах важно также и распознавание ошибок и их коррекция.


Основной проблемой NLP является языковая неоднозначность. Существуют разные виды неоднозначности:

· Синтаксическая (структурная) неоднозначность: во фразе Time flies like an arrow для ЭВМ неясно, идет ли речь о времени, которое летит, или о насекомых, т.е. является ли слово flies глаголом или существительным.

· Смысловая неоднозначность: во фразе The man went to the bank to get some money and jumped in слово bank может означать как банк , так и берег .

· Падежная неоднозначность: предлог in в предложениях He ran the mile in four minutes/He ran the mile in the Olympics обозначает либо время, либо место, т.е. представлены совершенно различные отношения.

· Референциальная неоднозначность: для системы, не обладающей знаниями о реальном мире, будет затруднительно определить, с каким словом - table или cake - соотносится местоимение it во фразе I took the cake from the table and ate it .

· Литерация (Literalness): в диалоге Can you open the door? - I feel cold ни просьба, ни ответ выражены нестандартным способом. В других обстоятельствах на вопрос может быть получен прямой ответ yes/no , но в данном случае в вопросе имплицитно выражена просьба открыть дверь.

Центральная проблема как для общей, так и для прикладной NLP - разрешение такого рода неоднозначностей - решается с помощью перевода внешнего представления на ЕЯ в некую внутреннюю структуру. Для общей NLP такое превращение требует набора знаний о реальном мире. Так, для анализа фразы Jack took the bread from the supermarket shelf, paid for it, and left и для корректного ответа на такие вопросы, как What did Jack pay for? , What did Jack leave? и Did Jack have the bread with him when he left ? необходимы знания о супермаркетах, процессах покупки и продажи и некоторые другие.

Прикладные системы NLP имеют преимущество перед общими, т.к. работают в узких предметных областях. К примеру, системе, используемой продавцами в магазинах по продаже компьютеров, не нужно ”раздумывать” над неоднозначностью слова terminals в âîïðîñå How many terminals are there in the order ? .

Тем не менее, создание систем, имеющих возможность общения на ЕЯ в широких областях, возможно, хотя пока результаты далеки от удовлетворительных.


Распознавание речи

По мере развития компьютерных систем становится все более очевидным, что использование этих систем намного расширится, если станет возможным использование человеческой речи при работе непосредственно с компьютером, и в частности станет возможным управление машиной обычным голосом в реальном времени, а также ввод и вывод информации в виде обычной человеческой речи.

Существующие технологии распознавания речи не имеют пока достаточных возможностей для их широкого использования, но на данном этапе исследований проводится интенсивный поиск возможностей употребления коротких многозначных слов (процедур) для облегчения понимания. Распознавание речи в настоящее время нашло реальное применение в жизни, пожалуй, только в тех случаях, когда используемый словарь сокращен до 10 знаков, например при обработке номеров кредитных карт и прочих кодов доступа в базирующихся на компьютерах системах, обрабатывающих передаваемые по телефону данные. Так что насущная задача - распознавание по крайней мере 20 тысяч слов естественного языка - остается пока недостижимой. Эти возможности пока недоступны для широкого коммерческого использования. Однако ряд компаний своими силами пытается использовать уже существующие в данной области науки знания.

Для успешного распознавания речи следует решить следующие задачи:

1) обработку словаря (фонемный состав),

2) обработку синтаксиса,

3) сокращение речи (включая возможное использование жестких сценариев),

4) выбор диктора (включая возраст, пол, родной язык и диалект), тренировку дикторов,

5) выбор особенного вида микрофона (принимая во внимание направленность и местоположение микрофона),

6) условия работы системы и получения результата с указанием ошибок.

Существующие сегодня системы распознавания речи основываются на сборе всей доступной (порой даже избыточной) информации, необходимой для распознавания слов. Исследователи считают, что таким образом задача распознавания образца речи, основанная на качестве сигнала, подверженного изменениям, будет достаточной для распознавани, но тем не менее в настоящее время даже при распознавании небольших сообщений нормальной речи, пока невозможно после получения разнообразных реальных сигналов осуществить прямую трансформацию в лингвистические символы, что является желаемым результатом.


Практическая реализация


Разработки в области искусственного интеллекта ведутся и в Новосибирском Государственном Техническом Университете. На факультете Прикладной Математики и Информатики (ФПМиИ) элементы теории искусственного интеллекта входят в базовую программу подготовки специалистов. Одним из ведущих специалистов в данной области является профессор Хабаров В.И., зав. кафедрой Программных Систем и Баз Данных (ПСиБД). Одно из направлений его исследований связано с внедрением семантических и нейронных сетей в системы управления и анализа данных, систем накопления и представления знаний. В качестве примера можно назвать разработку CASE-технологии, базированной на ультрасетях.

Тенденции развития современных информационных технологий приводят к постоянному возрастанию сложности информационных систем (ИС), создаваемых в различных областях экономики. Современные крупные проекты ИС характеризуются, как правило, следующими особенностями:

· сложность описания (достаточно большое количество функций, процессов, элементов данных и сложные взаимосвязи между ними), требующая тщательного моделирования и анализа данных и процессов;

· наличие совокупности тесно взаимодействующих компонентов (подсистем), имеющих свои локальные задачи и цели функционирования (например, традиционных приложений, связанных с обработкой транзакций и решением регламентных задач, и приложений аналитической обработки (поддержки принятия решений), использующих нерегламентированные запросы к данным большого объема);

· отсутствие прямых аналогов, ограничивающее возможность использования каких-либо типовых проектных решений и прикладных систем;

· необходимость интеграции существующих и вновь разрабатываемых приложений;

· функционирование в неоднородной среде на нескольких аппаратных платформах;

· разобщенность и разнородность отдельных групп разработчиков по уровню квалификации и сложившимся традициям использования тех или иных инструментальных средств;

· существенная временная протяженность проекта, обусловленная, с одной стороны, ограниченными возможностями коллектива разработчиков, и, с другой стороны, масштабами организации-заказчика и различной степенью готовности отдельных ее подразделений к внедрению ИС.


Несмотря на высокие потенциальные возможности CASE-технологии (увеличение производительности труда, улучшение качества программных продуктов, поддержка унифицированного и согласованного стиля работы) далеко не все разработчики информационных систем, использующие CASE-средства, достигают подобных результатов. Применение семантических сетей для проектирования данного вида систем является по своей сути шагом в абсолютно новом направлении, что позволяет проектировать и внедрять интеллектуальные обучаемые системы для поддержки принятия решений.

Семантические сети

Семантическая сеть - структура для представления знаний в виде узлов, соединенных дугами. Самые первые семантические сети были разработаны в качестве языка-посредника для систем машинного перевода, а многие современные версии до сих пор сходны по своим характеристикам с естественным языком. Однако последние версии семантических сетей стали более мощными и гибкими и составляют конкуренцию фреймовым системам, логическому программированию и другим языкам представления.

Начиная с конца 50-ых годов были создано и применены на практике десятки вариантов семантических сетей. Несмотря на то, что терминология и их структура различаются, существуют сходства, присущие практически всем семантическим сетям:

1) узлы семантических сетей представляют собой концепты предметов, событий, состояний;

2) различные узлы одного концепта относятся к различным значениям, если они не помечено, что они относятся к одному концепту;

3) дуги семантических сетей создают отношения между узлами-концептами (пометки над дугами указывают на тип отношения);

4) некоторые отношения между концептами представляют собой лингвистические падежи, такие как агент, объект, реципиент и инструмент (другие означают временные, пространственные, логические отношения и отношения между отдельными предложениями;

5) концепты организованы по уровням в соответствии со степенью обобщенности так как, например, сущность, живое существо, животное, плотоядное.

Однако существуют и различия: понятие значения с точки зрения философии; методы представления кванторов общности и существования и логических операторов; способы манипулирования сетями и правила вывода, терминология. Все это варьируется от автора к автору. Несмотря не некоторые различия, сети удобны для чтения и обработки компьютером, а также достаточно мощны, чтобы представить семантику естественного языка.


Искусственный интеллект

и теоретические проблемы психологии


Можно выделить две основные линии работ по ИИ. Первая связана с совершенствованием самих машин, с повышением "интеллектуальности" искусственных систем. Вторая связана с задачей оптимизации совместной работы "искусственного интеллекта" и собственно интеллектуальных возможностей человека.

Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта.

1. "Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний" - эта позиция характерна для многих зарубежных специалистов по ИИ.

2. Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно подчерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.

3. Третья позиция характеризуется оценкой исследования в области искусственного интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических знаний в плане психологического обеспечения работ по ИИ.

Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.

В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение "машинного" и "немашинного" есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия - в психологическом смысле "операция" отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).

В работах по искусственному интеллекту постоянно используется термин "цель". Анализ отношения средств к цели А.Ньюэлл и Г.Саймон называют в качестве одной из "эвристик". В психологической теории деятельности "цель" является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах "целью" называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений или перцептивного образа. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.

Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, "целей", но и оценочными функциями. И у искусственных систем есть своего рода "ценностные ориентации". Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.

Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.


Несколько слов о сознании


Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.


Что такое сознание?

Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?

Обычно слово сознание применяется, как характеристика отдельного существа. Оно может "потерять сознание". А слово разум означает принципиальную способность быть сознательным. Например, "человек разумный". Однако, есть и другие толкования.

Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.

Раз уж нельзя это точно доказать, то нужно субъективно судить о наличии сознания у некоторого объекта по его поведению. При этом можно принять какое-то поведение за сознательное, а впоследствии выяснить, что это была ошибка. Но более надёжного способа нет, и не стоит терять время на его установление, если только это не окажется критичным для ответа на поставленные вопросы.

Сущность субъекта субъективна. Человек относится к себе слишком предвзято. И хотя почти любой человек может сделать полезные выводы о природе сознания на основании поведения людей, скорее всего, эти аргументы не убедительны для других людей. Поэтому стоит рассмотреть сознание других животных.


Сознание и выживание

Поведение животного управляется его нервной системой. Обычно, чем больше мозг животного, тем разумнее поведение этого животного. Нервная система, как и другие органы и системы организма, изобретена природой как одно из средств, обеспечивающих выживание вида. Развитие нервной системы и увеличение централизованного мозга произошло тоже в результате эволюционной борьбы за выживание. Но есть такие формы жизни, которые выживают и без нервной системы, например, растения.

Растения не живут, а выживают. Сравним индивидуальное поведение растения и животного. Что, собственно, в их поведении способствует выживанию

вида? Само слово поведение плохо подходит к растению. Растения проживают свой век без заметного проявления индивидуальных свойств. Выживаемость одного растения заключается в том, что оно способно вынести неблагоприятные условия, которые могут наступить в какой-то период жизни растения. Приспособляемость вида растений к изменяющимся условиям обеспечивается тем, что растения, которые плохо приспособлены к данным условиям, не выживают и не передают свои неудачные признаки потомству.

Животные способны улучшить свою жизнь. Они совершенно иначе относятся к неблагоприятным условиям животные, например, кошки и мышки. Они активно пытаются найти выход из положения. Собственно, это и можно назвать поведением. Поведение - это достаточно быстрая реакция в ответ на изменяющиеся внешние условия. Если плохие условия сохраняются долго, то кошка пытается приспособиться к ним. Она ищет правильное поведение в новой для неё обстановке. Но если все попытки улучшить ситуацию оказываются безнадёжными, то кошке, как и растению, остаётся только надеяться и терпеть.

Сложное поведение животных является проявлением условных и врожденных рефлексов. Это справедливо как для простых животных, вроде улитки, так и для наиболее смышлёных, вроде собаки. В отличие от растений, животные, имеющие нервную систему, способны приобретать условные, генетически не запрограммированные рефлексы, то есть обучаться.

Животные могут найти новое выгодное (то есть разумное?) поведение. В некоторых случаях поведение, основанное на приобретённых рефлексах, настолько "разумно", что некоторые, например я, считают его разумным без кавычек. Является ли это поведение проявлением "настоящего" разума или лишь изощрённой адаптацией живого организма к меняющемуся миру, не известно, так как мы можем судить о разуме только по поведению, и не имеем конструктивного "индикатора наличия разума". А чем, если не адаптацией к миру вплоть до изменения мира по своим потребностям, является поведение человека?

Итак, условившись судить о разуме по поведению, можно выделить два важных факта.


Есть ли разум?

Суждение о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.

Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а "возникает" при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь "нулевую" или "исчезающе малую" разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных. Явно разумность заключается не в том, что существо питается и размножается, потому что подобные признаки есть и у растений, которые, судя по отсутствию поведения, разумом не обладают.

Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, тоже не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. "Цель" и "решение" сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения "более наблюдаемы", но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.

Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта.


Чем же отличается сознание от самообучения?

Сознание - это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться.

Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления "творческого мотора". Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) - и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.

Вместо слова "самообучение" иногда используют более широкое понятие "адаптация". Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к

адаптации (к самообучению). Изобретение нового поведения - признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество - один из атрибутов сознания.


Человек вооружен

Человек, снабженный современными техническими средствами (книгами, автомобилями, оружием), способен выжить в более широком диапазоне внешних условий. Он лучше адаптирован к миру, чем человек, как живое существо. В

соответствии с таким определением, можно считать, что сознание цивилизованного человека продолжает развиваться, хотя сознание "биологического" человека, может быть, имеет пределы, которые уже достигнуты, судя по тому, что нам приходится интенсивно учиться всю жизнь и наша разумность пропорциональна способности к адаптации.

Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно

научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.


Осознавание себя

"Начальное" сознание не гарантирует осознавания. Осознавание - это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.

Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания "внешнего" мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.

Осознавание ощущений обеспечивает тот же внутренний механизм сознания - мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.

Сознание - это процесс, и это стоит еще раз подчеркнуть! (Сразу приходит в голову то, что ЭВМ - это тоже постоянный процесс: стоит ее выключить и она становится просто мебелью, вроде тумбочки, или частью интерьера, “теряет сознание”. Когда же она включена, то постоянно находится в состоянии “самосознания”, непрерывно контролируя все внутренние и все доступные ей внешние процессы.) Можно полностью сохранить информацию, и остановить процесс её обработки. При этом сознание исчезнет.

Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга - это его взаимодействие с другими органами. Поведение руки - это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное "не улучшаемое" поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.

Сознание - это не материальный предмет.

Вопрос "где находится сознание" не имеет смысла. Необходимую обработку информации может выполнять локальный нервный узел, мозг или удалённый процессор, но сознание не находится внутри этих органов. Например, мы видим бабочку на экране компьютера. Обработка её ощущений (вернее - модели ощущений) происходит внутри системного блока, а материального тела у неё вообще нет. Отсюда следует, что нельзя присваивать функцию сознания мозгу, так как мозг является только одним из органов, поддерживающих наблюдаемое сознательное поведение живого существа. Осознавание необходимо только там, где невозможна автоматизация.

Живой мозг, как информационная машина, постоянно взаимодействует с объектным миром. Только малую часть своих способностей он выделяет для осознаваемого творчества. А сам механизм сознания - это неостановимый процесс, который работает, даже когда мы спим и ничего не осознаём. Осознание себя - это только один из многочисленных процессов, происходящих в сознании при управлении телом и его поведением в окружающем мире. Это процесс творческого (то есть, неавтоматического) восприятия внешнего мира. Восприятие мира нельзя полностью автоматизировать, так как разумное живое существо должно быть готово к неожиданному непредсказуемому изменению в окружающем мире. Требуется сохранять внимание и иметь "резерв разумности" (осознавание и способность к умозаключениям), чтобы адекватно изменить поведение.

Большая часть процессов сознания - это управление органами тела, доведённое до автоматизма, и поэтому оно не осознаваемо. Можно сделать допущение, что в то время, когда мозг и другие органы ещё не родившегося ребёнка развивались и приучались взаимодействовать друг с другом, этот творческий процесс самообучения был осознаваем. А материнский организм помогал обучению, страхуя плод от слишком богатого творчества.

Осознание себя индивидуальностью - не основа сознания, а ощущаемая, наиболее творческая сторона его работы, которая не может превратиться в автоматическое легко узнаваемое поведение. Поэтому сознание другого субъекта непосредственно не наблюдаемо. А вот собственное сознание наблюдаемо. Хотя автоматические процессы и составляют основную работу механизма сознания, но они являются подсознательными и не отвлекают нашего внимания от творческой работы сознания, какой бы малой она ни была.

Критерий понимания – это работающий самообучающийся алгоритм. Разработав алгоритм (технологию) самообучения или универсальной адаптации и снабдив этим алгоритмом искусственное существо, мы обеспечиваем его средством для развития сознания и осознавания себя.


Разумны только люди?

Пусть создана искусственная жизнь. Попробуем проверить разумность какого-нибудь искусственного существа. Если оно развивалось в окружении себе подобных, а не людей, то у него совсем другой мир интересов. Оно будет похоже для нас не на мыслителя или хитреца из теста Тьюринга, а на животное, машину или программу.

Постоянный динамический контакт с объектным миром является обязательным

условием как жизни, так и разума. А полноценная разумная жизнь возможна только в какой-нибудь культурной среде. Например, среди людей. Для того чтобы мы могли признать существо разумным, оно должно приспособиться к человеческой культуре. Если попугай сможет пройти тест Тьюринга, то никто не станет сомневаться в том, что он обладает сознанием. Но если такой же или ещё более разумный попугай никогда не встречал людей, то он не может пройти тест Тьюринга. Потому что это тест на наличие человеческого сознания.


Заключение


Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов во многом объясняется именно ее тесной связью с этой "вечной" проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют два основных диаметрально противоположных направления: материализм и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что "...тот вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, как бы ни казалось оно сверхчувствительным, являются продуктом вещественного, телесного органа.

Можно пытаться объяснить, что так как кибернетика позволяет моделировать некоторые функции мозга, то сознание или разум имеет чисто материальную основу. Однако данная область может считаться слабо изученной, несмотря на труд не одного поколения ученых, и делать подобные выводы еще более чем рано. Данное утверждение не есть поддержка сторонников идеализма, оно лишь является мнением человека, немного занимающегося математикой.

До сих пор диалектико-материалистиеское понимание мышления опиралось главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.

Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание - это цепочка. Знание в области искусственного интеллекта - тоже есть цепочка, причем бесконечная.

Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.


Словарь терминов


Ниже приводятся наиболее часто употребляемые понятия в терминологии проектирования систем искусственного интеллекта.


База знаний (Knowledge Base):

Совокупность программных средств, обеспечивающих поиск, хранение, преобразование и запись в памяти компьютера сложно структурированных информационных единиц (знаний).


Вывод (Inference):

Получение новых информационных единиц из ранее известных. Частным случаем вывода является логический вывод.


Знания (Knowledge):

Совокупность сведений, образующих целостное описание, соответствующее некоторому уровню осведомленности об описываемом предмете, событии, проблеме и т.д.


ИИ-программирование (AI-programming):

Разработка инструментального программного обеспечения для решения задач искусственного интеллекта. В ИИ-программировании создаются языки программирования, ориентированные на особенности задач искусственного интеллекта, языки представления и обработки знаний, экспертные оболочки и другие инструментальные средства.


Искусственный интеллект (Artificial Intelligence, AI):

Научное направление, в рамках которого ставятся и решаются задачи аппаратного или программного моделирования тех видов человеческой деятельности, которые традиционно считаются интеллектуальными (представление знаний, обучение, общение и т.п.).


Нейронная сеть (Neural Network, NN):

Сеть, состоящая из множества простых процессоров (нейронов, узлов), каждый из которых, возможно, имеет локальную память. Нейроны связаны однонаправленными коммуникационными каналами (связями), по которым передается численные (в противоположность символьным) данные. Узлы манипулируют только своими локальными данными и входными данными, которые они получают по связям.


Представление

Действие, делающее некоторое понятие воспринимаемым посредством фигуры, записи, языка или формализма.


Представление знаний

Формализация истинных убеждений посредством фигур, записей или языков.


Использованная литература


1. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.

2. Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.

3. Анисов А.М. ЭВМ и понимание матемматических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.

4. Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.

5. Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.

6. Винер Н. Киберентика или управление и связь в животном и машине. Второе издание: М., Наука 1983.

7. Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.

8. Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.

9. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.

10. Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.

11. Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.

12. Тьюринг А. Может ли машина мыслить?: М., Наука 1960.

13. Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопосы философии”: журнал 1995 №7, с. 163-167.

14. Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопосы философии”: журнал 1990 №7, с. 32-41.

15. Корниенко Е. Механизмы сознания: www.glasnet.ru 1998 (электронная публикация)


Репетиторство

Нужна помощь по изучению какой-либы темы?

Наши специалисты проконсультируют или окажут репетиторские услуги по интересующей вас тематике.
Отправь заявку с указанием темы прямо сейчас, чтобы узнать о возможности получения консультации.

Введение

Современные философы и исследователи науки часто рассматривают междисциплинарные науки как одно из выдающихся достижений заново открытых в 20 веке. Искусственный интеллект и искусственная жизнь представляют прекрасный пример такой интеграции многих научных областей. Конечно, междисциплинарность тоже имеет свою цену. Химики, биологи, специалисты в области вычислительных наук и многие другие изучают различные аспекты живых систем, пользуясь при этом сходными методами. Основными методами изучения искусственной жизни являются: синтез искусственных систем с аналогичным живым системам поведением, изучение динамики развития процесса, а не конечного результата, конструирование систем демонстрирующих феномен созидания. То что объединяет исследователей в области искусственной жизни (ИЖ) – это методы, в отличие от их целей. Конечно, существует общий интерес к жизни как к феномену для изучения. К сожалению, жизнь слишком сложна, чтобы можно было наметить общие направления в исследованиях. Доказательствам последнего утверждения может служить тот факт, что некоторые заинтересованы в исследовании «систем, демонстрирующих феномены живых систем«, другие изучают природу химического репродуцирования или пытаются решить философские проблемы самосознания. В то же время совершенно другой вид исследователей, относящихся к области роботики, пытаются создавать физические системы, демонстрирующие некоторое поведенческое сходство с животными.

По современным научным данным человеческий мозг содержит около 2 40 основных «вычислительных» узлов нейронов, которых соединяют около 2 50 связей синапсов. Современные вычислительные системы стремительно приближаются по своим вычислительным возможностям к мозгу. Искусственные нейронные сети контролируют сложнейшие системы управления и слежения, проявляют способности в области распознавания изображения вплоть до возможности создания интеллектуальных автопилотов. Уже активно занимается искусственными системами область, считавшаяся прерогативой человека – компьютеры стали лучше людей играть в шахматы. В таких условиях приобретает особую значимость рассмотрение основных философских вопросов, связанных с искусственным интеллектом и искусственной жизнью. При этом, очевидно, возможно взаимовлияние искусственного интеллекта и искусственной жизни на философские проблемы мышления и жизни вообще. Современные западные философы широко рассматривают данные проблемы. При этом на первое место выходит обсуждение мышления и самосознания. При этом достаточно часто высказывается мнение о неприемлемости классического картезианского дуализма для рассмотрения вопросов, связанных с искусственной жизнью.

В качестве основы данной работы рассматривались труды довольно известного современного философа, ученика Мартина Хайдеггера, Майкла Веллера определяющего в своих работах взаимосвязь современных проблем искусственной жизни и искусственного интеллекта с картезианским и неоаритотелевым подходами рассмотрения мышления и жизни как таковой.

1 Два вида науки о мышлении

Искусственная жизнь, замечательная и быстро развивающаяся область научного знания, которая может совершить переворот в науке о мышлении. С другой стороны, еще весьма большой объем теоретических исследований требуется, чтобы приблизиться к систематическому пониманию концептуальных рамок, в которых может развиваться наука о мышлении на базе искусственной жизни. Такое понимание необходимо не только в академических исследованиях в области философии науки. Оно поможет сформировать вопросы, требующие дальнейшего рассмотрения и объяснить результаты эмпирических исследований. Далее приводится попытка систематического рассмотрения данной проблемы. Целью является разделить и провести сравнение двух видов науки о мышлении (ортодоксальной и биологически-ориентированной), и показать, как эти два отдельных стиля мышления в области научного познания являются потомками двух радикально различающихся взглядов на место разума в природе (картезианский и аристотелев взгляды). Главной идеей будет то, что искусственная жизнь потенциально может стать интеллектуальным двигателем биологически ориентированной науки о мышлении, действующей в рамках общих аристотелеевых концепций.

Жизнь в науке о мышлении рассматривается как простое явление. Бесспорно, что искусственный интеллект был теоретическим ядром в данной области, в том смысле, что эти концепции, разработанные для искусственного интеллекта или обычно применяемые в этой области (такие концепции как алгоритм, эвристика и обработка информации) обеспечивают науку о мышлении терминологическим базисом. Однако появление в рассмотрении также искусственной жизни придало данной области познания большую законченность.

На практике под крышей термина искусственная жизнь гнездится грандиозное разнообразие различных проектов от моделей копирования ДНК и систем с обратной связью датчик-двигатель до изучения коллективного разума и динамики роста населения. Такое разнообразие приводит к трудности компактного определения для данной области знания. Однако, в контексте данной работы, будет правильным использовать определение искусственной жизни как попытки познания живых систем (включая, в предельном случае, феномен который можно сгруппировать вместе под такими понятиями как разум, мышление и познание) посредством анализа и/или синтеза артефактов (компьютерных моделей, искусственных миров и роботов). В то же время при адоптации строго ограниченного точного определения искусственного интеллекта (т.е. фундаментально логически обоснованного или основанного исключительно на разуме человеческого уровня) возникает разрыв между искусственной жизнью и искусственным интеллектом для определенных видов исследований в области искусственной жизни (например, разработки роботов с интеллектом животного уровня), хотя они и относятся к некоторому, пусть и нестандартному, типу искусственного интеллекта. Для точности формулировок терминов в дальнейшем рассмотрении проведем различие между искусственной жизнью (которая всегда включает определенные формы искусственного интеллекта) и искусственным интеллектом, который не является в то же время искусственной жизнью. В дальнейшем будем называть второй вариант исследований искусственным интеллектом в ортодоксальной форме (orthodox AI или OAI).

OAI может быть определен путем его отношения к идее, что здоровая наука о разуме может, по большей части, игнорировать биологические размышления, которые тяготеют к входу в общую картину в качестве только «деталей конкретного воплощения» либо «случайные исторические частности», и в целом не обеспечивает и не содержит концепций и принципов обычно используемых для построения научного объяснения разума. Данная тенденция к биологической нейтральности выражается в наборе различных измерений таких как (а) вынесение из области рассмотрения либо предельно упрощенный взгляд на то, что происходит в нервной биологической системе и (в более общем случае) в биологическом теле, (б) пренебрежение скованностью налагаемой на биологический разум необходимостью действовать в реальном времени в часто враждебной, непредсказуемой и не прощающей ошибок обстановке и (в) закрытие глаз на тот факт, что поведение животных зачастую высоко специфично в рамках их экологической ниши.

OAI, охарактеризованное выше, будет использовано в качестве интеллектуального ядра, для того, что будем в дальнейшем называть ортодоксальной наукой о мышлении (orthodox cognitive science OCS). Согласно означенному соотношению, можно ожидать от OCS демонстрации такого же отношения биологической нейтральности, как и у OAI, только в данном случае по отношению к научному объяснению мышления и познания. И это будет именно то, что мы искали. В ортодоксальной истории науки о мышлении, для того чтобы объяснить вид познания демонстрируемого биологическим мыслителем возможно по большей части игнорировать факты биологии биологического мыслителя. (Исключение из этого правила – определение нормальной функции посредством дарвиновского естественного отбора будет рассмотрено далее).

Большинство, хотя и далеко не все, работы в области искусственного интеллекта и науки о мышлении являются ортодоксальными (т.е. как было определено выше, биологически нейтральными). Это включает в себя подавляющее большинство, хотя и далеко не все модели, разработанные под флагом коннективизма. (Удручающее общее утверждение, что коннективисткие сети, в общем, являются «биологически реалистичными психологическими моделями» по-видимому, фиктивно. Далее этому будет дано объяснение.) Теперь рассмотрим радикально отличающийся вид исследований: реально биологическая наука о мышлении. Под этим термином подразумевается наука о мышлении, которая следует тому, что Годфри-Смит называл строгой непрерывностью, утверждение о том что «жизнь и разум имеют общую абстрактную структуру или набор базовых организационных свойств… Разум буквально подобен жизни.» Согласно этому утверждению, направляющим принципом биологической науки о мышлении будет то, что мышление может быть объяснено с использованием тех же фундаментальных концепций и принципов, что и описание других биологических феноменов. Биологическая наука о мышлении буквально является наукой о жизни.

Отметим четыре положения, касающихся строгой непрерывности:

1. Строгая непрерывность влечет за собой, – но не проистекает из – более слабых форм непрерывности, согласно которой для того, чтобы некоторая сущность имела разум она должна быть живой, хотя для того чтобы быть живой наличие разума не является необходимым. Данная форма непрерывности сама по себе недостаточна для действительно биологической науки о мышлении, так как она не дает гарантии, что кто-либо должен обращаться к принципам построения живого объекта для того, чтобы понять процесс мышления.

2. Из строгой непрерывности не следует, что жизнь и мышление есть одно и то же. Они находятся в непрерывной последовательности, но не эквивалентны.

3. В контексте биологической науки о мышлении, строгая непрерывность предполагает методологию изучения «снизу-вверх». Сначала исследователь проводит поиск удовлетворительного объяснения некоторого простого не мыслящего проявления жизни (Для основания подходящей теоретической концепции). Затем производится его противопоставление более сложной мыслящей сущности.

4. Строгая непрерывность, в первую очередь, беспокоит тех, кто жаждал действительно обобщенной науки о мышлении. Конечно, может оказаться, что сходный набор структурных свойств выражен не только в жизни и разуме натуральных земных природных существ, но и в их неземных копиях (если данных феномен существует), а также во всех формах искусственной жизни и искусственной ментальности, которая возможно способна существовать (если кто-либо считает, что артефакты могут буквально быть живыми и иметь разум). Если повернуть рассмотрение в эту сторону, то идея о обобщенной науке о мышлении будет спасена. Однако, ничто в идее строгой непрерывности не гарантирует такой результат.

Очевидно, что положение о том, что биологическая наука о мышлении может быть построена вокруг OAI выходит за рамки разумного сомнения. Но как же теперь поступать с искусственной жизнью? Ранее предполагалось, что искусственная жизнь может быть охарактеризована как попытка использования искусственной среды для исследования феномена жизни. Это продвигает нас в правильном направлении. Уже был отмечен тот факт, что объяснение интеллекта, разума и мышления стоит на повестке дна в области изучения искусственной жизни. Это показывает, что канонический взгляд с точки зрения изучения искусственной жизни предполагает рассмотрение данных феноменов как исключительно связанных с (и являющихся подмножеством) живых систем, которые заключают в себе, в целом, то, что делают живые системы, согласно слабой форме непрерывности, определенной ранее. Конечно, данное принятие слабой формы непрерывности не обязывает рассматривающих искусственную жизнь принимать ведущий принцип биологической науки о мышлении, тезис о строгой непрерывности. Тем не менее, хотя строгая непрерывность не является строго обязательной в характере искусственной жизни, исследователи, работающие в области искусственной жизни и смежных областях, часто покупаются на эту идею. Например, выдвигается аргумент, что модели искусственной жизни обеспечат объяснение неожиданных проявлений составляющих основу жизни и разума. Также предполагается, что подрыв обычного иммунологического распознавания свой-чужой будет иметь последствия в области таких высокоуровневых явлений как самосознание и индивидуализм. Решающим фактом является то, что характер искусственной жизни не только допускает строгую непрерывность, но и активно поощряет ее. Несмотря на этот факт, искусственная жизнь является действительным OAI.

На данной стадии возникает необходимость прояснить взаимоотношения, существующие между искусственной жизнью и биологической наукой о мышлении. Объяснение живых систем, предлагаемое в рамках искусственной жизни обычно формулируется в рамках теоретического словаря, поддерживающего набор различных научных концепций (таких как самоорганизация, автономия, реакция на внешние проявления и т.п.). Если бы подобные концепции обеспечивались биологической наукой о мышлении с ее теоретическим словарем, тогда искусственная жизнь смогла бы стать таким же интеллектуальным базисом для науки о мышлении, каким ортодоксальный искусственный интеллект является для ортодоксальной науки о мышлении.

2 Картезианская теория

Будет очень полезно на некоторое время сконцентрироваться на одном специфическом спорном вопросе, по которому расходятся ортодоксальная и биологическая наука о мышлении, а именно выражение соотношения которое существует между нейробиологическими/биохимическими свойствами живых организмов с одной стороны и мышлением с другой стороны. (В результате данный спорный вопрос создает первое направление биологической нейтральности в ортодоксальной науке о мышлении, как было определено в предыдущей главе). Различие в этом вопросе может быть объяснено тем фактом, что два вида науки о мышлении сформированы в радикально различающихся философских концепциях. В целом биологическая наука о мышлении наиболее органично ложится в рамки общей аристотелевой концепции, в то же время у ортодоксальной науки о мышлении наблюдаются картезианские корни.

Важно то, что Декарт мыслил органическое тело мыслителя как еще один физический объект в физическом мире. Учитывая дуализм обоснования, данная идея приводила его к тому, что нейробиологическое/биохимическое обоснование событий в теле мыслителя неуместно в психологическом обосновании событий в разуме мыслителя, в том смысле, что психологическое обоснование может быть проведено в отсутствии любого, сколько бы то ни было детализированного нейробиологического/биохимического знания о теле мыслящего объекта. Данное обосновательное отделение разума от физического носителя приводил в результате к прерывистости в обосновании в данном контексте между жизнью и разумом. Научное обоснование процессов, которые рассматривались картезианством как органические, относящиеся к телесной жизни (такие процессы как пищеварение, размножение и рост) немедленно попадало в область биологических объяснений, которая толковалась как принижаемая физической наук. Научное обоснование физических процессов, с другой стороны, нуждается в изложении на языке, совершенно отличающемся от биологического языка, в языке специфическом для психологии. Это равнозначно отклонению положений строгой непрерывности. Другими словами, дуализм обоснования несовместим с биологической наукой о мышлении.

В настоящее время функционалисты в философии разума придерживаются взглядов, что определяющее свойство типа ментального состояния является причинная роль того, что состояние играет в посредничестве между (1) сенсорными входами, (2) другими типами ментальных состояний и (3) моторикой поведения. Строго говоря, функционализм не проводит связей к природе основы, на которой реализованы ментальные состояния, так как сущность в некотором частном ментальном состоянии уже является, как уже говорилось, сущностью в некотором специфическом функциональном состоянии, и совершенно эквивалентные функциональные состояния могут быть, в принципе, реализованы биохимически на углеродной основе, в виде кремниевого мозга или в виде картезианского разума самого по себе. Здесь, в принципе, функционализм входит составной частью в дуализм субстанций. Данный принципиальный факт может показаться незначительным, если считать, что функционализм обычно является рабочей лошадкой теории распознавания, согласно которой любая сущность данного типа ментального состояния является единственной и сходна с некоторым физическим состоянием в физической системе. Но, дополнение к требованиям распознавания не рассматривает нейробиологические и биохимические детали тела биологического мыслящего объекта относящегося к процессу психологического обоснования. Согласно функционалистам, процесс психологического обоснования может проводиться в превосходной изоляции от этих частных деталей. Подобная позиция уже рассматривалась ранее: функционализм является формой картезианского дуализма обоснования.

Так как же база дуализма обоснования в функционализме уместна в понимании ортодоксальной науке о мышлении? Ответом является, что ортодоксальная наука о мышлении построена на функционализме. В самом деле, вычислительные состояния (тип состояний к которым прибегают ортодоксальный искусственный интеллект и ортодоксальная наука о мышлении) прекрасные примеры функционально определенных состояний. При этом нет никакого противоречия в том, что одно из классических положений функционализма было выражено в теории путем использования машины Тьюринга. Как только принимается функционалисткие основы ортодоксальной науки о мышлении и вместе с ней общее картезианское рассмотрение отношений между живым телом и разумом которые порождаются данными основами, можно увидеть почему ортодоксальная наука о мышлении связана с идеей, что может быть описано без понимания или существенных ссылок на нейробиологический или биохимический базис данного процесса мышления. Другими словами, можно видеть почему ортодоксальная наука о мышлении принимает положения совершенно неприемлемые биологической наукой о мышлении.

3 Следом за картезианством

Теперь самое время затронуть биологическую науку о мышлении, чтобы увидеть, что может быть принято в рассмотрение из области пост-картезианства. Исследования в области коннективистских (или искусственных нейронных) сетей являются подходящей для этого областью, так как подобные исследования относятся как к ортодоксальному искусственному интеллекту так и к искусственной жизни.

Вообще говоря, коннективисты могут быть охарактеризованы как микрофункционалисты. Это подтверждается тем, что стандартные архитектурные предположения, сделанные в ортодоксальном (т.е. в стиле ортодоксальной науки о мышлении) коннективизме следуют функционалисткому положению об уделении минимального теоретического внимания биологическому базису мышления. Пока справедливо, что архитектура ортодоксальных коннективистких сетей походит на абстрактную структуру биологической нервной системы существует значительное поле для разногласий. Например: (1) в коннективистких сетях зачастую накладываются некоторые ограничения на возможные соединения (сети без обратных связей или симметричные сети), что, вообще говоря, не соответствует реальным нервным системам; (2) биологические системы изначально зашумлены; (3) весьма редко существует сколько-нибудь реальное соответствие между коннективистким элементом и биологическим нейроном (последний представляет собой гораздо более сложный объект); (4) большинство коннективистких сетей однородны по составу элементов, структуре и функциям, в то время как биологические сети обычно содержат множество типов нейронов; (5) синхронизация в коннективистких сетях традиционно базируется либо на глобальном цифровом тактовом сигнале, который поддерживает прогрессивную активность элементов либо путем метода стохастического обновления; но очевидно предположить, что индивидуальное течение времени для нейронов является одним из значительных факторов в понимании поведения биологических нейронных сетей.

Такие архитектурные расхождения означают, что внутренняя динамика стандартной коннективисткой сети выглядит бедно по сравнению с тем, что демонстрирует биологическая сеть. Исходя из строгой непрерывности, исследователь должен ожидать найти, что, например, осцилляторные ритмы и хаотические аттракторы – явления, часто используемые коннективистами, но которые в основном сфокусированы в области нейробиологии будут решающим фактором в понимании мышления. Ориентированные на искусственную жизнь исследователи в области роботики часто допускают искусственную эволюцию для разработки сенсорно-моторноых систем управления на базе нейронных сетей, в которой, по крайней мере, некоторые из ограничений архитектурных предположений, описанных выше, отбрасываются, что позволяет, поэтому добиваться более богатой внутренней динамики. Такие динамические нейронные сети, которые (по крайней мере, частично) биологически обоснованы, несомненно, представляют важный шаг в направлении биологической науки о мышлении. Но это еще только начало. Если посмотреть поближе на биологический мозг, увиденное породит идею, что то, что называют мышлением может быть объяснено только привлечением идеи о сигналах посылаемых вдоль тонких специфических соединительных путей. Например, существуют экспериментальные доказательства того, что постсинаптические рецепторы фиксируют пресинаптические выходы вещества глютамата от выводов отличных от «их собственных» пресинаптических выводов. Так как глютамат выделяется в виде облака, пресинаптический выход может воздействовать на удаленные постсинаптические рецепторы. Нет оснований предполагать, что такой эффект как распространение глютамата, который не отрабатывается стандартным моделированием нейронных сетей, может рассматриваться как «детали конкретной реализации« или случайный шум, который может быть проигнорирован когда искусственный носитель используется для исследования подноготной мыслящей системы. Также существует большая вероятность, что существуют еще необходимые свойства той стратегии, согласно которой мозг вносит свой вклад в адаптивное поведение. Короче, нужно всегда помнить, что чем бы еще он не был, биологический мозг является комплексной химической машиной. Для того, чтобы интегрировать эти навязанные биологией наблюдения в логичные теоретические рамки, необходимо также найти некартезианское концептуальное пространство для размышлений о жизни и разуме, пространство в рамках строгой непрерывности. К счастью такое пространство существует в концепции Аристотеля.

4 От психологии к psyche-логии

Аристотелев термин psyche обычно переводят как душа, но это не совсем так. Слово душа несет в себе много от бестелесной, спиритической формы существования, которая не соответствует подавляющей тенденции размышлений Аристотеля. Как отмечается, для Аристотеля жалящая крапива имела psyche. Можно сказать, что для Аристотеля psyche организма являлся набор специфически-типологических свойств в силу которых организм жив. Другими словами, любой вид организмов имеет ассоциированный с ним некоторый набор жизненных свойств, которые при нормальных обстоятельствах могут быть выражены в отдельных представителях данного вида, и в нормальных обстоятельствах для организмов данного вида быть живым значит проявлять типичный для данного вида набор жизненных свойств, то есть psyche. Жизненные свойства, составляющие любую отдельную psyche, могут браться из чего-то подобного следующему списку: самообеспечение питанием, рост и развитие, размножение, потребность к пище, тактильные ощущения, бесконтактные формы ощущений, самоконтролируемое движение, разум и интеллект. Грубо говоря, чем далее элемент в этом списке, тем более совершенным сущностям он принадлежит. Это важно, потому что psyche это иерархическая структура, в которой, вообще говоря, способность к определенным жизненным свойствам предполагает способность к менее совершенным жизненным свойствам из приведенного списка. Так, например, способность к тактильным ощущениям предполагает способность к потребности в пище, размножению, росту и самообеспечению питанием. К тому же, существует отношение выразительной зависимости между жизненными свойствами, так что любое жизненное свойство не может быть полностью познано в отрыве от других при рассмотрении конкретной частной psyche.

По взглядам Аристотеля концепция psyche необходима для достижения удовлетворительных обоснований в науках о жизни. Для понимания его аргументации необходимо представить различие между формой и материей. В первом приближении форма по Аристотелю означает что-то вроде различных видов организации. Он говорит о том, что частичные очертания конкретной статуи являются формой статуи, в то время ее материальным содержанием является физический материал, из которого она сделана. Форма топора – это что-то сходное с его способностью рубить, а материальное содержание – дерево и железо, из которых этот топор сделан. Перемещаясь в биологический мир, формой глаза является его способность видеть, а материальным содержанием, в соответствии с аристотилеевым виденьем древней биологии, вода. Формой гнева является что-то вроде желания возмездия; материальным же содержанием, по Аристотелю, является кипение крови в области сердца. Когда Аристотель применяет различие формы и материального содержания ко всем живым организмам, мы говорим, что форма живого существа это его psyche, его набор жизненных способностей; материальное же содержание это органическое тело, которое реализует эти способности.

Исходя из данного предварительного понимания концепции формы, дать объяснение в терминах формы означает дать объяснение, в котором характерная особенность организации сущности для лучшего объяснения дается в отличие от материального состава сущности. Так, скажем, кто-то хочет описать, как домашняя муха осуществляет визуально корректируемую навигацию в реальном времени в беспорядочной, динамически изменяющейся обстановке. Аристотелев взгляд должен, по крайней мере, присутствовать в идее, что дисциплины, такие как нейробиология и биохимия могут быть скомбинированы в целях объяснения функционирования машины, допускающей такое поведение. Фактически, что бы наука ни подразумевала под словом материальность, аристотелев взгляд будет предполагать ожидание прямого материального объяснения визуально направляемой воздушной навигации домашней мухи. Такое объяснение далеко не тривиально. Каждый из двух композитных глаз мухи представляет собой панорамный нерегулярный двухмерный массив фото сенсоров. Эти массивы соединены в параллельную сеть соответствующих обработчиков изображения (биологических процессоров) и органов контролирующих полет (процессоров управления полетом), работающих асинхронно в реальном времени. Через последующую нейронную сеть, данная система управляет набором мускулов, которые вместе с гироскопическими органами осуществляют управление крыльями. Тем не менее, любое чисто материальное объяснение, пусть даже комплексное, не позволит науке о жизни понять этот материальный процесс как природный феномен, которым оно, собственно и является. Для создания комплексного природного объяснения, необходимо понимание данного процесса в контексте частичного набора жизненных способностей, которые являются определяющими для жизни домашней мухи – домашняя муха как форма жизни, как можно было бы сказать.

Индивидуальные жизненные способности могут, конечно, разделяться различными видами, хотя сказать, что нарцисс и человек разделяют жизненную способность к самообеспечению пищей не то же самое, что сказать, что нарцисс и человек достигли самообеспечения пищей одинаковыми путями; могут быть вариации между видами в том, как выражены разделяемые жизненные способности. Согласно Аристотелю, все живые объекты обладают способностью самообеспечения пищей, роста и разложения и размножения. Растения обладают только этими жизненными свойствами, в то время как животные обладают данными жизненными свойствами плюс также жизненными свойствами, относящимися к области восприятия. Отметим, что это с представление жизненных свойств, относящихся к области восприятия представляет собой первое, с чем сталкиваются и что часто рассматривают как разум и мышление. На верху логической иерархии psyche располагается наиболее причудливая из всех жизненных способностей, то что называют разумом. По Аристотелю, единственное существо, обладающее этой жизненной способностью – это человек. Надо сказать, что почти невозможно соединить аристотелево рассмотрение разума со всем остальным, что он говорит о жизненных способностях, потому что, хотя его основная тенденция отвергнуть идею, что psyche онтологически отделена от тела, он все еще заявляет, что активная часть жизненной способности разума (нечто вроде интеллектуальной интуиции) бессмертна и вечна. Рассматривая эту явную неувязку, современные интерпретаторы, очевидно, поставили человеческий интеллект на одну планку со всем остальным. Одним из путей достижения этого является развитие аристотелева взгляда, что части природного процесса развития, посредством которого мы, люди приходим к выражению полного набора типичных для вида жизненных способностей (наша особая животная форма), является для нас становлением через социализацию и развитие языка рационального использования интеллекта. Для этой траектории развития, классифицируемой как природная, культура и язык могут рассматриваться как чисто биологические феномены – конечно исключительно человеческие, но, тем не менее, чисто биологические. Тем не менее, если предположить, что это может быть сделано, тогда происходит фиксация интерпретации psyche, которая не допускает ни онтологического, ни обосновательного разделения между живым телом и разумом.

Так, согласно Аристотелю, из действительности того факта, что частное живое природное тело имеет psyche характеристики жизни своего вида, следует, что живое природное тело способно производить определенные вещи. При этом разум может рассматриваться просто как одна из этих вещей, способность, которая позволяет некоторым организмам быть живыми. И где проводятся рассуждения о поглощении питания, воспроизводстве, восприятии или мышлении проводятся рассуждения о присущей жизненной способности, биологическом феномене, который может быть объяснен в терминах материи и psyche. Другими словами, Аристотель был теоретиком, придерживавшимся строгой непрерывности. Основным предположением является, что аристотелевская концепция psyche обеспечивает как хорошую поддержку, так и удобный способ рассмотрения и использования более детально тезиса строгой непрерывности, который является центральным стержнем биологической науки о мышлении на базе искусственной жизни.

Заключение

Так как функционализм был определен как неокартезианская теория разума, в качестве контраста ей противопоставляются аристотелевские концептуальные рамки. Производится рассмотрение с аристотелевской точки зрения научной области, относящейся к искусственной жизни.

Сейчас является обычным для функционалистких философов разума в натуралистической традиции соединять идею функций разума с идеей функции дарвиновской эволюции. С дарвинисткой точки зрения функция эволюции, например, части визуальной системы лягушки – определять пищу в формах мух (вместо того, чтобы определять быстро движущиеся черные точки, на которые реагирует подсистема), потому что это то, для чего подсистема была выбрана в течении эволюционной истории лягушки (чем определять быстро движущиеся черные точки, некоторые из которых не являются мухами). Видимо, нет прямой необходимости соединения функции мышления с эволюционными функциями, для того чтобы функционализм смог работать. Однако, функционалисты нуждаются в источнике для апелляции в случае необходимости устранения фиктивных атрибутов функций (т.е. например, что функция части визуальной системы лягушки – определять быстро движущиеся черные точки). Для искусственных систем – источник апелляции сами исследователи. Функции искусственных объектов это то, что заложено в них разработчиками.

В данной работе были рассмотрены основные тенденции развития философии в области искусственно интеллекта и искусственной жизни, в том числе различие между ортодоксальной наукой о мышлении и биологическим мышлением в данной области философии. Первая тяготеет к игнорированию биологических соображений, в то время как последнее держится за мнение, что жизнь и разум разделяют общий набор организационных свойств. Было рассматрено предположение выдвигаемое современными философами когнитивистами, что искусственная жизнь является интеллектуальным потенциальным двигателем последнего. Были показаны концептуальные принципы такой движимой искусственной жизнью науки о мышлении. Обращая особое внимание на отношение между нейробиологическими и биохимическими феноменами и мышлением, показано, что переход к функционализму в ортодоксальной науке о мышлении обеспечивает неоспоримое доказательство, что данное приближение проистекает из картезианского рассмотрения взаимоотношений между телом и разумом. С другой стороны, фундаментальные заключения биологического познания поддерживают радикально отличающиеся общие теории Аристотеля. Рассмотрено, как концепция самоорганизации – главная теоретическая идея искусственной жизни – является ключевым камнем неоаристотелевой науки биологического познания.

Еще в 40-х годах Тьюринг в числе первых начал исследовать первые проблемы «умных машин», или как их называют сейчас - искусственного интеллекта.

Этот тест дает следующие важные особенности:

  1. Дает объективное понятие об интеллекте, то есть реакции заведомо разумного существа на определенный набор вопросов. Таким образом, вводится стандарт для определения интеллекта, который предотвращает неминуемые дебаты об «истинности» его природы.
  2. Препятствует заведению нас в тупик сбивающими с толку и пока безответными вопросами, такими как: «должен ли компьютер использовать какие-то конкретные внутренние процессы?», или «должна ли машина по-настоящему осознавать свои действия?».
  3. Исключает предвзятость в пользу живых существ, заставляя следователя сфокусироваться исключительно на содержании ответов на вопросы.

Благодаря этим преимуществам, тест Тьюринга представляет собой хорошую основу для многих схем, которые используются на практике для испытания современных интеллектуальных программ. Программа, потенциально достигшая разумности в какой-либо области, может быть испытана сравнением ее способностей по решению определенного количества проблем со способностями человека.

Философия искусственного интеллекта задаётся вопросами о «мышлении машин», рассматривает вопросы:

· Может ли машина действовать разумно? Может ли она решать проблемы, которые человек решает с помощью размышлений?

· Может ли машина иметь разум, сознание, психическое состояние в той мере, в которой ими обладает человек. Может ли она чувствовать?

· Одинакова ли природа человеческого и искусственного интеллекта? Является ли в своей основе человеческий мозг компьютером?

Это означает, что человек обладает фантазией, другими словами, он создает понятие. Преимущества машин – в скорости и точности.

Можно ли довести гибкость таких программ до уровня живых организмов? Этот вопрос все еще является предметом жарких споров. Нобелевский лауреат Герберт Саймон сказал, что своеобразие и изменчивость поведения, присущие живым существам, возникли скорее благодаря сложности окружающей их среды, чем благодаря сложностям их внутренних «программ». Саймон описывает муравья, петляющего по неровной, пересеченной поверхности: хотя путь муравья и кажется довольно сложным, цель муравья предельно проста – как можно скорее вернуться в свою колонию. Изгибы и повороты его пути вызваны встречаемыми препятствиями. Из всего этого Саймон делает следующий вывод: «Муравей, рассматриваемый в качестве проявляющей разумное поведение системы, на самом деле очень прост. Кажущаяся сложность его поведения в большей степени отражает сложность среды, в которой он существует».

Эта идея, если удастся доказать ее применимость к организмам с более сложным интеллектом, составит сильный аргумент в пользу простоты и постижимости интеллектуальных систем. Интересно, что, применив эту идею к человеку, мы придем к выводу об огромной значимости культуры в формировании интеллекта. Интеллект, похоже, не взращивается во тьме, как грибы, для его развития необходимо взаимодействие с достаточно богатой окружающей средой. Культура так же необходима для создания человеческих существ, как человеческие существа необходимы для создания «мыслящих» машин. Интеллект возникает из взаимодействий индивидуальных элементов.

Другой ученый, работающий в области ИИ-исследований – Норберт Винер.

Доктор математических наук Винер, основатель кибернетики, написал множество книг, посвященных машинам, их использованию, их будущему и настоящему. В своих работах ученый исследует проблему искусственного интеллекта и кибернетики не только с точки зрения математики. Будучи ученым широко профиля, Винер интегрирует в своих исследованиях достижения и знания из различных областей науки. Сотрудничая с физиологами и психологами, он доказывает некоторое сходство работы «электронного мозга» с человеческим. Однако, как отмечает Винер в своей книге «Кибернетика», даже обладая определенным набором рецепторов, эффекторов и некоторым подобием центральной нервной системы, сходство поведения вычислительных машин и других современных автоматов является лишь имитацией простейших условных рефлексов живых существ. Отсюда далеко до целостного, осмысленного восприятия внешнего мира и самостоятельного, творческого мышления. Все вышесказанное полностью относится и к человекоподобным роботам – это весьма примитивные модели человека.

Однако, в будущем, Винер считает возможным создание не только разумной машины, но и машины «умнее своего создателя». Не исключает он и бунта машин. Он полагает, что не только робот, но и любая стратегическая машина способна вызвать катастрофу: «…машина должна программироваться опытом. …ошибка в этом отношении может означать лишь немедленную, полную и окончательную гибель. Мы не можем рассчитывать на то, что машина будет подражать нам в тех предрассудках и эмоциональных компромиссах, благодаря которым мы позволяем себе называть разрушение победой».

Таковы мнения ученых, стоящих у истоков развития науки об искусственном интеллекте, внесших огромный вклад в ее теоретическую и практическую базу.



В самом конце 50-60х г.г. XX века почти все силы специалистов были направлены на поиск и составление программ, имитирующих отдельные стороны интеллектуальной деятельности человека. Однако большинство попыток оказались неудачными в том плане, что, даже обладая весомым набором информации, малейшее изменение условий их применения ставили работу программы в тупик. Первой ласточкой была система, названная ее создателями кибернетиком Аланом Ньюменом и психологом Гербертом Саймоном «Общий решитель задач».

В ее основе лежит простое соображение.

Таковы некоторые из настоящих проблем, стоящих перед исследователями и разработчиками искусственного интеллекта. Но, несмотря на всю необходимость этих разработок, стоит задуматься и над социальными последствиями такого рода новшеств. С одной стороны, с появлением вычислительных машин произошли безусловно положительные сдвиги в человеческой деятельности. Так фактически возникла новая отрасль промышленности, появились многочисленные специалисты, которые создают и проектируют вычислительные машины. Но в подобной ситуации необходим какой-то действенный контроль за нашими интеллектуальными помощниками. Одна из опасностей интеллектуализации кроется в повышении требований к образовательному уровню членов общества. Постепенно потребность в неквалифицированном труде будет сокращаться, в будущем человечество может столкнуться с проблемой глобальной безработицы. Основная же проблема состоит в рациональности применения достижений ИИ-разработок. Особую опасность представляют новшества военного вооружения и стратегии. К примеру, методы распознавания образов нашли свое применение при разработке крылатых ракет. Подобным образом и другие методы ИИ могут сыграть свою роль в военных системах будущего, способных планировать свои действия без участия людей. И, наконец, стоит отметить, что широкое внедрение информационных и экспертных систем может привести к появлению своеобразных «интеллектуальных тунеядцев», полностью доверяющих машине и стремящихся избавиться от необходимости прилагать малейшие интеллектуальные усилия.

Многие применения искусственного интеллекта подняли глубокие философские вопросы. В каком смысле можно заявить, что компьютер понимает фразы естественного языка? Продуцирование и понимание языка требует толкования символов, недостаточно лишь правильно сформулировать строку символов, механизм понимания должен уметь приписывать им смысл или интерпретировать символы в зависимости от контекста. Что такое смысл? Что такое интерпретация? Эти и подобные вопросы встают во многих областях применения ИИ, будь то построение экспертных систем или разработка алгоритмов машинного обучения. Наши машины нуждаются в программах. Эти программы могут, правда, быть составленными другими машинами, однако для этих машин программу должен опять-таки составлять человек. Данную мысль можно продолжить – это означает, что подвижна сама граница между машиной и организмом, и ответ на вопрос, какой сложности могут быть построены машины, даст только опыт.

  • 1.4. Социологический и культурологический подходы к исследованию науки. Проблема интернализма и экстернализма.
  • 2.1. Идеалы и нормы исследовательской деятельности. Историческая динамика идеалов
  • 2.2. Научная картина мира. Типы, структура, функции
  • 2.3. Философские основания науки
  • 3.1. Преднаука Древнего Востока. Научные знания Античности.
  • 3.2. Наука эпохи Средневековья. Основные черты
  • 3.3. Наука Нового Времени. Основные черты классической науки
  • 3.4. Неклассическая наука
  • 3.5. Современная постнеклассическая наука. Синергетика
  • 4.1. Традиции и новации в развитии науки. Научные революции, их типы
  • 4.2. Формирование частных теоретических схем и законов. Выдвижение гипотез и их предпосылки
  • 4.3. Построение развитой научной теории. Теоретические модели.
  • 5.1. Философская проблематика естественных наук. Основные принципы современной физики
  • 5.2. Философские проблемы астрономии. Проблема стабильности и
  • 5.3. Философские проблемы математики. Специфика математических
  • 6.1. Особенности научно-технического знания. Смысл вопроса о сущности техники
  • 6.2. Понятие «техника» в истории философии и культуры
  • 6.3. Инженерная деятельность. Основные этапы инженерной деятельности. Усложнение инженерной деятельности
  • 6.4. Философия техники и глобальные проблемы современной цивилизации. Гуманизация современной техники
  • 7.1. Понятие информации. Роль информации в культуре. Информационные теории в объяснении эволюции общества
  • 7.2. Виртуальная реальность, ее концептуальные параметры. Виртуальность в истории философии и культуры. Проблема симулякров
  • 7.3 Философский аспект проблемы построения «искусственного интеллекта»
  • 8.1. Науки естественные и гуманитарные. Научный рационализм в перспективе философской антропологии
  • 8.2. Субъект и объект социально-гуманитарного знания: уровни рассмотрения. Ценностные ориентации, их роль в социально-гуманитарных науках
  • 8.3. Проблема коммуникативности в социально-гуманитарных науках.
  • 8.4. Объяснение, понимание, интерпретация в социально-гуманитарных
  • 7.3 Философский аспект проблемы построения «искусственного интеллекта»

    Философская проблема искусственного интеллекта

    Основная философская проблема в области искусственного интеллекта заключается в доведении возможности и целесообразности моделирования процесса мышления человека. Существует опасность тратить время на изучение того, что невозможно создать, в частности, на современном этапе развития человечества. Примером подобного времяпрепровождения может быть занятие научным коммунизмом - наукой, что на протяжении десятилетий изучала то, чего нет, и в обозримом будущем быть не может. Рассмотрим ряд доказательств, которые подводят к положительному ответу на вопрос возможности создания искусственного интеллекта.

    Первое доказательство выходит из области схоластики и говорит о непротиворечия искусственного интеллекта и Библии. Об этом говорят слова священного писания: «И создал Господь Бог человека по своему образу и подобию». Исходя из этих слов, можно утверждать, что, поскольку люди по своей сути подобные Творцу, то они вполне могут искусственным путем создать несколько по собственному образу и подобию.

    Второй довод вытекает из успехов человечества, достигнутых в области создания нового разума биологическим путем. В 90-х годах прошлого столетия появилась возможность клонирования млекопитающих, начиная с овечки Долли. Дальнейшие достигнутые успехи в данном направлении заключаются в создании форм искусственной жизни, не имеющие никакого естественного экземпляра, к которому бы они были похожи. Например, кролики с дополнительным геном, что создает эффект светлячка. В отличие от клонов, эти формы в полной мере представляют собой искусственную жизнь. Вместе с тем, такие существа можно считать интеллектуальными, учитывая их способности к элементарному обучению. Поэтому они могут называться системами искусственного интеллекта, хотя несотворенным на основе использования средств вычислительной техники, которые представляют наибольший интерес для человечества.

    Третий довод - это доказательство возможности самовоспроизведения объектов, состоящих из неживой материи. Способность к самовоспроизводству, как признак наличия интеллекта, долгое время считалась прерогативой живых организмов. Однако некоторые явления, происходящие в неживой природе, например, рост кристаллов, синтез сложных молекул через копирования, во многом идентичны самовоспроизводству.

    В начале 50-х годов прошлого столетия Дж. фон Нейман занялся основательным изучением самовоспроизведения и заложил основы математической теории автоматов, «самовоспроизводящихся». Он также доказал теоретическую возможность управляемой инициализации самовоспроизведению. На сегодня, существует много различных неформальных доказательств возможности самовоспроизведения объектов, но для программистов наиболее существенный довод заключается в существовании компьютерных вирусов.

    Четвертое доказательство - это существование принципиальной возможности автоматизации решения интеллектуальных задач с помощью вычислительной техники. Она обеспечивается ее свойством алгоритмической универсальности. Алгоритмическая универсальность вычислительных машин означает, что на них можно программно реализовывать любые алгоритмы преобразования информации: вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем и т.д. При этом, подразумевается, что процессы, порождаемые этими алгоритмами, являются потенциально осуществимыми, то есть, что они осуществляются в результате проведения конечного количества элементарных операций.

    Практическая реализация алгоритмов зависит от существующих вычислительных мощностей, которые изменяются с развитием техники. В частности, вследствие появления быстродействующих компьютеров, стало практически возможным создание программных систем, способных реализовывать такие алгоритмы, которые ранее считались лишь потенциальноосуществимыми.

    Для обозначения программных систем, использующих искусственный интеллект, сложился общий срок - интеллектуальная система. Целесообразность создания интеллектуальных систем заключается в необходимости решения задач, которые не решаются на достаточном уровне эффективности программными системами, созданными на жесткой алгоритмической основе. К таким задачам относятся задачи, имеющие, как правило, следующие особенности:

    у них неизвестный алгоритм решения - такие задачи носят названия интеллектуальных задач;

    в них используется, помимо традиционных форматов данных, информация в виде графических изображений, рисунков, звуков;

    в них предполагается наличие свободы выбора - то есть, отсутствие единого алгоритма решения задачи обусловливает необходимость сделать выбор между вариантами действий в условиях неопределенности.

    Приведенный перечень задач формирует особенности интеллектуальных систем, предназначенных для их решения. Источником такого определения особенностей фактически является известный тест Тьюринга, предложенный британским математиком и одним из первых исследователей в области компьютерных наук Аланом Тьюрингом (Alan Turing). В данном тесте экспериментатор, обмениваясь сообщениями с подопытным объектом, пытается определить, кем он является на самом деле: человеком или компьютерной программой.

    Интеллектуальная система, успешно прошла такой тест, считается сильным искусственным интеллектом. Термин «сильный искусственный интеллект» пропагандируется специалистами, которые считают, что искусственный интеллект должен базироваться на строгой логической основе. В отличие от сильного, слабый искусственный интеллект, по их мнению, базируется исключительно на одном из методов решения интеллектуальных задач (искусственных нейронных сетях, генетических алгоритмах, эволюционных методах). В наши дни стало очевидным, что ни один из методов искусственного интеллекта не позволяет успешно решить приемлемое количество задач - лучше проявляет себя использование комбинации методов.

    Не следует думать, что интеллектуальные системы могут, решать любые задачи. Математиками было доказано существование таких типов задач, для которых невозможен единый алгоритм, чтобы воспроизводил их эффективные решения. В этом контексте определяется невозможность решения задач такого типа с помощью интеллектуальных систем, разработанных для вычислительных машин. Кроме того, утверждение про алгоритмическую невозможность решения некоторого класса задач является одновременно и прогнозом на будущие времена, согласно которому алгоритмы их решения не будут найдены никогда.

    Этот факт способствует лучшему пониманию того, где в современном мире могут найти свое практическое применение системы искусственного интеллекта. В частности, для решения задачи, не имеет универсального алгоритма решения, целесообразно ее сужение до уровня, когда она решается только для определенного подмножества начальных условий. Такие решения по силам интеллектуальным системам, а их результат способен сузить, для человека, область вариантов интуитивного выбора.

    Можно выделить две основные линии работ по искусственному интеллекту. Первая связана с совершенствованием самих машин, с повышением "интеллектуальности" искусственных систем. Вторая связана с задачей оптимизации совместной работы "искусственного интеллекта" и собственно интеллектуальных возможностей человека.

    В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А. Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение "машинного" и "немашинного" есть соотнесение операционального и неоперационального в человеческой деятельности в то время этот вывод был достаточно прогрессивен и выступал против кибернетического редукционизма. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия - в психологическом смысле "операция" отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).

    В работах по искусственному интеллекту постоянно используется термин "цель". Анализ отношения средств к цели А. Ньюэлл и Г. Саймон называют в качестве одной из "эвристик". В психологической теории деятельности "цель" является конституирующим признаком действия в отличии от операций (и деятельности в целом) . В то время как в искусственных системах "целью" называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений или перцептивного образа. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.

    Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, "целей", а как отмечает О. К. Тихомиров, - оценочными функциями. И у искусственных систем есть своего рода "ценностные ориентации". Но специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности.

    Между прочим, именно недостаточная изученность процесса целеобразования нашла свое отражение в формулировании "социального заказа" для психологии со стороны исследователей проблемы существенное стимулирующее влияние психологической науки.

    Информационная теория эмоций Симонова также в значительной степени питается аналогиями с работами систем искусственного интеллекта. Кроме того, проблема волевого принятия решения в психологии в некоторых работах рассматривается как формальный процесс выбора одной из множества заданных альтернатив, опуская тем самым специфику волевых процессов.

    Таким образом все три традиционные области психологии - учения о познавательных, эмоциональных и волевых процессах оказались под влиянием работ по ИИ, что по мнению О. К. Тихомирова привело к оформлению нового предмета психологии - как наука о переработке информации, научность этого определения достигалась за счет "технизации" психологического знания.

    Обращаясь к проблеме роли ИИ в обучения Л. И. Ноткин рассматривает этот процесс как одну из разновидностей взаимодействия человека с ЭВМ, и раскрывает среди перспективных возможностей те, которые направлены на создание так называемых адаптивных обучающихся систем, имитирующих оперативный диалог учащегося и преподавателя-человека.

    Таким образом, взаимодействие между исследованиями искусственного интеллекта и психологической наукой можно охарактеризовать как плодотворный диалог, позволяющий если не решать, то хотя бы научиться задавать вопросы такого высокого философского уровня как - "Что есть человек? "

    Лекция 8. ФИЛОСОФСКИЕ ПРОБЛЕМЫ СОЦИАЛЬНО-ГУМАНИТАРНЫХ НАУК

    • Специальность ВАК РФ09.00.08
    • Количество страниц 180
    Диссертация добавить в корзину 500p

    Глава I. Философские и экспериментально-научные основания проблемы искусственного интеллекта

    1.1. Проблемы определения понятий «интеллект» и искусственный интеллект».

    1.2. Современные философско-теоретические и экспериментально-технологические проблемы создания искусственного интеллекта.

    Глава 2. Философия сознания и искусственный интеллект

    2.1 Проблема возможности создания искусственного интеллекта в контексте философии сознания.

    2.2 Логико-математические аргументы против искусственного интеллекта (геделевский аргумент и аргумент китайской комнаты).

    Введение диссертации (часть автореферата) на тему "Философские аспекты проблем создания искусственного интеллекта"

    Актуальность темы исследования. Появление в конце 40-х годов XX столетия электронных цифровых вычислительных машин, обладающих универсальными возможностями и высокой производительностью - сразу же породил вопрос: могут ли машины подобного типа (при их дальнейшем совершенствовании) «мыслить» подобно человеку1? Иными словами, возможно ли создать машину, интеллектуальные возможности которой были тождественны интеллектуальным возможностям человека (или даже превосходили возможности человека). Успехи практической имитации некоторых простых интеллектуальных функций в пионерских работах 50-60 годов, а также некоторые теоретические соображения - породили у многих исследователей уверенность в том, что задача создания полноценного «искусственного разума» вполне разрешима и, более того, создание «умных машин» - дело ближайшего будущего (точнее, ближайших 20-30 лет). Однако все сроки прошли, а ожидаемый результат так и не был получен.

    Современные «интеллектуальные машины» способны чисто внешним образом имитировать отдельные интеллектуальные функции человека, отдельные психические процессы (распознавание образов, решение логических задач, игра в шахматы и т.п.), но они не обладают интеллектуальностью в подлинном смысле этого слова - они не способны к самообучению, не могут осмысленно понимать человеческую речь и вступать с человеком в осмысленный диалог, не способны творчески подходить к решению проблем, не обладают той гибкостью поведения, которая характерна для человека. Собственно задача создания «машинного эквивалента» человеческого интеллекта современными разработчиками систем «искусственного интеллекта» фактически даже и не ставится, поскольку реальных путей решения этой задачи они не видят. Основные усилия направляются на решение конкретных, практически значимых задач, безотносительно к тому, приближает ли решение этих задач нас к «интегральному» искусственному интеллекту, воспроизводящему все основные интеллектуальные функции человека, или же нет.

    Является ли, в таком случае исследование на тему «возможен ли искусственный интеллект, тождественный по своим возможностям человеческому», актуальным? На этот вопрос можно ответить так: хотя с точки зрения технических приложений и разработок - этот вопрос и потерял в настоящее время актуальность, он по-прежнему весьма интересен с философской точки зрения. (То, что интерес к данной проблеме сохраняется, видно хотя бы по той бурной дискуссии, которую в середине 90-х годов вызвали публикации Р. Пенроуза, в которых он, опираясь на теорему К. Геделя о неполноте формальных систем, обосновывал вывод о принципиальной невозможности создания машинных алгоритмов, способных имитировать во всем объеме интеллектуальные способности человека). Обычно отсутствие интереса к проблеме создания «интегрального» искусственного интеллекта человеческого уровня объясняют так: мы пока очень плохо понимаем природу человеческого интеллекта и, поэтому не можем ясно себе представить, каким образом можно создать его машинный аналог. При этом, однако, обычно неявно предполагают, что механизм человеческого мышления в принципе может быть прояснен и представлен в виде некоторого алгоритма, хотя решение этой задачи отодвигается на неопределенное будущее. Но это положение, как мы увидим далее, далеко не самоочевидно. Вполне возможно такое положение дел, что природа человеческого интеллекта такова, что «прояснить» его механизмы, свести

    См.: Тьюринг А. Может ли машина мыслить? М., 1960. деятельность интеллекта к некоторому набору «функций» или «операций», невозможно в принципе. Тогда решение ограничиться решением частных, конкретных, практически значимых задач, вполне оправдано. В противном случае, если нет принципиальной разницы между человеческим и «машинным» умом, то, следует, видимо, вернуться к «глобалистским» подходам 50-60 годов и направить все усилия на исследование реальных механизмов мышления в надежде открыть некий «алгоритм человеческого ума». Такой подход в случае успеха позволил бы сразу решить практически неограниченное число прикладных задач - поскольку не нужно было бы каждый раз заново разрабатывать «интеллектуальные» программы для решения очередной задачи - ведь подлинно «интеллектуальная» машина была бы способна самостоятельно найти эффективный путь решения любой (или почти любой) поставленной перед ней задачи. Ведь именно эту способность - находить решения (и ставить сами задачи) самостоятельно мы, собственно, и называем интеллектом.

    Таким образом, решение вопроса о принципиальной возможности машинной имитации человеческого интеллекта позволит нам оценить перспективность тех или иных направлений развития машинных «интеллектуальных систем». Но и вне этого «практического» аспекта, решение вопроса о принципиальной возможности создания машинного эквивалента человеческого «ума» имело бы огромное значение для понимания природы человеческого мышления и сознания, понимания природы психического в целом. С нашей точки зрения, накопленный к настоящему времени опыт создания различных «интеллектуальных систем», а также имеющиеся в настоящее время результаты исследования человеческого интеллекта и человеческого сознания в философии и психологии, позволяют уже сейчас дать, по крайней мере, предварительную оценку перспективы создания ал

    2 См.: Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9); 1996, 2(23). горитмической искусственной системы, равной по своим возможностям человеческому интеллекту. Последнее и делает актуальной тему данного диссертационного исследования.

    Степень разработанности проблемы. В работе исследуется широкий круг вопросов, традиционно относящихся к философии искусственного интеллекта. Можно отметить слабую теоретическую базу для философской рефлексии по поводу искусственного интеллекта, обусловленную, с одной стороны, пониженным интересом со стороны философов к проблемам человеческой практики (субъективный фактор), с другой стороны - объективной сложностью этих проблем.

    Вопрос о возможности создания полноценной искусственной (машинной) имитации человеческого интеллекта впервые был поставлен А. Тьюрингом в 1950 году в его статье «Вычислительные машины и интеллект»3. Непосредственным поводом написания данной статьи было создание в 1945 году в Пенсильванском университете первой электронной цифровой вычислительной машины ЭНИАК. (Машина была создана группой под руководством проф. Дж. У. Мокли в декабре 1945 года. В 1946 году она была рассекречена. Идея же создания этой машины принадлежит профессору колледжа штата Айова Д.В. Атанасову. Еще в 1941 году он вместе с К.Э. Берри создал прототип ЭНИАКа - машину Эй-Би-Си (Атанасов-БерриКомпьютер) - которая, по сути, и была первым в мире цифровым компьютером. Однако до 1946 года все разработки в этой области были засекречены. Поэтому отсчет «компьютерной эры» обычно начинают с 1946 года)4.

    Тьюринг одним из первых попытался выяснить какими возможностями обладают электронные вычислительные машины и можно ли по

    3 См.: Тьюринг А. Может ли машина мыслить? М., 1960. средством алгоритмических вычислений, осуществляемых с помощью таких машин, имитировать деятельность человеческого интеллекта. Это, в свою очередь, поставило перед ним вопрос: какова природа человеческого мышления? Поскольку ни психология, ни философия не давали четкого ответа на этот вопрос, Тьюринг заменяет его более понятным и практичным вопросом: как оценить степень сходства человеческого и машинного интеллекта? В качестве теста на «интеллектуальность Тьюринг предложил свою знаменитую «игру в имитацию», известную ныне как «тест Тьюринга». Машина, по Тьюрингу, обладает свойством «разумности», если в заочном диалоге собеседник-человек не способен будет установить, с кем он имеет дело: с человеком или с разумной машиной.

    Хотя такой чисто «прагматический» подход к пониманию «разумности» вызвал резкую критику со стороны философов5 (критики подчеркивали, что сущностное определение разума здесь подменяется простой констатацией сходства), тем не менее, для практических целей критерий Тьюринга был вполне удовлетворительным, и это обстоятельство в значительной мере предопределило тот прагматический стиль исследований в области искусственного интеллекта, который сохранился и до наших дней. Суть этого стиля - игнорирование всех сколько-нибудь сложных философских вопросов и ориентация лишь на достижение практических целей.

    Уже в упомянутой статье Тьюринга ставилась задача создания универсального (интегрального) искусственного интеллекта. Тьюринг писал: «Мы можем надеяться, что машины, в конце концов, будут успешно соперничать с людьми во всех чисто интеллектуальных областях6.». Далее он предлагает следующий план: «. снабдить машину хорошими органами

    4 О «докомпьютерной» предыстории искусственного интеллекта см. статью: Быковский И. А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.

    5 См: Anderson A.R. Mind and Machines. N.Y. 1964.

    6 Тьюринг А. Может ли машина мыслить? M., 1960. С. 57. чувств, а затем научить ее понимать и говорить по-английски. В этом случае машину можно будет обучать, как ребенка.»7.

    Вскоре были осуществлены первые попытки реализации этого плана. В 1952 году А. Этткинд реализовал на машине программу, моделирующую условный рефлекс: реакция машины на «раздражитель» усиливалась или ослабевала в зависимости от положительного или отрицательного «подкрепления». Несколько позже он же занялся проблемой машинного перевода, надеясь на этом пути прийти к созданию «понимающей» машины. Параллельно в эти же годы велись разработки шахматных программ.

    Хотя первые разработки выглядели весьма обнадеживающими, эти исследования не позволили создать машины, поведение которых хотя бы в отдаленной степени напоминало разумное поведение человека. Неудачи отчасти объяснялись тем, что ранние программы были построены на основе метода сплошного перебора вариантов, что вело к экспоненциальному росту объема вычислений при увеличении размерности задачи. Т.о., резервы быстродействия и памяти существовавших тогда ЭВМ были быстро исчерпаны. Кроме того, не удалось установить общие правила, с помощью которых любой вид мыслительной деятельности можно было бы представить в виде четкого алгоритма.

    Важным шагом в развитии искусственного интеллекта была идея «эвристического программирования». Ее авторы Г. Саймон и А. Ньюэлл анализировали процессы решения логических задач людьми и обнаружили, что испытуемые часто использовали особые приемы (т.н. «эвристики») которые, не будучи универсальными, тем не менее, во многих случаях приводили к успеху (хотя и не давали полной гарантии решения задачи). Ньюэлл и Саймон попытались систематизировать эти приемы и разработали на этой основе программу, имитирующую, по их мнению, «практический интеллект» человека. Эти программы и получили название «эвристических». Впервые эвристики были применены в программе «Логик-теоретик», предназначенной для решения задач элементарной символической логики. Позже (1957 г.) найденные эвристики удалось распространить на более широкий класс задач - в результате была создана программа «Общий решатель задач» (GPS).

    Именно с этих двух программ (Логик -теоретик и GPS) и начинается фактическая история «искусственного интеллекта». (Сам термин «исо кусственный интеллект» впервые появился в одной из статей Саймона и Ньюэлла, посвященной GPS, которая была опубликована в 1958 году).

    Успешное применение «Логика-теоретика» , GPS и других подобных программ породили большие надежды и оптимизм и существенным образом стимулировали исследования в данной области. Масштаб этого оптимизма ясно виден из следующей цитаты из упомянутой статьи Саймона и Ньюэлла: «. в настоящее время в мире существуют машины, которые мыслят, учатся и проявляют способности к творчеству. Более того, их способности будут быстро расти вплоть до того момента в обозримом уже будущем, когда сфера их деятельности охватит круг вопросов, над которыми когда-либо размышлял человеческий разум»9. Далее они писали: «Не пройдет и десяти лет, как большинство психологических теорий примет форму программы для вычислительной машины или качественных характеристик машинных программ». Но существенного прогресса в области создания «интегрального искусственного интеллекта», равного по возможностям человеческому, ни через десять лет, ни по сей день, достигнуто не было.

    8 Simon Н.А., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958.

    9 Там же. С. 6.

    Последующие исследования быстро дифференцировались на ряд специализированных направлений. Можно выделить следующие направления, традиционно относимые к области искусственного интеллекта:

    1. Распознавание образов.

    2. Доказательство теорем и решение задач.

    3. Игры и принятие решений.

    4. Естественные языки и их машинное понимание. Машинный перевод.

    5. «Разумные роботы».

    6. Экспертные системы.

    7. Моделирование творческой деятельности.

    8. Моделирование нейронных сетей. Моделирование поведения животных.

    9. Специализированные интеллектуальные системы промышленного, военного, космического и т.п. назначения.

    Первоначально предполагалось, что уже через 10 лет (т.е. к концу 60-х годов) появятся машины, которые смогут соперничать с человеком практически во всех областях интеллектуальной деятельности. Эти прогнозы не подтвердились. Только через 40 лет компьютер смог на равных сыграть в шахматы с чемпионом мира. По большинству рассмотренных позиций компьютер и сейчас существенно уступает человеку, по крайней мере, в тех случаях, когда речь идет о творческой интеллектуальной деятельности.

    Подводя итог исследований в области искусственного интеллекта за последние 50 лет, мы можем сделать вывод, что при должной настойчивости любая локальная область интеллектуальной деятельности человека (по крайней мере, если она не носит ярко выраженного творческого характера) может быть представлена в виде алгоритма (совокупности четких инструкций) и передана машине. Однако конечная цель проекта «искусственный интеллект» - создание универсальной «разумной машины», которая могла бы обучаться, подобно человеку, и самостоятельно совершенствовать свое поведение, осваивая новые виды интеллектуальной деятельности и достигая при этом уровня человека средних способностей - эта цель не достигнута и появляется все больше сомнений в ее принципиальной достижимости. По крайней мере, никакого реального прогресса в создании такого самообучающегося «интегрального» интеллекта достигнуто не было.

    Как, например, обстоит дело с «тестом Тьюринга»? С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. Пока ещё эти программы (т.н. боты) крайне малоразумны. Всё, что они делают - это применяют, более или менее удачно, заранее подсказанные человеком правила.

    Осмыслить разговор боты, как правило, даже не пытаются. В основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки. Ясно, что при таком подходе создать действительно разумного собеседника нам никогда не удастся.

    Компьютерные шахматные программы, хотя они и обыгрывают Кас-парова, магистральным путем к созданию интегрального искусственного интеллекта явно не являются. Их принцип действия - это перебор вариантов плюс использование накопленных в шахматной теории правил (теория эндшпилей, разыгрывание стандартных дебютов и т.п.). Эти правила нигде кроме шахмат, не применяются. Кроме того, шахматный компьютер не способен обучаться, не способен самостоятельно придумывать новые правила. «Шахматное творчество» для него недоступно.

    Робота можно даже научить играть в футбол. Регулярно проводятся футбольные турниры роботов. Но даже самый лучший робот-футболист не сможет даже на элементарном уровне участвовать в игре в хоккей или в какой-либо другой игре, он не способен учиться, его программа основана, как правило, на очень примитивных инструкциях. Таким образом, ничего специфически «разумного» современные «интеллектуальные» программы не демонстрируют.

    Параллельно с разработкой конкретных программ искусственного интеллекта появились философские работы, в которых делались попытки осмыслить данную проблематику. Сразу же нужно подчеркнуть, что философские исследования не оказывали и по сей день не оказывают сколько-нибудь существенного влияния на практические разработки в данной области. В целом можно выделить два основных направления развития «философии искусственного интеллекта».

    Во-первых, многие философы позитивно восприняли идею возможности компьютерной имитации человеческой психики и попытались использовать эту идею для переосмысления традиционной проблематики философии сознания, философии интеллекта, а также психофизической проблемы. В основе этих попыток лежит т.н. «компьютерная метафора», т.е. уподобление мозга компьютеру, а психики - функции (или программе) этого компьютера. Один из представителей этого направления М. Минский прямо называет мозг «мясным компьютером», а сознание, по его мнению - «это просто то, что мозг делает».

    Философское осмысление «компьютерной метафоры» породило так называемый «функциональный подход» к решению психофизической проблемы, который можно характеризовать классической формулой: «сознание есть функция мозга». (X. Патнем10, Д. Фодор11, Д.И. Дубровский12, Т. Ярвилехто13 и др). Компьютерная метафора также, видимо, существенным образом стимулировала в 50-60 годы создание различных «элиминирую

    10 См.: Патнем X. Философия сознания. М., 1999.

    См.: Fodor J.A. The Mind-Body Problem //Sci. Amer., 1981.№1. P.l 14-123.

    12 См.: Дубровский ДИ. Психические явления и мозг. М., 1971. щих теорий», отрицающих существование сознания как особой «приватной» реальности (хотя философской основой элиминации «внутреннего мира» были относящиеся к более раннему периоду работы Л. Витгенштейна). Мы имеем здесь в виду таких авторов, как Д. Армстронг14, Дж. Смарт15, Г. Райл16, Г. Фейгл17 и др.

    Воздействие «компьютерной метафоры» на психологию породило в 60-е годы весьма продуктивное направление психологических исследований -т.н. «когнитивную психологию»18. Нейрофизиологи, в свою очередь, получили компьютерные модели нейронных сетей19. Основная идея когнитивного подхода в психологии - рассмотреть психические процессы как процессы внутренней переработки сенсорной информации и выработки оптимальных поведенческих решений. Психолог- когнитивист пытается экспериментально установить, какие конкретно алгоритмы использует мозг человека, не принимая во внимание возможные нейрональные механизмы реализации данных алгоритмов.

    Во-вторых, уже в 60-х -70-х годах ряд исследователей пытаются осмыслить проблематику искусственного интеллекта с позиций философии сознания. Именно представители этого направления впервые выразили сомнение в принципиальной разрешимости проблемы создания интегрального искусственного интеллекта и попытались выяснить, чем человеческий интеллект может принципиально отличаться от любых его возможных машинных имитаций.

    Одна из первых работ, в которой была дана обстоятельная критика искусственного интеллекта, -это вышедшая в 1971 году (русский перевод

    13См.: Ярвилехто Т. Мозг и психика. M., 1992.

    14 См.: Armstrong D.M. Materialist Theory of Mind. L., 1969.

    15Cm.: Smart J.J. Philosophy and Scientific Realism. L., 1963.

    16 См.: Райл Г. Понятие сознания. М.,2000.

    См.: Feigle Н. The "Mental" and the "Physical". Minneapolis, 1976.

    18См.: Найсер У.Познание и реальность. М., 1981.

    19 См.: Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989.

    1978г.) работа X. Дрейфуса «Чего не могут вычислительные машины». В этой работе X. Дрейфус тщательно проанализировал допущения, лежащие в основе веры в возможность создания машинного аналога человеческого разума. Дрейфус выделяет четыре основных допущения:

    1. Биологическое (нейродинамические процессы в мозге изоморфны некоторой переключательной схеме).

    2. Психологическое (мышление есть процесс переработки информации, заданной в дискретной форме, причем эта переработка подчинена конкретному алгоритму).

    3. Эпистемологическое (всякое знание можно формализовать).

    4. Онтологическое (все существующее представимо в терминах множества четко определенных, независимых друг от друга элементов).

    Дрейфус пытался показать, что биологическое допущение не согласуется с новейшими данными нейрофизиологии, тогда как другие три допущения не являются твердо установленными истинами и могут оказаться 20 несостоятельными.

    Одно из основных препятствий на пути создания адекватной машинной модели человеческого интеллекта Дрейфус видит в неосуществимости алгоритмического моделирования человеческих потребностей, мотивов и деятельности целеполагания. При этом он подчеркивает биологический, телесно детерминированный характер человеческих потребностей и важность двигательной активности организма - как средства приобретения особого телесно-моторного опыта. Машину нельзя, по мнению Дрейфуса, запрограммировать таким образом, чтобы она была способна ставить собственные цели, испытывать желания и т.д.

    20 Заметим, что примерно в это же время подобные возражения независимо от Дрейфуса обсуждались и в отечественной литературе. См., например, коллективную монографию «Управление, информация, интеллект под ред. А.И. Берга М., 1976.

    Этот аргумент представляется весьма спорным, особенно если учесть более поздние разработки в области компьютерного моделирования моти

    Л 1 вации, эмоций и целеполагания. В целом, следует признать, что работа Дрейфуса не дала определенного ответа на вопрос: возможен ли интегральный искусственный интеллект, равный по своим возможностям интеллекту человека. Гораздо большее значение, на наш взгляд, имеет так называемый «геделевский аргумент» против искусственного интеллекта. Впервые этот аргумент сформулировал британский математик Дж. Лукас в 1961 г.22 По мнению Дж. Лукаса, из известной теоремы К. Геделя «о неполноте формальных систем» (доказанной в 1931 г.) вытекает принципиальное различие между человеческим мышлением и любыми, сколь угодно сложными алгоритмическими системами искусственного интеллекта. В 60-е годы аргументация Лукаса была встречена весьма скептически и не повлияла существенно на исследования искусственных интеллектуальных систем. Однако в 1989 году этот аргумент «воскресил» и значительно усилил известный британский физик и математик Р. Пенроуз. Вышедшие одна за другой две его обстоятельные монографии привлекли к себе внимание и вызвали обширную дискуссию, в которой приняли многие известные математики, философы, нейрофизиологи и специалисты по искусственному интеллекту24. Но и в этой новой дискуссии опять возобладало скептическое отношение к геделевскому аргументу. С нашей точки зрения, многие возражения против геделевского аргумента явно несостоятельны и поэтому дискуссию по данному вопросу не следует считать закрытой.

    21 См., например, доклад У. Фота в «Трудах международной объединительной конференции по искусственному интеллекту» М., 1975.

    22 См.: Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961,36, pp. 112-127.

    23 См.: Пенроуз P. Новый ум короля. М., 2002, Penrose R. Shadows of the Mind. L., 1993.

    24 См. материалы этой дискуссии в журнале PSYHE выпуски 1995-96 г.г.

    Большое значение для оценки возможности создания интегрального искусственного интеллекта имеет, как мы полагаем, придуманный американским философом Дж. Сёрлом мысленный эксперимент, известный как «аргумент китайской комнаты ». Сёрл задался вопросом: будет ли машинный эквивалент человеческого интеллекта действительно обладать такими психическими функциями, как понимание, чувственное восприятие, мышление и убедительно показал, что на этот вопрос следует ответить однозначно отрицательно (независимо от степени совершенства предполагаемой системы машинного интеллекта). Машина в любом случае будет лишь чисто внешним образом имитировать понимание, восприя^йе и мышление, ничего на самом деле не понимая, не воспринимая и не мысля.

    Геделевский аргумент» и «аргумент китайской комнаты» - $то два важных аргумента, ставящих серьезным образом под сомнение й&змож-ность полноценного машинного моделирования человеческого мышления. Но требуется философское прояснение смысла этих аргументов, которые сами по себе носят не философский, а скорее логико-математический характер.

    Существенный недостаток современных дискуссий о возможности или невозможности искусственного интеллекта - в них, как правило, очень мало используется тот богатый пласт идей, который был накоплен в философии сознания и философии интеллекта. Здесь нужно выделить две важные проблемы, которые широко обсуждались философами, но пока еще не вошли в круг представлений и интересов специалистов в области искусственного интеллекта. Это, во-первых, проблема уровневого строения человеческого мышления и, во-вторых, это психофизическая проблема.

    В первом случае, ключевой является идея сложного, многоуровнего устройства человеческого интеллекта, которая разрабатывалась в филосо

    25См.: Сёрл Дж. Разум мозга - компьютерная программа?// В мире науки. 1990. №3. С.7-13. фии начиная с античности. Нельзя сказать, что эта идея полностью игнорируется в философской литературе, посвященной проблематике искусственного интеллекта. Существует достаточно большое число работ, в том числе монографий, посвященных сопоставлению человеческого и машинного мышления (в основном это работы 70-х годов), в которых эта идея так или иначе затрагивается26. Недостаток этих и многих других работ видится в том, что в них не используют весь спектр философских разработок в области теории интеллекта и в философии сознания. Кроме того, как правило, уже изначально в работах такого плана присутствует априорная установка на принципиальную разрешимость проблемы машинного моделирования человеческого мышления. Установка, с нашей точки зрения, весьма спорная.

    Мало внимания специалисты по искусственному интеллекту уделяют также психофизической проблеме. Для оценки возможности «переноса» человеческого мышления на новую субстратную основу важно знать, каким образом «естественное» человеческое мышление (и сознание в целом) соотносится с биологическим субстратом -мозгом. К сожалению, проблема «мозг и сознание» далека от окончательного решения. Но философами выработан целый ряд подходов к решению этой проблемы. Существует связь между способом решения психофизической проблемы и оценкой возможности создания искусственного интеллекта. Однако эта связь до сих пор систематически не исследовалась.

    Учитывая отмеченные пробелы в философском анализе искусственного интеллекта, мы и определили приоритетные направления нашего исследования.

    26 См, например Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972, Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973, Виноград Т. Программа, понимающая естественный язык. М., 1976, Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. и др. Из современных работ отметим содержательную статью Дубинский А.Г. К определению понятия "интеллект" И Искусственный интеллект. - 2001. - №4.

    Теоретические и методологические основы исследования. Многоплановость содержания искусственного интеллекта, неоднозначность его толкования влечет за собой разнообразие подходов при решении фундаментальных проблем философии искусственного интеллекта. Поэтому в основу работы положен компаративистский подход и различные методы философского анализа: логический, системный подход, элементы структурного анализа. Теоретической основой исследования являются концепция сложного, многоуровневого строения человеческого интеллекта и идея его несоизмеримости с алгоритмическими системами. Анализируя искусственный интеллект и его связь с естественным интеллектом, мы опирались на работы таких отечественных и западных философов, как И.Ю. Алексеев, B.C. Библер, Дж. Вейценбаум, Б. Геранзон, В.М. Глушков, А.Г. Дубинский, X. Дрейфус, Э.В. Ильенков, X. Патнем, Р. Пенроуз, Д.А. Поспелов, С. Прист, Г. Райл, Р. Рорти, Дж. Сёрл, М. Таубе, Дж. Чалмерс и др.

    Цель и задачи исследования. Основной целью настоящего исследования является всесторонний философский анализ проблемы возможности создания «интегрального» искусственного интеллекта, т. е. создания искусственных систем, эквивалентных по своим функциональным, поведенческим возможностям человеческому интеллекту.

    Для достижения этой цели необходимо решить следующие задачи:

    1. Дать четкую дефиницию понятий «интеллект» и «искусственный интеллект».

    2. Проанализировать историческое становление и современное состояние проблемы искусственного интеллекта.

    3. Исследовать основные подходы к решению психофизической проблемы и дать в этом контексте оценку перспектив создания искусственного интеллекта.

    4. Провести критический анализ основных аргументов «за» и «против» принципиальной разрешимости проблемы создания искусственного интеллекта.

    Объект исследования. Объектом исследования выступает «искусственный интеллект», рассматриваемый как совокупность технических средств, моделирующих различные аспекты «естественного» интеллекта человека.

    Предмет исследования. В качестве предмета исследования выступают проблема принципиальной возможности создания искусственного интеллекта, тождественного по своим функциональным возможностям естественному.

    Новизна диссертационного исследования. Новизна предпринятого исследования связана с самой постановкой и решением проблемы, в особенностях подхода к ней. Диссертация является первым комплексным философским исследованием понятий "интеллект" и "искусственный интеллект", а также проблем создания "интегрального" искусственного интеллекта, в котором:

    1. Впервые продемонстрировано принципиальное различие в понимании сущности интеллекта и искусственного интеллекта в философии и в компьютерных науках.

    2. Дан оригинальный анализ современных концепций, рассматривающих возможность создания искусственного интеллекта и находящихся в связи с практическими разработками в этой области.

    3. Показано, что функционалистский подход, исследуя естественный интеллект с позиций компьютерных наук, интерпретирует мыслительную способность человека, как реализацию алгоритмического вычисления, не принимая во внимание сложности и парадоксы, к которым ведет идея полной алгоритмизации мыслительных процессов.

    4. Получен вывод, что теоретические разработки в области «интегрального» искусственного интеллекта, несмотря на многочисленные успехи в области практического создания конкретных (локальных) интеллектуальных систем, свидетельствуют о принципиальных трудностях на пути создания полноценного искусственного аналога человеческого интеллекта, отвечающего сформированным в философии представлениям о человеческой интеллектуальности.

    Положения, выносимые на защиту. С учетом общих теоретических результатов, полученных в результате исследования, на защиту выносятся следующие основные положения:

    1. Интеллект представляет собой целостный комплекс способностей, включающий здравый смысл, рассудок, разум и интуицию. Наличие интеллекта предполагает способность к теоретическому обобщению, к творческому мышлению, предполагает способность не только самостоятельно решать задачи, но и самостоятельно их ставить, открывать новые проблемные области исследования.

    2. В современных философских и научных исследованиях по искусственному интеллекту последний понимается как способность решать интеллектуальные задачи путем приобретения, запоминания и целенаправленного преобразования знаний в процессе обучения, а также при адаптации к разнообразным обстоятельствам. Понятие интеллектуальности как способности к решению определенных задач не отражает всей многомерности и сложности человеческой интеллектуальной деятельности. Важнейшая характеристика человеческого интеллекта - способность не только решать, но и ставить принципиально новые задачи - не поддается алгоритмической имитации.

    3. Практические трудности создания интегрального искусственного интеллекта определяются принципиальными качественными отличиями человеческого интеллекта от алгоритмических систем. В пользу существования таких качественных отличий свидетельствует ряд аргументов философского и логико-математического характера («геделевский аргумент», «аргумент китайской комнаты» и др.), которые показывают, что человеческий интеллект обладает способностями (ассоциируемыми с понятием «творчество»), выходящими за рамки возможностей любых, сколь угодно сложных алгоритмических систем. Сказанное, однако, не исключает возможности алгоритмического воспроизведения отдельных, не носящих явно творческого характера интеллектуальных функций или интеллектуальной деятельности человека в конкретных предметных сферах (шахматы, решение логических задач заданного уровня сложности, управление конкретным производством).

    4. Натуралистические подходы к пониманию природы сознания и решению психофизической проблемы, наиболее соответствующие идее о возможности алгоритмической имитации человеческого интеллекта (элиминирующие теории и функциональный подход), неудовлетворительны в концептуальном плане, поскольку либо вообще отрицают наличие сознания, либо не способны объяснить, как явления сознания (как феномены внутреннего мира) могут возникнуть в качестве «результата мозговой деятельности». Другие (ненатуралистические) подходы к решению психофизической проблемы: двухаспектный подход (психофизический параллелизм) и дуализм (интеракционизм) явно не совместимы с идеей возможности создания искусственного интеллекта.

    5. Всякая аргументация, основанная на экспериментах в области возможности создания искусственного интеллекта, должна быть подвергнута строгому анализу на теоретико-философском уровне, вне которого любые утверждения о возможности создания искусственного интеллекта или о его успешном моделировании как свершившемся факте не могут быть признаны истинными.

    Теоретическая и практическая значимость исследования определяются обозначенными актуальностью и новизной работы. В результате предпринятого диссертационного исследования философия науки пополнилась новыми положениями и выводами об искусственном интеллекте. Решение основных задач работы: определение понятий интеллекта и искусственного интеллекта, анализ основных проблем, связанных с попытками разработки метода создания искусственного интеллекта - позволило получить в ходе данного исследования результаты, которые в условиях современной техногенной цивилизации могут сформировать адекватное мировоззрение и оценить сущность исследуемых феноменов. Выводы исследования могут также расширить понимание проблем сознания и сформировать положительную установку на возможность создания и применение искусственного интеллекта.

    Результаты данного исследования имеют и методологическое значение для теоретических и практических разработок, относящихся к теме искусственного интеллекта. Материалы могут быть использованы при подготовке курсов: «Философия техники», «Концепции современного естествознания», лекций по отдельным разделам и специальным темам систематического курса философии.

    Апробация результатов исследования. Основное содержание диссертационного исследования отражено в двух статьях и брошюре.

    Главные положения, результаты и выводы, содержащиеся в диссертации докладывались и обсуждались на итоговых научных конференциях в СГУ им. Н. Г. Чернышевского:

    1. Межвузовская научная конференция «Философия науки: идеи, проблемы, перспективы развития» (Саратов, май 2002).

    2. Конференция молодых ученых «Философия: жизненный мир человека» (Саратов, декабрь 2002).

    3. Межвузовская научная конференция «Человек в глобальном мире» (Саратов, декабрь 2003). Структура работы. Диссертация состоит из введения, двух глав, четырех параграфов, заключения и библиографического списка литературы.

    Заключение диссертации по теме "Философия науки и техники", Быковский, Игорь Александрович

    ЗАКЛЮЧЕНИЕ

    Анализируя основные аргументы, выдвигаемые против искусственного интеллекта, рассматривая данные о многоуровневом строении человеческого интеллекта, а также оценивая реальное положение дел в области компьютерной имитации человеческого мышления, мы пришли к выводу: полная машинная имитация человеческого интеллекта, по всей вероятности, принципиально не возможна. Здесь уместно процитировать Д.Ф. Араго, который говорил: «Тот, кто говорит «невозможно» вне чистой математики, тот не понимает своего предмета». Поэтому наше заключение и содержит оговорку «по всей видимости». История науки говорит нам о том, что любые, сколь угодно убедительные и обоснованные теоретические заключения могут быть опровергнуты новыми, неожиданными фактами. Поэтому нельзя априори исключить, что интегральный искусственный интеллект, равный по возможностям человеческому, все же когда-нибудь будет создан - вопреки всем теоретическим запретам. В этом случае нам придется существенным образом пересмотреть привычные для нас способы теоретической аргументации.

    Учитывая сказанное, примем более осторожную формулировку нашего заключения: идея возможности создания машинного аналога человеческого интеллекта не представляется в настоящее время в достаточной степени теоретически и эмпирически обоснованной. Напротив, существует ряд весьма убедительных аргументов, которые указывают на существование принципиального различия между интеллектом человека и любыми, сколь угодно сложными «интеллектуальными» алгоритмическими системами.

    Следует ли отсюда, что исследования в области искусственного интеллекта нужно свернуть? Нет, конечно. Мы не можем искусственно воспроизвести человеческий интеллект в целом, но вполне можем воспроизвести отдельные его функции и имитировать его действие в ограниченных предметных сферах. Исследования в этих направлениях уже сейчас дают ощутимый экономический эффект, приносят реальную пользу человечеству. Все, чего человек реально достиг, все конкретные результаты его творчества в той мере, в какой мы их способны понять и объяснить - вполне могут быть представлены в виде алгоритмов и, таким образом, могут быть «пересажены» в «машинный ум» (об этом, в частности, убедительно говорят успехи шахматных программ). Но человек всегда способен пойти дальше, придумать что-то новое, небывалое, т.е. способен к подлинному творчеству, чего никак нельзя сказать о машине.

    Создать машину, способную к творчеству, т.е. такую машину, которая бы действительно создавала что-то принципиально новое, а не копировала или компилировала бы уже открытые приемы и методы работы, видимо, принципиально не возможно. Сама идея творчества противоречит алгоритмическому подходу: творить - это и значит действовать не по правшам. «Правил творчества» нет и быть не может (хотя были попытки и творчество представить в виде алгоритма).

    Польза от исследований в области искусственного интеллекта не ограничивается только лишь экономической выгодой. Если верно заключение о невозможности имитации функции человеческого интеллекта каким-то альтернативным по отношению к человеческому мозгу способом, то отсюда следует, что попытки создания искусственного интеллекта, если они окажутся успешными, помогут нам в конечном итоге понять нечто важное относительно природы нашего сознания и нашего ума. Ведь эти попытки, с этой точки зрения, могут быть успешными только в том случае, если нам удастся раскрыть (или угадать) механизм человеческого мышления и воспроизвести его каким-то искусственным путем. Но здесь необходимо учитывать тот факт, что полное понимание того или иного явления предполагает возможность его алгоритмического описания. Предполагаемая «неал-горитмизируемость» сознания исключает его полное и исчерпывающее описание и, соответственно, исключает полное и исчерпывающее понимание «сущности сознания», что, однако, само по себе не исключает возможности его искусственного воспроизведения.

    Неалгоритмизируемость» сознания не означает, однако, что исследование человеческого сознания и мышления принципиально не возможно. Просто никакое описание, никакая теория сознания и мышления не сможет полностью исчерпать предмет исследования, и, таким образом, задача исследования сознания или интеллекта - это бесконечная задача, поскольку сам предмет - есть нечто бесконечное.

    Именно об этом, по существу, и говорит нам «геделевский» аргумент. Моделирование человеческого мышления предполагает также и моделирование математического мышления. Но согласно теореме Геделя даже математическое мышление не может быть представлено с помощью какой-либо конечной совокупности алгоритмов. При этом никакое расширение исходного списка аксиом нам не поможет. Но последнее как раз и означает, что мышление человека-математика бесконечно превосходит мышление любой сколь угодно сложной машины-математика.

    Используя математическую метафору можно сказать, что естественный и искусственный интеллект соотносятся примерно так же, как бесконечные счетные множества и множества мощности континуума. И те и другие множества - бесконечны. Но это бесконечности разных порядков, бесконечности не сводимые друг к другу.

    Известная теорема Левенгейма-Сколема утверждает, что всякая математическая теория, ориентированная изначально на объекты, имеющие мощность континуума, истинна, также, и для некоторой счетной модели. В нашей аналогии это означает, что всякая конкретная интеллектуальная процедура естественного ума может быть переведена на язык алгоритмов. Но, тем не менее, «полный набор» интеллектуальных способностей человека никогда не может быть переведен в форму алгоритма, поскольку континуум все же не изоморфен счетному множеству.

    Отрицательный результат теоретических и практических исследований в области искусственного интеллекта, а именно - констатация нашей неспособности создать полную алгоритмическую модель человеческого интеллекта - будет иметь, помимо всего прочего, и большое позитивное философское и этическое значение. Ведь фактически, мы впервые получим опытное доказательство того, что мы не машины! Для философии сознания это будет означать, что сознание следует мыслить как нечто незамкнутое, открытое в бесконечность. В этики - этот результат даст нам эмпирическое доказательство того, что мы подлинно свободны, обладаем свободой воли, и, следовательно, полностью ответственны за свои поступки.

    Список литературы диссертационного исследования кандидат философских наук Быковский, Игорь Александрович, 2003 год

    1. Алексеева И.Ю. Знание как объект компьютерного моделирования. // Вопросы философии, 1987, №3. С. 42-49.

    2. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // Философия науки и техники, 1991, №9. С. 44-53.

    3. Амосов A.M. Искусственный разум. Киев, 1969. С. 122.

    4. Анисов A.M. ЭВМ и понимание математических доказательств // Вопросы философии, 1987, №3, С. 29-40.

    5. Анохин П.К. Избранные труды: Философские аспекты теории функциональной системы. М., 1978. С.113.

    6. Антипенко Л.Г. Проблема неполноты теории и ее гносеологическое значение. М., 1986. С. 167.

    7. Аристотель. Метафизика. М., JI., 1934.С. 345.

    8. Армер П. О возможностях кибернетических систем. // Таубе М. Вычислительные машины и здравый смысл. М., 1964. С. 275.

    9. Берг А.И. Информация, управление, интеллект. М., 1976.С. 374.

    10. Ю.Бергсон А. Материя и память.// Собрание сочинений.Т. 1., 1992. С.203.

    11. Библер B.C. Мышление как творчество. М., 1975. С.275.

    12. Бирюков Б.В. О возможностях искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С. 106.

    13. Бруно Д. Диалоги. М., 1949. С.291.

    14. М.Бруно Д. О героическом энтузиазме. М., 1953. С.93.

    15. Будущее искусственного интеллекта. Ред.: Карл, Левитин, Поспелов, Хорошевский. М., Наука, 1991.

    16. Быковский И.А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.

    17. П.Валиев К. А. Квантовые компьютеры: можно ли их сделать большими? УФН, 169,(6), 691 694 (1999).

    18. Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 340.

    19. Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 120.

    20. Винер Н. Кибернетика и общество. М. ИЛ, 1958.С.270.

    21. Виноград Т. Программа, понимающая естественный язык.М.,1976. С.230.

    22. Витгенштейн Л. Философские работы. М., 1994. С. 174.

    23. Гаврилов А.В., Канглер В.М. Использование искусственных нейронных сетей для анализа данных. // Сб. научн. трудов НГТУ. Новосибирск: Изд-во НГТУ, 1999. - № 3(16). С. 78- 105.

    24. Геранзон Б. Практический интеллект// Вопросы философии, 1998, №6. С. 42-49.

    25. Глушков В. М. Кибернетика и искусственный интеллект. Кибернетика и диалектика. М.,1978. С. 162-168.

    26. Гоббс Т. Избр. Произведения: в 2 тт. М., 1965. Т.2. с. 380.

    27. Гольбах П. Избранные произведения: В 2 т. М., 1963., т.1., С. 164.

    28. Грановская P.M., Березкина И.Л. Интуиция и искусственный интеллект. Л., 1991. С. 242.

    29. Гурова Л. Л. Психологический анализ решения задач. Воронеж, 1976, С. 112.

    30. Гуссерль Э. Феноменология как строгая наука. Новочеркасск, 1994. С.429.

    31. Дрейфус X. Чего не могут вычислительные машины: Критика искусственного разума. М., 1978. С.258.

    32. Дубинский А.Г. К определению понятия "интеллект" // Искусственный интеллект. 2001. - №4. С. 72-79.

    33. Дубровский Д. И. Информация, сознание, мозг. М., 1980. С.1 58.

    34. Дубровский Д. И. Психические явления и мозг. М., 1971. С.275.

    35. Дубровский Д.И. Психика и мозг результаты и перспективы исследований // Мозг и разум. М., 1994. С. 148.

    36. Ефимов Е.И. Решатели интеллектуальных задач. М., 1982. С. 143. 37.3ахарченко В.М., Скроцкий Г.В. Как создать оптический «мозг»//

    37. Кибернетика, дела практические. М.,1987 С. 124.

    38. Иваницкий А. М. Сознание: Критерии и возможные механизмы. // Мозг и разум. М., 1994. С.113- 120.

    39. Иванов Е. М. Материя и субъективность. Саратов. 1998. С.70.

    40. Иванов Е.М. К вопросу о «вычислимости» функции сознания // Topos Noetos. 2000.(2). С. 45- 79.

    41. Иванов Е.М. Материя и субъективность. Саратов, 1998. С.112.

    42. Ильенков Э.В. Диалектическая логика. М., 1974. С. 136.

    43. Кант И. Критика чистого разума. Избранные произведения. Соч. в 6 т., т. 3. М.1964. С.321.

    44. Касымжанов А.Х., Кельбуганов А.Ж. О культуре мышления. М., 1981. С.46.

    45. Клике Ф. Пробуждающееся мышление: У истоков человеческого интеллекта. М., 1982. С.285.

    46. Кондаков Н.И. Логический словарь-справочник. М., 1975. С.203

    47. Криницкий И.А. Алгоритмы вокруг нас. М., 1984. С. 136.

    48. Кругликов Р.И. «П.В. Симонов. Созидающий мозг. Нейробиологические основы творчества // Вопросы философии, 1994, №3. С. 65- 79.

    49. Кузин JI. Т. Основы кибернетики, т. 2., С. 415.

    50. Кушнир Г. А. Системы искусственного интеллекта. Лекция., М. 2001.С.122.

    51. Лекторский В.А. Субъект, объект, познание. М., 1980. С.230.

    52. Литвинова А.Л. Роль интуиции в научном познании // Философия о предмете и субъекте научного познания / Под ред. Э.Ф. Караваева, Д.Н. Разеева. СПб., 2002. С. 140-143

    53. Лосский И.О. Чувственная, интеллектуальная и мистическая интуиция. М., 1995. С. 476.

    54. Марголис Дж. Личность и сознание. М., 1986. С. 274.

    55. Милютин Ю.Е. Здравый смысл и концепция вкуса Т. Рида // Эстетика сегодня: состояние, перспективы. Материалы научной конференции. 2021 октября 1999 г. Тезисы докладов и выступлений. СПб., 1999. С. 4356.

    56. Молчанов В.И. Время и сознание. Критика феноменологической философии. М., 1988. С. 138.

    57. Найсер У. Познание и реальность. М., 1981. С. 178.

    58. Николай Кузанский Сочинения в 2-х т. М., 1980. С. 479.

    59. Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973.С. 236.

    60. Новая философская энциклопедия. В 4 томах. Т. 2, М., 2001. С. 590.61 .Новая философская энциклопедия. В 4 томах. Т. 4, М., 2001. С. 590.

    61. Патнем X. Философия сознания. М., 1999.С. 425.

    62. Пахомова Е. П., Сусин П. В. Устройство распознования речевых сигналов. // тез. докл. юбил. конф. ученых Кур. Политехи. Ин-та, (Курск, 1994).-Курск, 1994. С. 78.

    63. Пенроуз Р. Новый ум короля М., 2003. С.183.

    64. Пенроуз Р. Новый ум короля. М., 2003.С456.

    65. Петров С. Подходы и теории отражения в когнитивной психологии.// Философские науки. 1991. №2. С.61-73.

    66. Платон. Диалоги. М., 1986. С. 326.

    67. Платон. Соч.: в 3 т. М., 1968. Т. 1. С. 219.

    68. Пойа Д. Как решать задачу. М., 1959. С. 186.

    69. Пойа Д. Математическое открытие. М., 1970. С143. 71 .Поппер К. Логика и рост научного знания. М.: Прогресс, 1983. С. 107.

    70. Поспелов Д.А. Профессионально и проблемно ориентированные интеллектуальные системы// Кибернетика, перспективы развития. М., 1981. С.84.

    71. Поспелов Д.А. Семиотические модели в управлении// Кибернетика, перспективы развития. М., 1981. С.72.

    72. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту. М., Наука, 1982. С. 184.

    73. Прист. С. Теории сознания. М.: Идея- Пресс. 2000. С 287.

    74. Райл Г. Понятие сознания. М.,2000. С. 179.

    75. Растригин Л.А. Вычислительные машины, системы, сети. М., 1982. С.223.

    76. Роджерс X. Теория рекурсивных функций эффективная вычислимость. М., 1972. С. 142.

    77. Рорти Р. Философия и зеркало природы. Новосибирск. 1997. С.187.

    78. Сахаров Д. Неизбежность нейробиологии // Знание сила. 1984. №10. С.28.

    79. Серл Дж. Разум мозга компьютерная программа?// В мире науки. 1990. №3. С.7-13.

    80. Словарь современного русского языка. М., 1956. С. 736.

    81. Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989. С. 147.

    82. Сотник С.Л. Конспект лекций по курсу «Основы проектирования систем искусственного интеллекта» М, 2001. С. 134.

    83. Сперри Р.У. Перспективы менталистской революции и возникновение нового научного мировоззрения //Мозг и разум. М., 1994. С.20-44.

    84. Спиноза Б. Избранные произведения: В 2 т. М., 1957. Т.1, с. 356.

    85. Тит Лукреций Кар. О природе вещей. М., 1983. С. 138.

    86. Толковый словарь/ Под ред. С.И. Ожегова. М., 1972. С.232.

    87. Тьюринг А. Может ли машина мыслить? М., 1960. С. 157.

    88. Тюхтин B.C. Соотношение возможностей естественного и искусственного интеллектов//Указ. Соч.М., 1973. С. 193.

    89. Уинстон П. Искусственный интеллект. М., 1980. С.130.

    90. Урсул А.Д. Филдософия и общенаучный характер проблемы искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С.114.

    91. Фогель JL, Оуэне А., Уолш М. Искусственный интеллект и эволюционное моделирование. М., 1969. С.280.

    92. Фрагменты ранних греческих философов. 4.1. От эпических космогоний до возникновения атомистики. М., 1989. С.191.

    93. Франк C.J1 .Предмет знания // Франк СЛ. Предмет знания. Душа человека. СПб., 1995. С. 572.

    94. Хилл Т.Н. Современные теории познания. М., 1965. С. 179.

    95. Шалютин С.М. Искусственный интеллект: Гносеологический аспект. М., 1985. С. 479.

    96. Штумпф К. Душа и тело // Новые идеи в философии. №8.1913. С. 285.

    97. Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972. С. 289.

    98. Юм Д. Сочинения: В 2 т. М., 1965. Т.1. С. 746.

    99. Ярвилехто Т. Мозг и психика. М., 1992. С.256.

    100. Anderson A.R. Mind and Machines. N.Y. 1964. P. 132.

    101. Armstrong D.M. Materialist Theory of Mind. L., 1969. P.235.

    102. Artificial intelligence as science and artificial intelligence as engineering/ Narasimhan R. // Curr. Sci. 1993. - 64, №6. - P. 361-365.

    103. Baars B. In the theatre of consciousness: the workspace of the mind, NY, 1997. P.321.

    104. Baars В. In the theatre of consciousness: the workspace of the mind, NY, 1997. P. 345.

    105. Baars B. J. Can Physics Provide Theory of consciosness. // PSYCHE, 1995., 2(8). P. 36-57.

    106. Block N. On a confusion about a function of consciousness, 1994, MS; P.223.

    107. Bock J.K. Towards a cognitive psychology of syntax: Information processing contributions to sentance formulation // Psychological Review, 1982, 89, P.l-47.

    108. Bostrom N. How long before superintelligence? // Int. Jour, of Future Studies, 1998, vol. 2. P. 134.

    109. Chalmers D.J. Facing Up to the Problem of Consciousness // Journal of Consciousness Studies, 2 (3), 1995, P.200 219;

    110. Chalmers D.J. Mind, Machines, and Mathematics // PSYCHE, 1995, 2(9).

    111. Dennett D. Consciousness Explanded. Boston, 1991. P. 14-37.

    112. Feigle H. The "Mental" and the "Physical". Minneapolis, 1976. P.l 68.

    113. Fodor J.A. The Mind-Body Problem // Sci. Amer., 1981 .№1.

    114. Gray J. A. The content of consciousness: a neuropsychological conjecture // Behavioral and Brain Sciences, 1995, 18(4), P.659-722;

    115. Hameroff S, Penrose R. Orchestrated Reduction of Quantum Coherence in Brain Microtubules: A Model of Consciousness //Toward a Science of Consciousness. The First Tucson Discussions and Debates. Tucson. 1996. P.l14.

    116. Holender D. Semantic activation without conscious identification in dichotic listening, parafoveal vision, and visual masking // Behavioral and Brain Sciences, 1986, 9, P. 1-66.

    117. Insert- model based microrobot with elastic hinges/ Suzuki Kenji, Shimoyma Isao // J. Microelectromech. Syst.-1994.- 3, №1 .-P. 4- 9.

    118. Kahneman D., Treisman A. Changing views of attention and automaticity // Varieties of Attention, 1984, Academic Press. P. 123.

    119. Kosugi Makoto// Denshi joho tsushin gakkai ronbunshi. D2. Trans. Inf. And Commun. Eng. D2. 1993.- 76, №6.-P. 1132-1139.

    120. La Berge D. Automatic information processing: A review // Attention and Perfomance, 1981,9, P.173-186.

    121. Lewis J.L. Semantic processing of unattended messages using dichotic listening // Jornal of Experimental Psychology, 1970, 85, P.220-227.

    122. Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961, 36, P. 112127.

    123. Maudlin T. Between the Motion and the Act // PSYCHE, 1995, 2(2)

    124. McCullough D. Can Humans Escape Godel? // PSYCHE, 1995, 2(4); McDermott D. Penrose is Wrong // PSYCHE, 1995, 2 (2).

    125. Mitsubishi Electronic develops high precision image processing system for face recognition// JIPDEC INF. Quart. 1994. - №96. - P.37- 38.

    126. Nerual network learning control of robot manipulators using gradually increasing task difficulty/ Sanger Terence D. // IEFF Trans. Rob. And. Autom.- 1994. -10. №3.- P.323- 333.

    127. Oakley A.D., Eames L.S. The plurality of consciousness // Brain and mind, 1985, Methuen,P.217-251.

    128. Penrose R. Beyond the Doubting of Shadow // PSYCHE, 1996, 2 (23). P.41-63.

    129. Penrose R. Shadows of the Mind. L., 1993. P.321.132. Psyche, 1996,2(23).

    130. Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9).

    131. Schacter D.L. Implicit memory: History and current status // J. of Experimental Psychology: Learning,Memory and Cognition, 1987,13, P. 501-518.

    132. Shanon В. The function of consciousness // Toward a science of consciousness. The first Tucson discussion and debates, Tucson,!996. P.376.

    133. Shor P.W. Algorithms for Quantum Computation: Discrete Log and Factoring // Proceedings of the 35th annual Symposium on the Foundations of Computer Science. IEEE. Computer Society Press. 1994. P. 124.

    134. Simon H.A., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958. P.423.

    136. Some methodological aspects of machine learning/ Boticario J. G., Mira J. // Cybern. And Syst. 1994. -25, №2. - P.233- 258.

    137. Stapp H.P. Why Classical Mechanics Cannot Naturally Accommodate Consciousness bat Quantum Mechanics Can // Psyche. 2 (21). 1996. P.234-264.1A1. The current approaches in pattern recognition/ Kerka Jiri I I Kybernetika. -1994.-30. №2.-P. 159-15.

    138. Treisman A.M., Squire R.,& Green J. Semantic processing in dichotic listening? A replication // Memory and Cognition, 1974,2, P.641-646.

    139. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.

    140. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.

    Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.