Difficulties of Artificial Intelligence Project
Table of contents
Share
QR
Metrics
Difficulties of Artificial Intelligence Project
Annotation
PII
S207751800000077-3-1
Publication type
Article
Статус публикации
Published
Authors
Andrey Alekseev 
Affiliation:
Address: Russian Federation, Moscow,
Abstract
Methodology and applied methods for creating models of societies dwell on parameters for interacting agents. «Love», «power», «money», «truth» and other socially coded constituencies of «inter-subject» inter-agent relations influence both the way in which agents are represented as personalities, and the process of artificial personality creation. Therefore, an urgent issue is the study of artificial intelligence topic in the course of artificial society problem. The above issue was outlined in the very development of philosophy for artificial intellect in the middle of the 20th century. It was particularly reflected in the search for an answer to the question: «Can computer become a personality?» This question began to be actively discussed at least 15 years ago at symposiums and conferences, and in many articles and publications. A special field of inter-disciplinary research, called «artificial intelligence project» emerged, as well. The main purpose of this paper is to acquaint the reader with this project, as it is usually not mentioned in the Russian philosophic science. Another goal of the paper is to outline difficulties and problems, which arise within the study of «personal» abilities of computer systems.
Keywords
artificial intelligence, artificial intelligence project, Turing test, interdisciplinary research
Received
05.04.2008
Date of publication
30.05.2008
Number of purchasers
3
Views
2447
Readers community rating
0.0 (0 votes)
Cite Download pdf
Additional services access
Additional services for the article
1

Введение. Проблематика искусственных обществ (ИО), представленная на страницах журналов JASSS1 и отечественного журнала «Искусственные общества»2 раскрывает широкие перспективы компьютерного моделирования культурных, политических, социальных, экономических, моральных и других аспектов общественной жизни. Методология и конкретные методики построения моделей общества задаются параметрами взаимодействующих агентов. «Любовь», «власть», «деньги», «истина» и другие социокодовые конституенты «интерсубъективных» межагентных связей обусловливают репрезентацию агентов в форме личностей и собственно построение искусственных личностей. Актуальным становится изучение в контексте проблематики искусственного общества темы искусственной личности. Данная тема обозначилась ещё в период становления философии искусственного интеллекта в середине XX в. в поисках ответа на вопрос «Может ли компьютер стать личностью?». Этот вопрос стал оживлённо обсуждаться по крайней мере пятнадцать лет назад на симпозиумах, конференциях, в крупных статьях и книгах. Обозначилась область междисциплинарных исследований, получившая название «проект искусственной личности». Цель данной работы состоит в знакомстве с данным проектом, так как он не упоминается в отечественной философской науке. Другая задача – обозначить трудности и проблемы, которые возникают при изучении «персонологических» способностей компьютерных систем.

1. The Journal of Artificial Societies and Social Simulation (JASSS) http://jasss.soc.surrey.ac.uk/JASSS.html

2. Ежеквартальный Интернет – журнал «Искусственные общества». Лаборатория искусственных обществ, >>>>
2

Возникновение проекта во многом объяснимо факторами общественной жизни – сегодня сложные интеллектуальные информационно-технические системы невозможно рассматривать в сугубо техническом плане, они приобрели социокультурное, человекомерное измерение. Наличные и перспективные когнитивно-компьютерные системы рассматриваются в контексте социальных ценностей, мировоззренческих ориентиров, моральных императивов, правовых норм, эстетических канонов и иных составляющих духовной сферы. Стало настоятельным требование постнеклассической переориентации методологии изучения, построения и развития сложных систем, предложенное в отечественной философской науке3. Об этом, в частности, говорил академик В.С. Стёпин на одном из заседаний постоянно действующего семинара «Философско-методологические проблемы искусственного интеллекта» (31 октября 2007 г.), организованного Научным Советом РАН по методологии искусственного интеллекта. Однако в большей мере возникновение проекта искусственной личности обусловлено внутренними технологическими факторами, т.е. достижениями искусственного интеллекта. От моделирования чисто интеллектуальной деятельности осуществлён системологически закономерный переход к моделированию сознания. В свою очередь когнитивно-компьютерные модели сознания рассматриваются в роли концептуального и реализационного базиса персонализации интеллектуальных информационных систем4.

3. Степин В.С. Научная рациональность в гуманистическом измерении. // В кн. О человеческом в человеке/ Под общ.ред. И.Т.Фролова – М., 1991. – 384 с.

4. Алексеев А.Ю. Гуманизм, персонализм и информатика (к общетеоретическим основам моделирования искусственной личности) // журнал «Здравый смысл», 1998. № 3/7, С. 52-56
3

Определение искусственной личности. Искусственная личность (ИЛ) – это когнитивно-компьютерная система, которая: 1) обладает «квазисознанием», т.е. функциональным подобием человеческой субъективной реальности; 2) функционально, поведенчески и/или физически неотличима от человеческой личности.

4

Первый критерий ИЛ поддерживается, в основном, сторонниками сильного ИИ. Они считают, что для реализации сложной самоорганизации компьютерной системы и адаптивного поведения в условиях динамики внешней и внутренней среды необходимо выделение в архитектуре системы специального блока «квазисознания» (иногда употребляется термин «псевдосознание»), роль которого соразмерна роли сознания в жизни сознательного существа. Этот блок должен осуществлять проективные, интроспективные, квалиативные и пр. отношения с внешней и внутренней средой системы. Данный критерий правомочен в контексте парадигмы компьютационализма, которую иначе называют «функционализмом машины Тьюринга», «функционализмом искусственного интеллекта», «вычислительной теорией сознания». Правдоподобие предложенного критерия, однако, шатается из-за многочисленных шагов редукции: персональное редуцируется к ментальному; ментальное – к интеллектуальному; интеллектуальное – к структурно-функциональной архитектуре компьютера. Формальные зависимости интеллектуальной деятельности, образуемые в отношениях между когнитивными и компьютерными компонентами, задаются посредством вычислительных элементов, операций и функций. Каузальные зависимости данных отношений находят наиболее общее выражение в реализационных аспектах машины Тьюринга. Вычисление понимается расширенно – объединяются два подхода: репрезентативный, моделирующий данные и знания предметной области и коннекционистский, моделирующий динамику нейральной системы. Полученные при этом интегральные репрезентативно-коннекционистские кодовые структуры операционализируются средствами квазиалгоритмической обработки. В результате многошаговой редукции получаем компьютационалистскую формулировку проекта ИЛ: личностное (персональное) суть квазиалгоритмическое вычисление.

5

Во втором критерии ИЛ, который отстаивают сторонники слабого искусственного интеллекта, показателем «неотличимости» естественной и искусственной личностей выступает способность системы пройти полный тест Тьюринга (ТТ).5 В этом тесте, помимо вербально-коммуникативной, перцептивно-моторной, анатомо-физиологической и даже (в некоторых разновидностях ТТ) микрофизической неотличимости искусственной и естественной систем, всесторонне учитываются поддающиеся внешнему наблюдению показатели духовной сферы деятельности личности, т.е. персонологические параметры. К ним относятся «смысл», «свобода», «любовь», «ответственность», «право», «творчество», «красота» и др. Правдоподобие второго критерия также, как и первого, проблематично. Здесь особенно не ясна номическая связь между внутренним миром человека и внешними его проявлениями. С такой проблемой почти век назад столкнулся бихевиоризм. Несмотря на очевидные заслуги бихевиоризма в устранении метафизики ментальных сущностей очевидны его методологические просчёты, выявленные в ходе мощной критики правомочности метода оценки сознательной деятельности исходя из наблюдений за действительным поведением и из предположений возможного поведения.

5. Алексеев А.Ю. Возможности искусственного интеллекта: можно ли пройти тесты Тьюринга // В кн. Искусственный интеллект: Междисциплинарный подход. Под ред. Д.И. Дубровского и В.А. Лекторского. – М.: ИИнтеЛЛ, 2006. – 448 с. – С. 223-243
6

В таких условиях – условиях проблематичности критериев оценки компьютерных систем как систем искусственной личности развиваются современные проекты.

7

Многообразие проектов искусственной личности. Можно показать, что история философии искусственного интеллекта – это история обсуждения возможностей компьютерной реализации персонологических параметров. Достаточно вспомнить полемический стандарт А. Тьюринга по поводу построения мыслящих машин (1950 г.)6 – совокупность аргументов и контраргументов в решении «основного вопроса» философии искусственного интеллекта «Может ли машина мыслить?». Эта совокупность названа «стандартом» по причине придания формы и отчасти содержания современным дискуссиям в области философии искусственного интеллекта. В «стандарт» вошли аргументы и контраргументы явно не инженерно-технического плана: теологический, антисциентистский, креационистский, «от первого лица», «от другого сознания» и даже экстрасенсорный.

6. Turing, A. (1950), 'Computing Machinery and Intelligence', Mind 59(236), pp. 433–460.
8

С начала 1990-х гг. выделяются следующие крупные проекты ИЛ: 1) OSCAR Дж. Поллока, сформулированный в рамках «универсальной теории рациональности» с её приложениями для построения искусственных рациональных агентов («артилектов»)7; 2) проект «человекоподобных агентов» А. Сломана, призванный реализовать широкий спектр персонологических параметров, например, «любовь», «свободу»8; 3) проект гуманоидных роботов КОГ, в котором Д. Деннетт усматривает апробацию собственной теории множественных набросков, где персональное возникает из сложного сочетания безграничной серии нарративов, а личность и социум – это субстанциональные системы бесчисленных роботов, в которых «ментальное» представляется компонентой функциональной самоорганизации9. В этих проектах предлагаются концептуальные, логико-математические, программные решения. Нам интересен методологический уровень осмысления путей реализации проектов ИЛ.

7. Серёдкина Е.В. Общая теория рациональности и артилекты в проекте OSCAR Дж. Поллока. // Философско-методологические проблемы искусственного интеллекта: материалы постоянно действующего теоретического междисциплинарного семинара. Под ред. Е.В. Серёдкиной. – Пермь: Изд-во Перм.гос.техн. ун-та, 2007. – 210 с. – С. 108-122

8. Sloman A. What Sorts of Machines Can Love? Architectural Requirements for Human-like Agents Both Natural and Artificial (http://www.sbc.org.uk/literate.htm)

9. Деннетт Дэниел С. Виды психики: на пути к пониманию сознания. Перевод с англ. А. Веретенникова. Под общ.ред. Л.Б. Макеевой. – М.: Идея-Пресс, 2004. – 184 с. – С.
9

Типовая архитектура искусственной личности. В основном рассматривается трёхуровневая архитектура когнитивно-компьютерной системы: 1) уровень коннекционистских образов (паттернов), осуществляющий перцептивную обработку данных; 2) уровень первичных репрезентаций, переводящий восприятия в дискретные представления и суждения; 3) уровень вторичных репрезентаций, на котором осуществляется представление представлений (моделирование других моделей представления знаний и моделирование собственной модели). Особо показателен подход А. Сломана. Он задаётся явным вопросом «Какие машины могут любить?» и предлагает архитектуру «любящих» машин, состоящую из 1) реактивного, 2) обдумывающего и 3) рефлективного (метауправляющего) уровней.

10

На реактивном уровне для компьютерной системы (когнитивного агента) характерно следующее: механизмы и память предназначены для решения строго специальных задач; отсутствуют средства создания новых планов и описаний системы; альтернативным структурам присваиваются явные значения; параллелизм и совершенствование технических средств ускоряют работу; многие процессы могут быть аналоговыми (непрерывными); возможны примитивные формы обучения; агенты могут выжить лишь в условиях генетической предопределённости, а трудности возникают, если требуется структурная перестройка; длительному потреблению такие агенты не подлежат, так как быстро обесцениваются и являются по сути одноразовыми.

11

На обдумывающем уровне (the deliberative layer) мотивы задаются явно; разрабатываются планы; создаются и развиваются новые альтернативы; память используется последовательно и повторно; механизмы обучения и полученные результаты в обучении могут быть переведены на реактивный уровень; параллелизм не играет большой роли, так как механизмы обучения позволяют достигать определённой сложности; имеется последовательный доступ к параллельной ассоциативной памяти; имеется интегральное управление; динамичная среда приводит ко многим прерываниям, частым изменениям целей; фильтрация посредством динамически изменяющихся порогов помогает, но не решает всех проблем и др.

12

На рефлективном уровне осуществляется самомониторинг, саморазвитие, самомодификация, самоуправление, так как механизм метауправления улучшает распределение недостаточных ресурсов обдумывающего уровня; в памяти сохраняются события, проблемы, решения из обдумывающих механизмов; продуцируются управляющие паттерны (стратегии принятия решения с учётом определённых условий); исследуются новые стратегии и процедуры и создаются новые способности к генерализации и категоризации понятий; проводится диагностика повреждений посредством диагностики внутренних симптомов; развиваются высокоуровневые стратегии, т.е. процедуры для целей и стереотипов поведения высокого уровня; сталкиваются и сопоставляются точки зрения, осуществляется выбор фокуса внимания. При этом за счёт рекурсивных механизмов не требуется бесконечное мета-мета-мета-…-управление. Cледуя из суждений автора, именно на третьем уровне возникает феномен квазисознания.

13

Здесь раскрыта внутренняя архитектура системы искусственной личности. Немаловажным является вопрос о внешнем, физическом подобии искусственной и естественной систем. Показательными представляются два подхода: 1) Дугласа Лената, автора широко известной программы «Автоматический математик» (1976 г.), который считает, что следует подражать психологическим, социокультурным, лингвистическим, интеллектуальным и др. особенностям личности, а физическое подобие системы – второстепенный, несущественный фактор; 2) подход Родни Брукса, ученика Д. Лената, автора вышеупомянутого робота КОГ и знаменитой версии Kismet, имитирующей мимику человеческого лица. Р. Брукс полагает, что физическая антропоморфность системы (робота) – первичное и необходимое качество его персонологического подобия, ведь все социокультурные понятия, на основании которых будет функционировать робот, предопределены физическими особенностями. Например, согласно принципу Джонсона и Лэйкоффа, «безногому» роботу трудно будет усвоить выражение «Перевернуть с головы на ноги».

14

Подход Д. Лената и Р. Брукса можно обозначить соответственно как экспертный и робототехнический подходы к построению ИЛ.

15

Чтобы сделать дистинкцию между этими подходами более чёткой, рассмотрим иерархию тестов Тьюринга, предложенную С. Харнадом10.

10. Harnad, S., (2001). Minds, Machines and Turing: The Indistinguishability of Indistinguishables. Journal of Logic, Language, and Information. http://www.ecs.soton.ac.uk/~harnad/Papers/Harnad/harnad00.turing.html.
16

ТX0. Это – уровень «игрушечных» ТТ – не полноправных тестов, а лишь некоторых фрагментов, ограниченных как по длине, так и по содержанию. Такие тесты не отвечают исходному замыслу А. Тьюринга. Однако все попытки моделирования интеллекта, известные на сегодняшний день, выше данного уровня не поднялись.

17

ТХ2 – общепринятое понимание ТТ. Именно его и имел в виду А. Тьюринг. Иногда ТТ данного уровня называют тестом «друг по переписке». Длина ТХ2 равна протяжённости человеческой жизни.

18

ТХ3 – это так называемая «роботизированная» версия TХ2. Имеется возможность манипуляции предметами внешнего мира. Процедура идентификации систем, которые проходят данный тест, требует реализации принципа «Вскрытие покажет», т.е. анатомическое исследование системы.

19

TХ4 – это компьютерные системы, неотличимые как в плане ТХ3-неотличимости, так и в плане микрофизической организации системы. Здесь имеет место «тотальная неотличимость» компьютерной системы от человека, включая мельчайшие внутренние нюансы телесного строения. Перспективы такого теста сегодня связываются с нанотехнологиями.

20

Как мы видим, экспертный подход должен пройти уровень ТХ2, робототехнический – уровень ТХ3.

21

В англо-американской философии ИИ в основном преобладает робототехнический подход, согласно которому ИЛ – это обладающий квазисознанием автономный робот. Экспертная методология не признаётся такими авторитетными зарубежными философами ИИ, как Дж. Маккарти11, А. Сломан12. В отечественной же науке, напротив, сложился экспертный подход: ИЛ рассматривается в социально-эпистемологическом контексте междисциплинарных взаимодействий специалистов, в ходе которых формируются данные и знания социокультурного и персонологического содержания. Рассмотрим более подробно эти подходы.

11. McCarthy, John (1995) Artificial Intelligence and Philosophy (http://cogprints.ecs.soton.ac.uk/archive/00000420 )

12. Sloman A. Ibid.
22

Искусственная личность – робототехническая система. ИЛ – это робот, наделённый квазисознанием – т.е. совокупностью, по крайней мере, некоторых персонологических способностей и качеств человеческой личности. Здесь показательна дискуссия по поводу работы Селмера Брингсйорда – «Чем могут и не могут быть роботы» (1992, 1994 гг.)13, продолженная на страницах сайта http://psycprints.ecs.soton.ac.uk (рубрика «Сознание робота»). В работе позитивные утверждения относительно проекта ИЛ сопровождаются обстоятельной критикой. Основной девиз работы звучит так: «В будущем робот будет делать всё то, что делаем мы, но не будет одним из нас» - т.е. не будет сознательным.

13. Bringsjord, Selmer (1994) What Robots Can and Can't be , Psycoloquy: 5,#59 Robot Consciousness (1); http://psycprints.ecs.soton.ac.uk/archive/00000418/#html
23

С. Брингсйорд доказывает, что а) когнитивно-компьютерная технология будет производить машины со способностями проходить всё более и более сильные версии ТТ, однако б) проект ИЛ по созданию машины–личности будет неминуемо проваливаться. В защиту (а) предлагается индуктивный вывод при построении версий ТТ: тьюринговая игра в имитацию наблюдение внешнего вида игроков изучение их сенсомоторного поведения сканирование мозга и пр. (то есть, по сути, прохождение рассмотренной выше иерархии тестов Харнада). В основе доказательства (б) – несостоятельности проекта ИЛ – лежит modus tollens из суждений: (1) «Проект ИЛ»«Личность – это автомат»; (2)«Личность – это автомат»; (3)«Проект ИЛ». Посылка (2) интуитивно апеллирует к наличию у человека и отсутствию у автомата ряда машинно не воспроизводимых персонологических параметров F, к которым относится свободная воля, способность к интроспекции, внутренний проективный опыт «каково быть» ("what it's like to be") и пр. К F относится и способность к компьютерному воспроизводству творческих способностей, которую автор подробно анализирует в ряде предыдущих работ на основе рассмотрения программ генерации художественных и философских произведений. Убедительно доказывается – «компьютер творить не может!»14. Общее заключение следующее: (4) «Личность обладает F»; (5) «Автомат не обладает F»; (6) «Личность не может быть автоматом». С. Брингсйорд достаточно подробно обосновывает невычислимость F, апеллируя к аргументу Гёделя, «Китайской комнате» Дж. Серля, аргументу произвольной множественной реализации Н. Блока и др. Итог таков: «Роботы будут многое делать, однако они не будут личностями».

14. Подход С. Брингсйорда к критике компьютерного творчества явно выражен в аргументе Лавлейс. См. С.Брингсйорд, П.Беллоу, Д.Феруччи. Творчество, тест Тьюринга и улучшенный тест Лайвлейс. Пер.с англ. А. Ласточкина в кн. //Тест Тьюринга. Роботы. Зомби. Перевод с англ. Под ред. А.Ю. Алексеева – М.: МИЭМ, 2006. – 129 с. – С. 62-83 – 120 с. >>>>
24

В полемике по поводу работы С. Брингсйорда наблюдается четыре направления критики и поддержки относительно реализации проекта искусственной личности15:

15. См. дискуссию на сайте http://psycprints.ecs.soton.ac.uk/archive/00000418/ следующих авторов: Barresi, John (1995) Building Persons: Some Rules for the Game; Bringsjord, Selmer (1995) Agnosticism About Neuron-Level Functionalism; Bringsjord, Selmer (1995) Agnosticism Re-Revisited; Bringsjord, Selmer (1995) Are Computers Automata?; Bringsjord, Selmer (1995) Computationalism is Doomed, and We Can Come to Know it; Bringsjord, Selmer (1995) Why Didn't Evolution Produce Turing Test-Passing Zombies?; Bringsjord, Selmer (1996) Artificial Intelligence and the Cyberiad Test; Brown, Marina and O'Rourke, Joseph (1994) Agnosticism About the Arbitrary Realization Argument; Costa, Luciano da Fontoura (1995) Is There More to Personhood Than Computing Theory and Logico-Mathematics?; Hobbs, Jesse (1995) Creating Computer Persons: More Likely Irrational Than Impossible; Korb, Kevin B. (1995) Persons and Things: Massing, Walter (1995) Metaphysical Windmills in Robotland; Mulhauser, Gregory R. (1995) What Philosophical Rigour Can and Can't be; O'Rourke, Marina Brown and Joseph (1995) Agnosticism Revisited; Rickert, Neil W. (1995) A Computer is Not an Automaton; Scholl, Brian (1994) Intuitions, Agnosticism, and Conscious Robots; Tirassa, Maurizio (1994) Is Consciousness Necessary to High-Level Control Systems?
25

I. Проект ИЛ абсурден, так как: 1) метафизические понятия «личность», «свобода воли», «интроспекция» не могут быть предметом эмпирического анализа; 2) нечёткое определение понятия личности, образная иррациональность проекта ИЛ – всё это не заслуживают научного внимания; 3) персонологические параметры логически невыразимы – попытки их логической экспликации непременно сопровождаются ошибками.

26

II. Проект ИЛ неточен, так как: 1) апелляция к интуитивным аргументам разрушает логическую строгость дедуктивных аргументов; 2) нецелесообразно применять дедуктивные умозаключения в качестве метода аргументации (дедукция – не метод, а схема суждений); 3) необходимо чётко формулировать конкретную разновидность функционализма, который лежит в основании проекта ИЛ – нет функционализма «вообще», а есть, к примеру, низко-уровневый функционализм, биологический функционализм и пр.

27

III. Проект ИЛ реализуем, так как: 1) человеческая личность – это всё же автомат, но неклассического типа, т.е. представимый не машиной Тьюринга, а иными, квазиалгоритмическими правилами обработки вычислительных элементов; 2) компьютер вовсе не автомат и кто придерживается противоположного мнения – тому не место в проблематике компьютерного сознания; 3) компьютерная система должна тестироваться природой, а не человеком.

28

IV. Проект ИЛ значим вне зависимости от возможностей его реализации: 1) будет ли создана ИЛ либо не будет создана – не принципиально, главное, что проекты ИЛ выявляют механистические аспекты человеческого сознании; 2) проектирование ИЛ проясняет роль и функции сознания в жизни человека путём постановки вопроса о зомби – о созданиях, не обладающих сознанием, но имеющих все поведенческие способности человека.

29

На наш взгляд, главный вывод по дискуссии в том, что проектирование ИЛ проясняет роль и функции механистических и немеханистических аспектов в человеческой личности.

30

Искусственная личность – экспертная система. Примерно в те же годы, когда осуществлялась обозначенная выше дискуссия, т.е. в середине 1990-х г. в нашей стране отмечался всплеск интереса к проблеме искусственной личности. По заказу Министерства обороны РФ (27 ЦНИИ МО, руководитель – проф. В.В. Деев) были организованы междисциплинарные исследования по внедрению нетрадиционных информационных технологий в системы принятия решений. Исследования базировались на мероприятиях по моделированию «смысла». Проект ИЛ рассматривался как этап эволюции интеллектуальных систем. Если традиционная компьютерная технология характеризуется формулой «данные+алгоритм», технология искусственного интеллекта – «знания+эвристика», то проект ИЛ задаётся формулой – «смысл+понимание». Учитывая крупные наработки отечественных специалистов в области построения экспертных систем, в частности, в семиотическом моделировании способов представления «знаний», в основу рассматриваемого проекта ИЛ была положена экспертная методология. В её рамках специальные методы, воспроизводящие формы процесса «понимания» обеспечивали условия экспликации «смысла», сущностных оснований принимаемых решений. Модель «смысла» фиксировала эти «траектории» в определённым образом кодифицированных массивах информации.

31

Проблеме моделирования «смысла» посвящено много работ. Среди них в отечественной литературе чисто «дисциплинарно» выделяются следующие модели: культурологическая, психологическая, лингвистическая, герменевтическая, риторическая, дискурсивная, семиотическая, поэтическая, иконографическая, ззотерическая, математическая, инженерная, синергетическая, неклассическая и пр.16 Наиболее продуктивным в контексте компьютерной реализации является контекстуальный подход, согласно которому «смысл» – это обладающий параметрами системного единства контекст формализованных «знаний» экспертов. Общетеоретической основой этого подхода являются классические модели «смысла» Г. Фреге (смысл – это выражаемый знаком способ означивания значения) и модификаций этой модели Б. Расселом и Л. Витгенштейном. В анализируемом проекте ИЛ наряду с этим использовались идеи теории репрезентации М. Вартовского. В ней в систематическом единстве рассматривается модель, способы её построения и способы её интерпретации. Эта связь обеспечивает динамику наполнения «смыслового объема» возможными «смысловыми траекториями» в ходе согласования метода и предмета репрезентации. Эксперт как бы погружается в квазиалгоритм построения модели, строит репрезентацию репрезентации.

16. Алексеев А.Ю., Артюхов А.А., Крючков В.Л., Маликова Я.С., Розов М.А. Социокультурные аспекты моделирования «смысла» // Философия искусственного интеллекта. Под ред. В.А. Лекторского и Д.И. Дубровского – М.: ИФ РАН, 2005. – 400 с. – С. 134 – 138
32

Технически модель «смысла» выполнена в виде программно-информационной оболочки над системой представления «знаний». «Смыслообразующими» компонентами выступали категориальные коды «личность», «значение», «смысл», «ценность», «понятие», «действие», «роль», «норма», «умение» и ряд др. Конкретизация и экземплификация этих кодов осуществлялась в рамках парадигмы теоретико-деятельностного подхода. Эксперт должен соотносить полученные «смысловые траектории» с конкретными формализованными «знаниями», непосредственно задействованными в модели принятия решения. Название проекта – «искусственная личность» – оправдывается тем, что «знания» о принимаемых решениях были индексированы персонологическими параметрами, в частности, свободно или принудительно принимается то или иное решение.

33

Апробация экспертного подхода к проектированию ИЛ, осуществлённая в ходе опытной эксплуатации макета, большая часть которого осталась «на бумаге» выявила ряд неудач: методологических, организационных, теоретических и реализационных. Главная методологическая неудача – невозможность построения Теста Тьюринга на персональное. Например, представим ситуацию оценки параметра «свободной воли». Разыгрывается стандартный сценарий принятия решения, ставятся цели, осуществляется следование правилу в соответствии с «чужой» волей (волей разработчика). На рефлективном уровне ИЛ осуществляется генерация новых целей, обоснованная знанием прошлой, текущей и прогнозируемой обстановки. Является ли результат генерации – новая цель – проявлением свободной воли ИЛ? Припишет ли судья из Теста Тьюринга «свободу воли» тестируемой системе?

34

Несмотря на неудачи, был достигнут социокультурный эффект: предложенный инструментарий вынуждал специалистов осуществлять рефлексию над «знаниями», эксплицировать «смыслы» собственных решений и выставлять их для интерсубъективного обсуждения.

35

Расширение поля междисциплинарных исследований в проекте искусственной личности. Очевидно, что робототехнический и экспертный проекты ИЛ дополняют друг друга в плане расширения возможностей интеллектуальных информационных технологий. Если первый декларирует: «Искусственная личность – это робот, наделённый квзазисознанием», то второй утверждает: «Искусственная личность – это экспертная система, оборудованная механизмами ‘смысла’». На наш взгляд экспертный вариант проекта ИЛ по порядку и по значимости должен предшествовать робототехническому. Экспертная система, отвечающая на запросы самого различного содержания, обеспечивает построение вербально-коммуникативного Тест Тьюринга ТХ2. Лишь базируясь на нем, возможно построение и более сложных тестов ТХ3 и ТХ4, необходимые для робототехнического подхода. До изучения того, как робот автономно либо в окружении колонии роботов способен, например, продуцировать «коммуникацию», «волеизъявление», «моральные императивы», «религиозные верования» и пр. следует определиться с операциональными определениями этих понятий.

36

Проекты повышают роль и усиливают значимость междисциплинарного подхода. Собственно и проект искусственного интеллекта уже не мыслим вне поля междисциплинарных исследований психологов, логиков, математиков, лингвистов, нейрофизиологов и др. Проект ИЛ вовлекает специалистов социальных и гуманитарных наук – социологов, политологов, экономистов, искусствоведов, правоведов и др. В нашем проекте ИЛ (в экспертном варианте ИЛ) участвовали даже представители паранауки, хотя от них толку было мало. Приоритетны в проекте ИЛ отнюдь не специалисты в области естественных и технических наук. Исключительно важна роль экспертов в области общественных и гуманитарных наук, именно они вводят в предмет конструирования «смыслы», «ценности», «нормы», «идеалы» и пр. составляющие духовной жизни.

37

Однако представим утопический сценарий – все лучшие умы брошены на реализацию проекта ИЛ, выполнены все необходимые методологические работы по коммуникации, координации, интеграции научного сообщества. Более того, со стороны государства получена безграничная финансово-экономическая поддержка («За искусственную личность платить надо!» – подчёркивал Д. Деннетт17). Будет ли реализован проект искусственной личности? Возможно, но для этого надо преодолеть ряд методологических трудностей, связанных со сложностью предмета исследований. Эти трудности на сегодняшний день представляются не только практически, но и теоретически непреодолимыми. Проблемы инспирированы философией сознания на стыке с исследованиями философии искусственного интеллекта. В ряду этих смежных проблем – проблема построения теста Тьюринга на персональное.

17. Dennett D. C., 1995. The Practical Requirements for Making a Conscious Robot, http://www.ecs.soton.ac.uk/~harnad/Papers/Py104/dennett.rob.html
38

Применительно к проекту ИЛ Тест Тьюринга распадается на два вида: 1) общий тест – по каким вопросам к неизвестной системе X можно определить, личность перед вами или не личность (машина)? 2) частный тест, тест на сознание – по каким вопросам определить обладает ли система сознанием или не обладает.

39

Частный Тест Тьюринга, разработанный для прохождения этих проектов ИЛ, должен включать в качестве оцениваемых параметров сознательные способности и свойства. К этим способностям, как минимум, относится: 1) «ощущение» (sentience), т.е. восприятие мира и реагирование на него в соответствии с различными видами перцептивно-эффекторных возможностей; 2) «бодрствование» (wakefulness), т.е. способность фактически реализовывать некоторые возможности, а не только обладать диспозициями к их осуществлению; 3) «самосознание» (self-consciousness), т.е. не только осведомлённость о чём-то, но и осведомлённость о своей осведомлённости; 4) «аспектуальность» (what it is like), т.е. способность воспринимать мир в соотнесении с собственной позицией «бытия» или, иначе, восприятие среды в соответствии с ответом на вопрос «какого быть?» (например, каково быть летучей мышью, роботом, экспертной системой?).

40

Помимо демонстрации вышеперечисленных способностей, систему можно считать квазисознательной, если судья из Теста Тьюринга приписывает ей то, что она: 1) пребывает в состоянии «осведомлённости о»; 2) обладает квалиа – владеет качественными свойствами конкретной разновидности (ощущает красное, чувствует запах кофе и пр.); 3) пребывает в феноменальном состоянии, которое более структурировано, нежели чем квалиа и обладает определённой пространственной, темпоральной и концептуальной организацией опыта окружающей среды и опыта самого себя; 4) обладает акцессным сознанием (access consciousness) – т.е. доступом к внутриментальным составляющим при управлении речью и действиями (Н. Блок); 5) обладает нарративным сознанием (narrative consciousness) – т.е. выдаёт серию лингвистических выражений, «высказываемых» с перспективы актуальной или виртуальной самости (Д. Деннет); 6) обладает интенциональностью – направленностью своего внимания на предмет сознания, активностью опредмечивания окружающей действительности (Д. Серль).

41

Следует подчеркнуть, что вышеприведённые способности и характеристики «квазисознательности» необходимы, но не достаточны. Несомненно, можно привести длинный список иных характеристик квазисознательного поведения. Проблема полноты сознательных способностей и свойств иначе называется «конъюнктивной проблемой» и ей придаётся большое значение в современных дискуссиях наряду с т.н. «дизъюнктивной проблемой» – проблемой множественной реализации сознательных феноменов на различных субстратах.

42

Методологические проблемы философии сознания принято делить по степени трудности, хотя некоторые это отрицают (см. ниже). Очевидно, что методологическая сложность влияет на поэтапность реализации проекта ИЛ – от решения простых проблем к решению более сложных. Вслед за Д. Чалмерсом выделим лёгкие и трудные проблемы18.

18. В классификации проблем и подходов к их решению используется работа Сюзанны Блэкмор в Blackmore, Susan J. Consciousness : An Introduction. US Edition Published by Oxford University Press, New York, 2004.
43

Лёгкие проблемы– это те, которые затрагивает только операциональные аспекты сознания. Сознание ограничивается следующими феноменами: реакцией на внешние стимулы, отчетами о ментальных состояниях, интегрированием информации когнитивной системой, фокусом внимания, контролем поведения, обучением. По сути, все эти проблемы находят решение в обозначенной выше трёхуровневой организации проекта ИЛ.

44

Трудные проблемы связывают сознание с наличием «субъективного опыта» и самосознания. Ключевой вопрос состоит в объяснении механизмов этих субъективных процессов, как каузально связать с компьютерной архитектурой поведение ИЛ, внешне воспринимаемое судьёй в форме субъективного опыта?

45

По поводу трудной/легкой проблем имеется ряд мнений:

46

1) ТРУДНАЯ ПРОБЛЕМА НЕРАЗРЕШИМА:

47
  1. Уильям Джеймс в 1890 г. как бы предваряя данный ряд рассуждений, писал: «природа в ее непостижимых проектах смешала нас из глины и огня, мозга и знания, эти две вещи существуют, несомненно, вместе и определяют существо друг друга, но как или почему, никакой смертный никогда не узнает»19;
  2. Томас Нагель (1994): «проблема субъективности сложна и безнадежна. Мало того, что мы не имеем никакого решения – у нас нет даже намёка на то, как ментальное объяснить физическим»20.
  3. Колин Макджинн (1999): имеющемуся способу изучения ментального и мозга непреодолимо присущ дуализм. «Вы можете изучать ваши состояния сознания, однако никогда не обнаружите нейроны, синапсы и прочее. Вы можете изучать мозг любого человека от рассвета до заката, однако так и не выявите сознание, которое очевидно для того, мозг которого так грубо рассматривается… Мы «познавательно закрыты» для трудной проблемы – как собака познавательно закрыта для чтения газеты или понимания поэзии. Как бы собака не пыталась, она не будет способна к математике хозяина, её мозг просто-напросто не так устроен. Подобным образом человеческий интеллект не предназначен для того, чтобы понять сознание. Мы можем научиться нервным корреляциям сознательных состояний (это - легкая проблема), однако не сможем понять, как физическое влечёт сознание»21.
  4. Стивен Пинкер (1997): мы можем бесконечно долго пытаться понять то, как работает ментальное, но понимание этого навсегда спрятано за пределами нашего концептуального горизонта»22.

Позицию Т. Нагеля, К, Макджинна и С. Пинкера следует назвать неомистическим подходом – они считают, что проблема сознания на самом деле не разрешима, сознание – непостижимая тайна.

19. Цит. по Blackmore, Susan J. 2003. Consciousness : An Introduction.

20. Nagel, T. (1974) What is it like to be a bat? Philosophical Review 83, 435–50.

21. McGinn, C. (1999) The Mysterious Flame: Conscious Minds in a Material World. New York: Basic Books.

22. Цит. по Blackmore, Susan J. – P. 32
48

2) ТРУДНАЯ ПРОЛЕМА РАЗРЕШИМА ПРИ ВЫРАБОТКЕ НОВОГО ПОНИМАНИЯ ВСЕЛЕННОЙ:

49
  • Давид Чалмерс требует создания новой теории информации и переосмысления с её позиций двухаспектной теории – «двухаспектной теории информации». Информация имеет два аспекта – физический и феноменальный. Поэтому сознательный опыт – это с одной стороны некоторый аспект информационного состояния, а с другой стороны – аспект, заключённый в физической организации мозга.
  • Крис Клэйрк (1995) требует пересмотр фундаментальной физики. Ментальное подобно некоторым явлениям в квантовой физике. Сознание и квантовый эффект – это субъективные и объективные аспекты представления одного и того же.
  • Роджер Пенроуз (1989, 1996): сознание зависит от неалгоритмических процессов – то есть процессов, которые не могут быть выполнены цифровым компьютером или вычислены с использованием алгоритмических процедур. Требуется кардинальный пересмотр отношения ментальное-нейрофизиологическое с квантово-теоретических позиций. Сознательный опыт следует трактовать как качество, обусловленное квантовой последовательностью в микроканальцах нейронов.
50

Позицию данных авторов можно назвать неопанпсихическим подходом, отнологизирующим сознание с позиции атрибутивной трактовки информации. Особенно это характерно для Д. Чалмерса. Однако «подобные взгляды чрезмерно автономизируют категории онтологического и гносеологического, что приводит к ряду теоретических неопределённостей и противоречий» - полагает Д.И. Дубровский23. То есть проблема усложняется, а не упрощается.

23. По поводу различения атрибутивной и функциональной трактовки информации и перспективности второй трактовки для решения проблемы сознания см. Дубровский Д.И. Проблема идеального. Субъективная реальность - М.: Канон+, 2002 – 368 с. – С. 39
51

3) СЛЕДУЕТ ЗАНИМАТЬСЯ ТОЛЬКО ЛЕГКИМИ ПРОБЛЕМАМИ: Ф. Крик, А. Сломан, Дж. Маккарти и большинство когнитивных учёных считают, что изучение сознания – не философская, а научная проблема. Мы приблизимся к более полному пониманию проблемы сознания, если начнём с чего-то простого, например, с теории визуального закрепления, описывающей синхронизацию электромагнитных колебаний для объяснения того, как различные признаки воспринятого объекта связываются в единство в процессе создания перцептивного целого24.

24. Crick, F. 1994. The Astonishing Hypothesis: The Scientific Search for the Soul, London: Touchstone Books.
52

4) НЕТ НИКАКОЙ ТРУДНОЙ ПРОБЛЕМЫ:

53
  • К. О’Хара и Т. Скатт (1996) в специальной работе «Нет никакой трудной проблемы сознания»25, приводят три причины, чтобы игнорировать трудную проблему: а) Нам известно, что такое легкие проблемы. С них и следует начинать; б) Решения легких проблем изменят наше понимание трудной проблемы, таким образом, попытки решить трудную проблему сейчас преждевременны; в) Решение трудной проблемы было бы полезно, если мы могли бы распознать ее как таковую: на данный момент проблема не достаточно хорошо понимается и неясно, какого рода трудность предстаёт перед исследователем.
  • Патриция Черчлэнд (1996) считает, что трудная проблема неверно понята, так как мы не можем заранее предсказать, какие проблемы окажутся легкими, а какие трудными. Откуда мы знаем, что объяснение субъективности более трудно, чем объяснение «легких» проблем? Достаточно ли хорошо определены «трудные» вещи (квалиа, субъективный опыт), чтобы их можно было как-то идентифицировать в роли трудных. Например, мысли – это квалиа или нет?26
  • Дэниел Деннетт (1994) считает так: «даже если бы все легкие проблемы воспроизводства, развития, роста и метаболизма были бы решены, всё равно осталась бы действительно трудная проблема: что такое собственно жизнь. Также и деление проблемы сознания на «легкие» и «трудные» - это отвлекающий фактор, генератор иллюзии (1996). Например, согласно Д. Деннетту нет такой вещи, как «феноменальное». Не потому, что отрицается сознание у людей, а в силу того, что философы неправильно трактуют понятие сознания27.
25. O'Hara, K. and Scutt, T. (1996) There is No Hard Problem of Consciousness. Journal of Consciousness Studies 3(4) pp. 290-302.

26. Churchland, P.S. (1996) The Hornswoggle problem. Journal of Consciousness Studies 3, 402–8 (reprinted in Shear, 1997: 37–44).

27. Цит. по Blackmore, Susan J. 2003. Consciousness : An Introduction. P. 35
54

Позицию этих авторов можно назвать терминологической – правильно определите то, что называется «сознанием» и тогда проблемы либо чётко обозначатся, либо вообще исчезнут.

55

5) ТРУДНУЮ ПРОБЛЕМУ СЛЕДУЕТ РЕШАТЬ. Это – конструктивная позиция. Так полагает Н. Блок. Однако трудную проблему следует дифференцировать для более чёткого понимания предмета исследования. Поэтому предлагается различать сложную и самую сложную (сложнейшую) проблему28.

28. Для раскрытия позиции Н. Блока используется работа В. Вильянуэла Э. Что такое психологические свойства? Метафизика психологии. М.: Идея-Пресс, 2006 – 256 с.
56

Сложная проблема в том, что мы не представляем себе, как феноменальное сознание может быть сведено (редуцировано) к нейрофизиологическим фактам, наблюдаемых при изучении мозговых процессов в связи с субъективно переживаемыми явлениями сознания. Почему нейронная основа некоторого феноменального качества есть нейронная основа именно этого феноменального качества, а не другого феноменального качества или вообще никакого. Проблема объяснения данной связи состоит в объяснительном пробеле между нейронной основой некоторого феноменального качества и самим феноменальным качеством. Д.И.Дубровский по иному интерпретирует подобного рода проблему: «Как объяснить связь явлений сознания (субъективной реальности) с физическими (в частности, мозговыми) процессами, если первым нельзя приписывать физические свойства, а вторые ими по необходимости обладают?»29

29. См. вопросы, сформулированные Д.И. Дубровский для симпозиума «Сознание и мозг», 30 ноября 2007 г., ИФ РАН, г. Москва и представленные на сайте НСМИИ РАН: http://www.scm.aintell.info/default.asp?p0=107
57

Самая сложная проблема– состоит в том, что у нас нет оснований считать искусственную личность невозможной, так как факт прохождения Теста Тьюринга на субъективную реальность может служить основанием для приписывания ей сознания. В свою очередь, физическая реализация, существенно отличная от человеческой сама по себе не является основой для убеждённости в отсутствии сознания, однако у нас нет никакого понятия о том, как доказать наличие или отсутствие сознания у другого существа.

58

Можно показать, что самая сложная проблема принимает формы других фундаментальных для современной аналитической философии проблем: 1) «Проблемы зомби», которая состоит в обосновании мыслимости и возможности (логической, метафизической, натуральной возможности) бессознательных существ, чья физическая структура, внешнее поведение, функциональная организация ничем не отличаются от структуры, поведения и функций сознательных существ (людей); 2) «Проблемы другого» – на каких основаниях другим людям, а также иным биологическим и более широко – физическим – системам можно приписать факт обладания ими сознанием и всего спектра сознательной жизни в аспекте личностных и социальных качеств; 3) Проблема самости (самосознания) – на каких основаниях самому себе можно приписывать сознание.

59

При анализе классификации проблем на сложную и сложнейшую логично предположить, что упущена ещё одна, которую мы назовём «менее сложной проблемой».

60

Менее сложная проблема заключается в расшифровке нейродинамических кодов ментальных феноменов. Как полагает Д.И. Дубровский, имеется два вида задач расшифровки кода: 1) «прямая» задача, когда дан кодовый объект и требуется выяснить информацию, которая в нем содержится и 2) «обратная» задача, когда нам дана определенная информация и требуется установить ее носитель и его кодовую организацию. Такая задача является более трудной. Однако обе эти задача – вполне решаемы. Например, известен метод А.М. Иваницкого, который позволяет по электрической активности мозга определять, какие умственные операции совершает в данный момент человек: мыслит ли он пространственными образами или использует логическое мышление30. Здесь прослеживается решение первой задачи. Для решения обратной задачи следует воспользоваться принципом инвариантности информации по отношению к физическим свойствам её носителя (принципом Д.И. Дубровского)31. Имеется возможность при наличии системы изученных кодовых зависимостей, решить и задачу воспроизводства информации на субстрате, отличном от человеческого мозга, например, в коннекционистско-репрезентативных кодовых образованиях искусственной личности.

30. Иваницкий А.М. Думающий мозг и искусственный интеллект – встречное движение // Труды XXV межрегиональной научно-технической конференции «Проблемы эффективности и безопасности функционирования сложных технических и информационных систем. Ч. 4. – Серпухов: Серпуховский ВИ РВ, 2006 г. – 303 с. – С. 287

31. Дубровский Д.И. Искусственный интеллект и естественный интеллект (к проблеме междисциплинарности). – Там же, С. 276.
61

Решение этих задач крайне важно, требует специального анализа принципа инвариантности информации, в частности, сопоставления этого принципа с аргументом множественной реализации, что призывает изучать редукционистские и антиредукционистские парадигмы реализации ментальных феноменов на различных физических системах – на мозге человека, на мозге других приматов и животных, на «тине» в «черепе» гипотетических марсиан, на кодовых структурах искусственной личности.

62

Выводы: 1) Проект искусственной личности является одним из наиболее перспективных проектов искусственного интеллекта. Он располагается посередине между проектом искусственной жизни, направленном на воспроизводство биологически-эквивалентных форм квазиорганической жизни и проектом искусственного общества, призванного реализовать весь спектр социальной жизни среди искусственных агентов. Для первого проекта он задаёт ориентир создания наиболее высокоорганизованной формы искусственной жизни. Для второго создаёт базис, так как социальное вырастает из взаимодействия персонологически активных искусственных агентов.

63

2) Среди проектов искусственной личности наиболее важным на сегодняшнем этапе является экспертный подход. Об обеспечивает построение теста Тьюринга на персональное. Он требует междисциплинарного объединения специалистов естественных, технических и, в особенности, гуманитарных и общественных наук. В частности, крайне важным является когнитивно-компьютерная проработка этических вопросов.

64

3) Проект искусственной личности следует реализовывать в последовательности решения проблем по мере их усложнения: лёгкая – менее сложная – сложная – самая сложная проблема. Лёгкая проблема вполне успешно решается в когнитивной и компьютерной науке, участие философской науки здесь прослеживается лишь в организации междисциплинарного методологического каркаса, выработки наиболее общего понятийно-категориального аппарата, реализации интегративно-коммуникативных функций. Начиная с менее сложной задачи начинается задача собственно философского анализа, специальных эпистемологических, онтологических, герменевтических исследований в области искусственного интеллекта. Самая сложная проблема применительно к проекту искусственной личности требует привлечения аксиологических, праксеологических и прочих социально-философских исследований.

65

Попытаемся вновь ответить на поставленный в начале вопрос: «Может ли компьютер стать личностью»? Да, может, но на пути реализации проекта искусственной личности очень много трудностей и наисложнейших проблем.

66

Все мы - компьютеры, но можем стать личностями и становимся ими.

Comments

No posts found

Write a review
Translate