Как можно доверять системам искусственного интеллекта? Объективные, субъективные и интерсубъективные параметры доверия.
Как можно доверять системам искусственного интеллекта? Объективные, субъективные и интерсубъективные параметры доверия.
Аннотация
Код статьи
S207751800020550-4-1
Тип публикации
Статья
Статус публикации
Опубликовано
Авторы
Алексеев Андрей Юрьевич 
Должность: Ведущий научный сотрудник кафедры философии
Аффилиация: МГУ им. М.В. Ломоносова
Адрес: Российская Федерация, Москва
Гарбук Сергей Владимирович
Должность: директор по научным проектам
Аффилиация: НИУ ВШЭ
Адрес: Российская Федерация, Москва
Аннотация

В статье изучается актуальнейшая проблема искусственного интеллекта (ИИ) - разработка методики оценки доверия к системам ИИ. Предлагается универсальный диапазон оценивания: объективные, субъективные и интерсубъективные параметры. При изучении объективных параметров оценки доверия вводится формальное определение ИИ, что повышает обоснованность доверительных суждений. При изучении субъективных параметров как основы экспертных показателей оценивания раскрывается их внутренняя логическая противоречивость наряду с демонстрацией значимости этих параметров для анализа возможности и безопасности компьютерной имитации когнитивных функций. При изучении интерсубъективных параметров доверия предлагается единый формат доверительных данных, рассматривается междисциплинарная организация мониторинга доверия к системам ИИ и формируются главные блоки проекта экспертной системы.

Ключевые слова
искусственный интеллект, проблема доверия, интеллометрия, комплексный тест Тьюринга, доверительный ИИ, объективные параметры доверия, субъективные параметры доверия, интерсубъективные параметры доверия
Классификатор
Получено
06.05.2022
Дата публикации
29.06.2022
Всего подписок
11
Всего просмотров
1099
Оценка читателей
0.0 (0 голосов)
Цитировать Скачать pdf
Доступ к дополнительным сервисам
Дополнительные сервисы только на эту статью
1

Введение

Проблему доверия к системам и технологиям «искусственного интеллекта» поставил президент РАН А.С. Сергеев на заседании президиума РАН 23 ноября 2021 г. [1]. Во многом она инспирирована проблемой информационной безопасности. Технологии искусственного интеллекта (ИИ) нашли широкое применение при решении самых разных прикладных задач обработки данных, в том числе – особо ответственных задач, то есть таких, некорректное решение которых может привести к рискам для здоровья и жизни людей, серьёзному экономическому или экологическому ущербу. К подобным задачам относятся медицинская диагностика и поддержка принятия врачебных решений, управление беспилотными транспортными средствами, управление строительной техникой и опасным промышленным оборудованием, задачи в области обороны и безопасности, другие задачи. Для таких задач на первый план выходит проблема обеспечения доверия к системам ИИ со стороны пользователей этих систем, государственных регуляторов и общества в целом.
2 В работе [17] показано, что термин «доверие» (субъекта к объекту) имеет социогуманитарное происхождение и определяет совокупность представлений и настроений субъекта:
3
  • отражающих его ожидания того, что объект будет реализовывать некоторые функции, способствующие увеличению или сохранению ресурсов субъекта;
  • проявляющихся в готовности субъекта делегировать объекту реализацию этих функций.
4 При использовании понятия «доверие» для характеристики технических систем ИИ важно учитывать определённые особенности и ограничения, накладываемые сложившимся в гуманитарных науках смыслом этого термина. В частности, в соответствии с [17]:
5
  • понятие «доверие» не определено для изолированной системы ИИ. Доверие к системе ИИ фактически означает доверие к сообществу, обеспечивающему разработку, создание и поддержание системы ИИ в процессе эксплуатации, включая компании – разработчики и поставщики систем, государственные регуляторы и иные организации (так называемая «экосистема ИИ»);
  • доверие к системе ИИ всегда включает некоторую долю безосновательной веры в то, что цели, ценности и мотивы участников экосистемы ИИ в основном совпадают с соответствующими установками пользователя системы. Величина этой иррациональной составляющей определяет, насколько уровень доверия к системе ИИ оказывается ниже, чем уровень уверенности в системе, который может быть обеспечен, благодаря объективному измерению функциональных и иных характеристик, внутренне присущих системе ИИ как таковой и не зависящих от намерений участников экосистемы ИИ;
  • отношение доверия может быть установлено преимущественно для систем ИИ, предназначенных для решения «антропоморфных» интеллектуальных задач, что существенно сокращает область применения механизмов подтверждения доверия к системам ИИ.
6 В общем случае уровень доверия между субъектом и объектом неизбежно определяется не только свойствами собственно объекта, но и так или иначе – свойствами субъекта (например, пользователь автомобиля с беспилотной системой управления движением может быть в той или иной мере доверчивым), что в целом ряде случаев является мешающим, искажающим объективно присущие системе ИИ свойства. Таким образом, весьма актуальным является вопрос разработки подходов к оценке доверия к технологиям (системам, алгоритмам) ИИ, имеющих объективный характер, позволяющих получать характеристики технологий ИИ, в минимальной степени зависящие от свойств, намерений и предпочтений субъекта оценки и пригодные для принятия объективных решений о делегировании системе ИИ ответственных задач в области обработки данных.
7

Объективные параметры доверия к системам искусственного интеллекта

Одним из перспективных подходов к объективному определению уровня доверия к ИИ является квалиметрический подход, основанный на оценке характеристик качества систем ИИ [37]. При этом предполагается, что доверие к системе ИИ обеспечивается в том случае, если качество системы, определённое согласно [20] как степень соответствия функциональных характеристик системы установленным требованиям, достигает заданного значения (бинарная модель доверия), либо уровень доверия соответствует уровню качества системы ИИ (количественная модель доверия). В рамках реализации данного «интеллометрического» подхода целесообразно выделить две ключевые задачи:
8
  1. формирование исчерпывающих перечней функциональных характеристик, измерение которых необходимо при определении качества системы ИИ, рассчитанной на решение конкретной прикладной интеллектуальной задачи;
  2. разработка способов измерения функциональных характеристик, позволяющих получать статистические оценки этих характеристик, являющиеся несмещёнными, состоятельными и эффективными.
9 Решение первой задачи осуществляется на этапе внешнего проектирования, когда функциональные характеристики системы ИИ могут быть выявлены, исходя из особенностей применения системы для решения той или иной прикладной задачи, а также, исходя из необходимости обеспечения безопасности системы ИИ для окружающих. Опционально решение этой задачи характерно для «киберфизических» систем, в которых происходит активное взаимодействие информационной системы ИИ с физической средой.
10 Что касается второй задачи, то здесь ключевым моментом является подготовка репрезентативной выборки тестовых данных, на которой могут быть получены необходимые оценки функциональных характеристик систем ИИ. Ключевой особенностью алгоритмов ИИ, в особенности – алгоритмов машинного обучения, является их принципиально плохая интерпретируемость (interpretability), объяснимость (explainability) и понятность (transparency) для человека. Это требует особых подходов к обеспечению статистической представительности проводимых испытаний алгоритмов, основанных на детальной формализации планируемых условий их применения (context, domain). Исходя из этого обоснование репрезентативности тестовых наборов данных предполагает выполнение следующих процедур:
11
  • выявление исчерпывающего перечня внешних по отношению к системе ИИ факторов, существенно влияющих на качество работы алгоритмов ИИ для заданной прикладной задачи (существенных факторов эксплуатации системы ИИ). При этом каждый фактор может быть определён на своей специфической шкале (номинальной, отношений и др.);
  • обоснование предположений о законах распределения существенных факторов в реальных (предусмотренных) условиях эксплуатации на соответствующей шкале;
  • обеспечение необходимого соответствия статистических характеристик существенных факторов для тестового набора данных со статистическими характеристиками этих факторов в предусмотренных условиях эксплуатации.
12 Учитывая многообразие прикладных задач ИИ, важной задачей является унификация как функциональных характеристик систем ИИ, так и способов их оценки, то есть, прежде всего – существенных факторов эксплуатации прикладных систем ИИ. Это позволяет упростить процедуру оценки качества и подтверждения доверия к различным прикладным интеллектуальным системам, сохраняя при этом требуемую достоверность получаемых оценок.
13 Необходимая унификация может быть достигнута за счёт применения специальной классификации алгоритмов ИИ, основанной на аналогии искусственного и естественного интеллектов [18]. В классификаторе выделены следующие шесть основных групп интеллектуальных задач и соответствующих им алгоритмов ИИ: 1) распознавание образов; 2) категорирование, построение моделей окружающих объектов и процессов; 3) поиск решений; 4) реализация физических воздействий на окружающую среду; 5) автономное движение и позиционирование в пространстве; 6) социальные коммуникации.
14 Антропоморфный подход к формированию классификатора обеспечивает группирование как функциональных характеристик, так и существенных факторов эксплуатации в пределах каждого класса. Так, например, существенными факторами в задачах распознавания образов являются:
15
  • информационные возможности сенсоров (чувствительность, пространственное, временное и радиометрическое разрешение, полоса захвата и др.);
  • количество и вариативность классов распознавания;
  • уровень полиморфизма объектов одного класса, в том числе, связанного с изменением ракурса, реконфигурацией и т. п.;
  • продолжительность характерного поведенческого цикла объекта распознавания;
  • характеристики фона и/или среды распространения электромагнитных волн (ЭМВ), в том числе, уровень пространственно-временной изменчивости фона и среды распространения ЭМВ;
  • уровень возможных преднамеренных искажений характеристик распознавания объектов (маскировка и др.), в том числе, с использованием состязательных атак.
16 Среди факторов, определяющих сложность интеллектуальных задач по определению местоположения и управлению движением мобильных средств, следует выделить:
17
  • наличие и уровень актуальности цифрового описания операционной среды (ландшафта, городской среды, интерьера помещения);
  • характеристики информативности операционной среды (наличие характерных объектов и др.);
  • характеристики и уровень изменчивости операционной среды (характеристики подстилающей поверхности, гидрометеорологические условия);
  • потенциальные возможности злоумышленников по активному противодействию целевому перемещению (возможности по обнаружению и поражению объектов, возможности по воздействию на операционную среду с целью затруднения перемещений);
  • особенности движителя и динамические возможности мобильного средства (образца вооружения и военной техники, промышленного робота).
18 Совокупность факторов, определяющих существенные условия эксплуатации системы ИИ, должна учитываться при обосновании соответствующих требований к объекту автоматизации в целом: соответствие установленным требованиям должно выполняться в заданных условиях эксплуатации. При этом целесообразно разделять следующие виды существенных факторов [19]:
19
  • контролируемые управляемые факторы, включённые в методику испытания (как независимые переменные);
  • контролируемые неуправляемые факторы (постоянные в течение испытаний), являющиеся частью условий испытания;
  • неконтролируемые факторы – случайные и независимые от испытания факторы;
  • незначительные факторы, эффект от которых не будет учитываться.
20 Таким образом, показано, что применение методов оценки качества систем искусственного интеллекта позволяет избежать субъективности при определении уровня доверия. Удобно обозначить эти методы термином «интеллометрия», по аналогии с широко известной квалиметрией. Интеллометрия особенно важна при принятии решений о возможности использования интеллектуальных систем для решения особо ответственных прикладных задач ИИ в различных отраслях экономики и социальной сферы. Однако возможна ли чисто объективная «интеллометрия»? Ведь мы моделируем интеллект, разум, мышление, сознание, психику – всё то, что называется «субъективной реальностью» и прямо противополагается «объективной реальности»? Может ли дефиниция схватить самое надежное, самое объективное основание доверия к этим слабо объективируемым понятиям?
21 Для повышения доверия к интеллометрическим показателям вначале попробуем повысить степень их объективного понимания. Для этого разделим интуитивное и формальное определения ИИ и, в последующем, интеллометрические параметры будем изучать в контексте более четких, формальных дефиниций ИИ.
22

Интуитивное и формальное определения искусственного интеллекта

Разделение на интуитивное и формальное определения искусственного интеллекта чрезвычайно важно для оценки доверия к системе ИИ: изучаем ли мы расхожие представления об ИИ либо преследуем научные задачи. Различия этих дефиниций настолько же важны, насколько важны дистинкции между интуитивной и формальной трактовкой алгоритма для понимания сути последнего. Напомним, что интуитивное определение алгоритма предложено в ряде классических работ. Например, по А.А. Маркову под алгоритмом понимается точное предписание, определяющее вычислительный процесс, идущий от варьируемых исходных данных к искомому результату [23, с.3]. Имеются уточнения в определениях: «алгоритмом принято называть систему вычислений, которая для некоторого класса математических задач из записи А «условий» задачи позволяет при помощи однозначно определенной последовательности операций, совершаемых «механически», без вмешательства творческих способностей человека, получить запись В «решения» задачи» [22, с.3]. Вряд ли апелляция к математической строгости позволила уточнить понятие алгоритма, тем не менее, подобные определения фиксируют его общезначимые свойства: детерминированность, конечность, результативность, массовость. Это понятные, но чрезвычайно общие и нечеткие понятия. Они граничат с метафорами и потому их эпистемологическое содержание может быть и пустым. Формально эти дефиниции закрепляются в идеях частично-рекурсивных функций А. Чёрча, нормального алгорифма А.А. Маркова, машины А. Тьюринга и Э. Поста. После этих четких приемов размытые определения алгоритма начинают выполнять конструктивную роль научных терминов.
23 Сходным образом возможны интуитивное и формальное определения «искусственного интеллекта». Несомненно, важное интуитивное определение ИИ представлено в Указе Президента РФ от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» [32]. Под ИИ понимается «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [32, пп.5].
24 Это весьма верное определение ИИ. Однако неоднозначное толкование входящих в него составляющих служит поводом отказа в доверии к системам ИИ. Причем это концептуальное неприятие происходит с первых слов Указа, а именно, с трактовки словосочетания «когнитивная функция человека». Проведем небольшой лингвистический анализ.
25 Что такое «когнитивная»? Под словом «когнитивная» [функция] в самом общем смысле принято понимать то, что относится к познанию. Применительно к ИИ выделяется несколько способов познания. Гносеология как сугубо философская дисциплина изучает познаваемость мира вообще, пытаясь определить и то, что такое «познаваемость», «мир», «вообще». Эпистемология изучает методы, операции, нормы, ценности познания с позиции научной рациональности [29]. Когнитивистика вносит инженерный, технический аспект в познание: какими машинами и механизмами реализуется познание. И, наконец, искусственный интеллект эти машины познания рассматривает как программно-информационные системы.
26 В ИИ, казалось бы, философский подход должен быть напрочь элиминирован, ведь ранее он был почти устранён: в эпистемологии философов вытеснили ученые, в когнитивистике – инженеры, а в ИИ – программисты. Однако во многом в связи с проблемой доверия к ИИ философия реабилитируется. Актуальными становятся гносеологические задачи не только методологического, но и метафизического характера. Например, важно понять, «каково доверять технике»? Однако, позвольте, что значит «доверие»? И что такое «техника»? Это, если угодно, метафизические компоненты методологических задач познания: идентификации, формализации, систематизации, координации, унификации, интеграции и дифференциации когнитивных функций, их внутренних составляющих и внешних контекстов реализации. В силу неизбежного философского содержания семантика первого слова из словосочетания «когнитивная функция человека» представляется весьма расплывчатой для руководства к действию.
27 Что такое «функция»? В современной когнитивистике функция понимается трояко. Во-первых, это роль, которая выполняется при принятии допущения о субстратной инвариантности подсистем. Например, может быть много «сердец», помимо естественного, которые выполняют роль перекачивания крови в организме. Немаловажным для ИИ представляется то, что заменять сердце можно не только недавно умершим донором, но и искусственной нано-ЭВМ. Во-вторых, функция – это отображение, аргументом которого является мозговая активность, а областью значений – когнитивные феномены сознания: боль, понимание, мышление и многие другие. Например, «когнитом» [14] функционально задается коннектомом [31]. Это дуалистическая конструкция и она прекрасно представима функцией-отображением. В ней четко выделяется область отправления и область значения: идея/материя, дух/тело, сознание/мозг, когнитом/коннектом, когниция/реализация. В-третьих, функция – это рекурсия как конструктивное конструирование конструкции, в мельчайших деталях воспроизводящее оригинал в копии (в суррогате, дубликате, двойнике). Пример: рекурсивное определение аутопоэзиса [41].
28 Наконец, к какому такому человеку относится третий член определения «когнитивной функции человека»? Это человек, которого определял Платон, как общипанного петуха с плоскими ногтями, либо это гордо звучащий человек эпохи Просвещения, либо это киборгизированный eHomo? Возможно ли указание четких антропологических параметров человека? Тысячелетиями люди не смогли этого сделать. Вспомним то, что для И. Канта решение вопроса «Что такое человек»? представлялось итогом его философии, включавшей следующее: Что я могу знать? Что я должен делать? На что я могу надеяться? [21]. Потому не понятно, зачем в определении ИИ приведено понятие «человек». Это логически некорректно, так как непомерно расширяет содержание.
29 Заключительная часть выделенного определения ИИ [32] еще хуже для целей понимания того, что же надо выполнять в Указе. Каков тот «минимум» сопоставления с результатами интеллектуальной деятельности человека, что такое «деятельность» вообще, а что такое «интеллектуальная» деятельность. Непонятно, почему учитываются только «конкретные интеллектуальные задачи». Почему не учитываются «абстрактные задачи», ведь абстрагирование имманентно интеллекту, то есть из определения интеллекта удалена неотъемлемая его составляющая? Может быть, в Указе применяется определение не по поводу ИИ, а имеется в виду нечто иное? Попытка ответить на эти вопросы вызывает недоверие к самому «Указу». Какие такие ИИ мы будем создавать в национальном масштабе, если ничего не понятно?
30 Отметим то, что формулирование Указа № 490 проходило спешно, без участия фундаментальной науки, Российской Академии наук, Научного совета РАН по методологии искусственного интеллекта и когнитивных исследований (НСМИИ РАН). Об игнорировании роли НСМИИ РАН в деле разработки Указа был специальный доклад Д.В. Винника на заседании НСМИИ РАН 20 июня 2019 г. [24]. Этот Совет задолго, за пятнадцать лет до Указа занимался проблемами разработки методологии ИИ, популяризацией ИИ, развитием передовых методов ИИ. Первый председатель НСМИИ РАН академик В.Л. Макаров основную задачу Совета связал именно с определением искусственного интеллекта. На симпозиуме, посвященном 10-летию НСМИИ РАН, он высказал следующее: «Наименование нашего Совета не зря включает слово «методология». Методология – это самое важное, с чего начинается проблематика искусственного интеллекта. Слово «искусственный интеллект» привлекает многих людей… Надо понять, что это такое, определить главные понятия и методы. Собственно, к этому и стремились мы, когда создавали наш Совет. Именно это и было источником нашего исходного энтузиазма. Далее наш Совет распространился на всю Россию. Появились региональные отделения. Таким образом, стремление разобраться с исходными основаниями искусственного интеллекта стало массовым общественным явлением» [1, с. 39 – 40].
31 Отметив обозначенные проблемы, тем не менее, мы видим выход из тупиковой ситуации недоверия к существующим дефинициям ИИ. Для этого следует перейти к формальному определению понятия ИИ. Предполагается, что оно уменьшит неоднозначность трактовки терминов Указа.
32 Формальное определение искусственного интеллекта представляется кратким и точным: Искусственный интеллект – это компьютерная реализация комплексного теста Тьюринга (предложено в [4]).
33 Комплексный тест Тьюринга – это собирательное понятие из сотен тестов, инспирированных идеей игры в имитацию А. Тьюринга [46], изучающих возможности компьютерной имитации, моделирования, репродуцирования мышления, внимания, понимания, осознания, самосознания, творчества и многих других когнитивных функций интеллектуальной деятельности [2, 5].
34 Как ни странно, здесь мы переходим из области поиска параметров объективности интеллектуальных систем, которым мы доверяем, к логически противоположной сфере, к поиску субъективных параметров. Этим параметрам мы тоже доверяем, но не по причине рациональной обоснованности, а в силу интуитивной очевидности и здравосмысловой убежденности для большинства людей возможностей имитации тех когнитивных функций, которые изучаются в предлагаемом тесте. Автор каждый частного тьюринового теста, включая А.Тьюринга, предлагал уникальную частную дефиницию искусственного интеллекта. Взятые в комплексном формате эти частные дефиниции, проверенные, доказанные и убедительные с позиции здравого смысла, получают универсальное значение и приемлемый статус доверительности к системе ИИ.
35

Субъективные параметры доверия к системам искусственного интеллекта

Субъективный статус игры в имитацию А. Тьюринга [46], предопределен антиэссенциалистским подходом к дефинициям «интеллекта» и «машины». Этот подход отрицает необходимость определения понятия для целей последующего руководства. Понятия «интеллект» и «машина» не определяются достоверно, они «статистические», утверждает Тьюринг в самом начале своей работы [46]. Эти понятия, – добавим мы, – релятивные, то есть обусловлены знаниями, опытом, образованием и воспитанием, которые относительны от человека к человеку. Такие понятия можно использовать, но в не логическом значении, а в риторическом контексте, в частности, путем поведенческой демонстрации понятий, не подводимых под дефиниции. Это возникает отнюдь не по причине принципиальной неопределяемости понятий, как раз, наоборот, их слишком много, разных определений. Просто бессмысленно предлагать дефиницию понятия, в любом случае она будет неточной, неполной и неадекватной. В конечном счете, принципы такого субъективистского подхода противополагаются принципам стандартизации понятий, которую осуществляет, например, технический комитет ТК 164 «Искусственный интеллект».
36 Несмотря на отсутствие универсальной дефиниции, принимаемой всеми членами сообщества, общезначимый статус этого принципиально не унифицируемого понятия, тем не менее, возможен. Надо обратиться к феноменологии собственного сознания, личному опыту и выделить антропологические типы собственной приватной социокультурной и психофизической жизни. Каждому человеку очевидно внутреннее понимание того, что обозначается словом «интеллект». Это понятие может проявляться в функциях интеллектуальной деятельности, которая, по мнению А. Тьюринга, обнаруживается в коммуникации людей. Если компьютер (универсальная цифровая вычислительная машина и нейронная сеть, по Тьюрингу) имитирует функции так же успешно, как это делает человек, когда общается с другими людьми, то машина может мыслить. Природа мышления не понятна и по ее поводу не надо увлекаться теоретизированием. Это ни к чему. Главное действовать в соответствии с принципом «делай как я, когда я мыслю». В итоге наблюдатель присуждает мышление машине, если… присуждает мышление машине. От его субъективного произвола зависит интеллектуальность машины. То есть доверие к системе ИИ целиком и полностью зависит от компетентности судьи (наблюдателя, interrogator’а). Интеллометрия в данном случае возможна посредством количественных методов экспертных оценок, например, путем применения метода «Дельфи» [28, с.10]. И, конечно, возможна иллюзия повышения степени объективности путем привлечения большего количества беспристрастных судей или экспертов. Такой юридический подход применяется с самого начала реализации тьюринговых тестов. Так было полвека назад, когда в 1971 году двенадцать экспертов присуждали интеллектуальность агенту (компьютеру или человеку) в контексте теста Колби (параноидального теста Тьюринга, см. ниже). Точно также подобная судебная практика организуется сегодня на лойбнеровских состязаниях [45].
37 Рассмотрим кратко основные субъективные параметры доверия к системе ИИ в виде феноменологически фиксируемых типов, связанных с интеллектуальной деятельностью. Такие параметры доверия удобно систематизировать в виде пяти классов функций [7], выделяемых из функциональной организации так называемых совершенных тестов Тьюринга. К совершенным тестам относится «Игра в имитацию» А.Тьюринга, «Китайская комната» Дж.Серля, «Глобальная машина» Н.Блока и др. (см. ниже). Помимо совершенных версий, имеется чрезвычайно большое количество несовершенных тестов. Их несколько сотен. В них акцентируется внимание на возможно интересной, но незначительной детали тьюрингового тестирования. Таких несовершенных версий много, их более сотни зарегистрированных. И любой из этих несовершенных тестов можно довести до статуса совершенного теста путем рекомбинации с частями других тестов. При этом следует учитывать, что доработка частного теста до нужного уровня может осуществляться посредством отрицания отрицания. Например, если концепция философского зомби в ранних мысленных экспериментах Р.Кирка [38] убедительна в одном случае и может послужить аргументом в пользу цифрового двойника как субъекта права, то в другом случае эта концепция может раскрывать абсурдность аргументации, указывая на несвязность понятия «философский зомби», как это предлагал сделать поздний Р.Кирк, «убивая зомби» после тридцати лет активной жизни в философских дискуссиях [39]. Значимость комплексного теста Тьюринга и состоит, на наш взгляд, в возможности пластичных реконфигураций частых тестов и доведения множества проверенных и, следовательно, доверительных элементов частных тестов (внушающих доверие) до уровня совершенного теста, решающего разнообразные актуальные задачи построения и применения систем ИИ. Насколько можно будет доверять комплексному тесту, если всем частным тестам приписан статус доверенности? Это вопрос системотехнического плана. В будущем его обязательно надо попытаться решить. Тем не менее, понятно то, что каждый тьюринговый тест, более или менее совершенный, вносит свой особый вклад в субъективную параметризацию доверия путем раскрытия следующих функций:
38
  1. интеррогативной функции, характеризующей содержание и форму вопросов, которые задает тьюринговый судья (interrogator, наблюдатель) при изучении х-системы на предмет ее y-способностей;
  2. дефинитной функции, обеспечивающей определение когнитивного феномена с учетом ее вычислительных коннотаций;
  3. конструкторской функции, раскрывающей принципы работы компьютера, способного реализовать когнитивный феномен, исследуемый в тесте;
  4. критической функции, отражающей суть полемики по поводу возможности или невозможности компьютерной реализации когнитивного феномена;
  5. конститутивной функции, позиционирующей отношение судьи (эксперта, наблюдателя) к когнитивным аспектам компьютерной реальности, или, конкретнее, человека к системе ИИ.
39 Эти функции систематически сведены в таблице [4, с.113-115].
40 Возможны различные схемы определения cубъективных параметров доверия к системам ИИ. Для нормализации этого процесса нужна процедура «усовершенствования» частного теста, приведения его к совершенному формату. И далее, в условиях изучения множества полных, совершенных текстов, возможна процедура определения доверия к реализации частной когнитивной функции. Именно в условиях массированного субъективного восприятия, дополненного интеллометрическими методами, обосновывается доверие к данной конкретной реализации программной системы.
41 Например, воспользуемся оригинальным тестом Тьюринга. Это идея имитации компьютером того минимума интеллектуальных способностей, который поддерживает связный диалог собеседников. Вряд ли следует доверять компьютерной имитации речевого диалога средствами универсальной цифровой вычислительной машины, — считает А.Тьюринг. Универсальный символьный подход отрицает эволюционно-эпистемологические возможности роста знаний. Поэтому необходима обучаемая нейронная сеть, которая работает с учителем и без учителя. Учитель, в принципе, знает общие пути развития знаний у машины-ребенка. Однако конкретные знания даются ходом машинного обучения, траектория же их получения бывает непредставима символьным путем. Такой принципиальный проект гибридного, символьно-коннекционистского компьютера был предложен 72 года назад [46]. Вряд ли сегодня можно утверждать о том, что этот концептуальный проект нашел воплощение. Более того, для современного этапа применения нейросетевых методов машинного обучения налицо регресс в решении проблемы доверия. Допустим, банковская нейросетевая машина обучилась распознавать кредитоспособность клиентов. Но насколько можно ей доверять, ведь нейронная сеть не имеет механизма релёнинга (re-learning), т.е. определения траектории способа обучения. Все классические символьные системы включали специальные средства определения степени логической доверительности траектории полученного вывода. В символьных системах это был блок интерпретации модели представления знаний, необходимый для состава интеллектуальной системы. Сейчас, в эпоху коннекционистской весны, такая необходимость сомнительна. Это обусловлено принципами глубокого обучения: они настолько «глубоки», что теряются обозримые связи «знаний» на этапах их приобретения. (Хотя можно показать, что имеется теоретическая, т.е. принципиальная возможность организации релёнинга нейронной сети посредством машины Корсакова-Тьюринга как формальной дефиниции коннекционистского алгоритма [8]. Однако это теоретическая, практически нереализуемая возможность.
42 Далее, изучая субъективную параметризацию доверия к системам ИИ вполне резонен вопрос: может ли компьютер рассуждать с позиции здравого смысла? Джон Маккарти [42] полагает, что машине нельзя доверять знания здравого смысла, т. е. знания, фундированные опытом и пропитанные интуицией. Такими знаниями обладает, например, высокопрофессиональный врач. Предметом критики явилась классическая экспертная система MYCIN. По мнению Дж. Маккарти, ей нельзя доверить жизнь пациента. С большой вероятностью этот пациент скончается он неправильного диагноза: компьютеры принципиально не способны оперировать со здравым смыслом, охватывающим все мыслимые контексты работы врача.
43 Д. Деннет так же доказывает то, что здравый смысл нельзя доверить компьютеру. Однако этот «смысл» характеризует не глубинные знания, как в предыдущем случае, но поверхностные, банальные знания [36] типа сведений о способности людей завязывать шнурки на ботинках. Здесь он ссылается на новостную экспертную систему CYRUS, имитирующую деятельность Сайруса Вэнса, госсекретаря США в период правления Джеймса Картера, в конце 1970-х гг. Зачем разработчику включать в базу знаний сведения о том, что все взрослые люди умеют завязывать шнурки? Какое отношение имеют эти знания к сведениям по поводу деятельности важного политика? Но если допустить несущественность таких поверхностных знаний, то можно ли доверять компьютерной системе, не отвечающей на банальные вопросы? Ведь «Бог в мелочах».
44 Если же мы доверяем компьютерной программе, то не сродни ли такое доверие к тому, что высказывает параноик? В самом деле, программист в силу характера своей профессии является своего рода параноиком: он разрабатывает программу в силу своих знаний, опыта, навыков. Свыше заложенного программистом программа не способна трансцендировать, она не может как бы «перепрыгивать» за сферу предписанного. Получается, что интеллектуальная система выражает некоторую однобокую идею программиста, то есть воплощает одномерную, навязчивую, иначе говоря, параноидальную идею. Но можно ли доверять параноику? В параноидальном тесте К.Колби [35] подобные вопросы доверия звучали и для решения этих вопросов, по свидетельству Д.Деннета, выделялись большие средства. Это было полвека назад. Вряд ли можно утверждать, что проблема доверия стала актуальной именно сегодня.
45 Вообще, может ли компьютер функционировать как психически здоровый человек? В первую очередь, способен ли компьютер работать со смыслом и «понимать» так, как это делает человек. А главное, насколько вычисление способствует пониманию. В тесте Сёрля («Китайская комната») ставится вопрос «Может ли компьютер понимать?» [30] и знаменитый когнитивный философ доказывает то, что компьютер, к несчастью для ИИ, напротив, отдаляет понимание. Когнитивная способность понимания возникает в силу естественной биоантропосоциальной эволюции. Попытки помешать естественной психике искусственными средствами приводят, в конечном счете, не к расцвету личностного начала, а к становлению зомбиевого конца [9]. О каком доверии к ИИ под напором таких аргументов можно утверждать?
46 Хотя имеется позиция другого не менее знаменитого когнитивного философа, Д. Деннета. Он, напротив, полагает что все мы, люди, сейчас являемся зомби в силу ограниченности нас индивидуальными частными свойствами и способностями. Но в условиях глобального искусственного интеллекта мы восполним то, что нам недостает и можем стать настоящими, полноценными личностями. По всей видимости, имелась в виду реализация принципа «от каждого всем и всем от каждого», в котором квантификаторы пробегают по всем материальным и духовным частностям жизни человека и общества. Деннет достаточно убедителен. И какова будет доверительная оценка этим противоречащим аргументам по поводу роли компьютерных систем в феноменологии понимания, сознания, личности? Оба достаточно убедительны.
47 Подобные противоречия присущи субъективной позиции к дефиниции ИИ. В некоторых случаях можно подвести различные суждения под две четко выраженные контрадикторные позиции, как это было в выше приведенных случаях по поводу моделирования здравого смысла (позиция Маккарти/Деннета) или по поводу персонологической роли ИИ (позиция Серля/Деннета). В ряде случаев выделяются не только две противоречивые позиции, но семейство контрарных позиций. Например, в гендерном тесте Тьюринга имеется как минимум шесть интерпретаций решения вопроса о том, почему А. Тьюринг отождествил игру в имитацию интеллекта с игрой в имитацию пола [2, с.227 – 228]: 1) Тест Тьюринга — это не тест на интеллект, а тест решения вопроса «Чем мужчина отличается от женщины»? 2) ИИ транссексуален; 3) судья теста Тьюринга – антифеминист, для него важно решить вопрос «Может ли женщина мыслить?»; 4) напротив, подражание женщине является верхом совершенства, т.е. судья – феминист; 5) Тьюринг просто шутит, так как в научной статье гармонично сочетает ум, юмор и секс; 6) гендерный тест принципиально невозможен: судья будет правильно отличать женщину от мужчины в 50 %, а такая оценка не валидна.
48 То есть начинается «свистопляска» с разнообразием субъективных параметров, что окончательно мы закрепим на логическом уровне нашего анализа.
49

Контрадикции логически необходимых и логически достаточных условий доверия к системе ИИ

Имеются разночтения субъективных параметров. Например, индуктивный тест Тьюринга, предложенный Дж. Муром, полагает, что искусственный интеллект задается индуктивным способом: тест Тьюринга предназначен для сбора положительных фактов в пользу доказательства возможности ИИ, верификации программно-аппаратных комплексов, отбраковке систем недоверительного характера, включению в базу знаний проверенных версий. То есть необходимым условием ИИ является тест Тьюринга. Многие, кстати, полагают, что впервые слово «тест Тьюринга» предложил именно Дж. Мур в [44].
50 Противоположную позицию занял Нэд Блок. В «Новом тесте Тьюринга» [15] дедуктивно доказывается возможность ИИ путем вывода из теорий философии сознания, критики лингвистического бихевиоризма как основы тьюринговой игры в имитацию и формулировок концепции психофункционализма. Эта концепция оказывает влияние на разработку принципов проектирования интеллектуальных систем. В ней обозначаются роли феноменологии и разработки «черных ящиков сознания» («блэк блоков Блока»), роль которых понятна в общей когнитивной архитектуре, но непонятны средства и ресурсы проигрывания этих ролей. В итоге считается, что игра в имитацию является достаточным условием ИИ. Необходимым же условием возможности ИИ представляется новый тест. Он выявляет осмысленность тех сообщений, которые формируются изнутри системы ИИ программно-техническим способом. Пока предпосылок для такой системы нет: если даже знания всех людей всего человечества производятся некоторой глобальной машиной и она проходит новый тест Блока, тем не менее, машина является всего лишь транслятором знаний людей. Никакого искусственного интеллекта в ней нет. Прохождение нового теста Блока – это достаточные условия ИИ.
51 Таким образом, логически достаточные и необходимые условия системы ИИ сами представляются логически противоречивыми. Для индуктивно ориентированной логики тест Тьюринга вполне справедливо представляется необходимым условием, ведь благодаря собиранию в его составе нужных программно-аппаратных комплексов и обусловливается возможность заключить об интеллектуальности искусственной системы. Это необходимая составляющая. Если идти дедуктивно направленным путем изучения доверия к ИИ, то, в самом деле, оригинальный тест Тьюринга выступает достаточным условием интеллектуальности компьютерной системы, ведь помимо бихевиорально адекватной имитации интеллектуального поведения, что гарантирует этот тест, требуется сопровождение теста осмысленностью, креативностью, самостоятельностью, индивидуальностью. Это ведь не простая машина, а интеллектуальная машина.
52 Для комплексного теста целесообразно изучать логическую необходимость/достаточность в некотором интегральном формате, исключая вектор логических рассуждений от общего к частным положениям либо наоборот. Комплексный тест Тьюринга является необходимым концептуальным средством предварительной междисциплинарной координации исследовательских программ в области искусственного интеллекта. Можно привести длинный список достаточных условий доверия к ИИ, предложенный, например, в [7, пп. 1.1]. Это решение следующих проблем: взаимообусловленности исследований естественного интеллекта и искусственного интеллекта; изучения логико-эпистемологических особенностей моделирования естественного интеллекта; построения моделей «сознание/мозг/искусственный интеллект»; изучение способа компьютерного моделирования мышления о мышлении; создание интерфейса «человек-компьютер» и нейроинтерфейса, решающего подобные задачи взаимодействия; оптимизация методов роботизации, виртуализации и киборгизации; развитие элементной базы ЭВМ; реализация проектов искусственной жизни, искусственного мозга, искусственной личности и искусственного общества; создания экспертных систем, инвариантных для различных доменов применения, например, для когнитивной медицины и для когнитивной социологии; символьно-коннекционистской интеграции методов управления знаниями; практических интерпретаций методологии постнеклассической рациональности и многое другое.
53 С проработкой каждого направления из этого списка связаны десятки исследователей. Список достаточных условий доверия к системам ИИ является открытым и его можно продолжать настолько долго, насколько много проблем обнаруживается в разнообразии когнитивных функций и путях их реализации. С другой стороны, имеется всего лишь одна бинарная характеристика, подобная характеристике доверия к ИИ. Все исследования искусственного интеллекта предваряются простым, но твердым убеждением исследователя: либо может, либо не может компьютер мыслить (сможет/не сможет компьютер мыслить). А подобное суждение в логике принято называть необходимым условием решения задачи: если этого условия не будет, то данная задача вовсе не решаема. Содержательно это вопрос относится к компетенции теста Тьюринга: комплексный тест Тьюринга задает логически необходимые условия доверия к ИИ.
54 Условия доверия формируются стандартным способом, посредством аргументаций в дискуссиях. Утверждается тезис, определяются условия и предпосылки, формулируются аксиомы и правила вывода. Запускаются доказательства. Используются логические и риторические средства для убеждения участников дискуссии в истинности либо ложности тезиса (правоте/неправоте, справедливости/несправедливости и пр.). Участники дискуссии принимают либо не принимают тезис. Дискуссии могут продолжаться при обнаружении противоречий в ходе аргументации, корректировке исходных условий и предпосылок. Многие дискуссии по проблемам воплощения естественного в искусственном длятся тысячелетиями, в частности, и вопрос Тьюринга «Могут ли машины мыслить» длится десятками лет. Меняются средства реализации: глина, мрамор, часы, механизмы, электрохимические устройства, электронные компьютеры, социальные машины и др.
55 Автор каждого совершенного частного теста Тьюринга предлагает достаточно выверенные аргументы в пользу своего тезиса. С ними можно соглашаться, можно оспаривать. Аргументы, как правило, значимы и часто воспроизводятся в современной культуре, в СМИ, зачастую под разными словами. Частные тесты задают субъективные основания доверия к системам ИИ, поэтому степень их доверительности имеет ограниченный, хотя и особенный характер. Комплексный тест задает интерсубъективные основания концептуальной проверки, и поэтому доверие или недоверие к системе ИИ выражается методологически мощнее, целостнее, доверительнее, чем это было в случае оценки доверия частными тестами.
56

Интерсубъективные параметры доверия к системам искусственного интеллекта

Проблема доверия занимает весьма прочное и обширное место в исследованиях авторов частных совершенных тестов Тьюринга. Можно даже предложить параметр: объем доверия (точнее, объем доверия, выраженный в дискуссии). Это библиографический параметр и он означает процент материала, который отводится на предмет возможности и последствий реализации когнитивной функции к общему объему работы. Так, для игры в имитацию А. Тьюринга объем доверия составляет 50%, а если учесть то, что последний пп., «Обучающиеся машины», продолжает дискуссию на предмет опровержения возражению леди Лавлейс, то объем доверия составит 73%. Для теста Серля объем доверия весьма велик: 72 % [30]. А для теста Блока он достигает 90,2 %, так как на техническое описание машины Блока отводится всего 9.8 % от общего объема статьи, остальное составляет дискуссия по поводу отставания новой теории сознания – психофункционализма путем критики идеи оригинального теста Тьюринга.
57 Интерсубъективные параметры доверия к системам ИИ в формате комплексного теста Тьюринга представлены в Приложении 1. Это фрагмент базы данных, которая обеспечивает сбор, хранение, систематизацию и обработку значений доверительных параметров. В этой вырезке собраны тезисы дискуссии, предложенные в тестах Тьюринга, Серля и Блока. В итоговой выборке участвуют следующие атрибуты: Тезис: уникальный код тезиса, который аутоинкрементарно добавляется в базу данных; Class: код класса иерархического классификатора тезисов; Наименование тезиса [nаmе] краткое обозначение содержания тезиса; F: операции с тезисом, в сигнатуру которых входит “+” (подтверждение тезиса), “-“ (опровержение тезиса), “н” (семантическая нормализация тезиса, т.е. приведение тезиса к концептуально приемлемому виду – см. ниже суть этой операции); Ref: ссылка на родительский тезис, если он имеется; Содержание тезиса: текст произвольной длины, детально раскрывающий суть тезиса; Библиография (ссылка на первоисточник). Тезисы в базе доверия могут выражаться произвольными мультимедийными источниками: текстовыми, графическими, графовыми, анимационными презентациями докладов и выступлений, а так же фото-, аудио- и видеозаписями реальных дискуссий на мероприятиях по проблемам философии и методологии искусственного интеллекта, организуемых, например, силами НСМИИ РАН [26]. Тем не менее, текстовый формат представления дискуссии действует по умолчанию и к нему редуцируются все остальные способы.
58 Конечно, в Базе доверия приоритет отдается классическим работам по обсуждению принципиальных проблем ИИ. Как правило, первопроходец закладывает основы всему последующему ходу развития. Поэтому резонно предположить то, что Тьюринг уже более семидесяти лет назад разработал метод формирования доверительного отношения к системе ИИ. В самом деле, в своей основной для ИИ работе [46] отвечая на поставленный им же вопрос «Может ли машина мыслить?», Тьюринг выполнил некоторую семантическую нормализацию (обозначается в сигнатуре F значком «н») относительно смыслового употребления терминов типа «машинное мышление», «искусственный интеллект», «право робота», «электронная культура» и др. Новые термины не должны концептуально конфликтовать с социокультурными традициями. Поэтому был осуществлен перевод вопроса в новый формат, в сценарий изучения возможности цифровой вычислительной машины играть в имитацию пола игрока столь же успешно, как это делает человек. То есть «вечный тезис» name(t1) = «машина может мыслить» заменен концептуально комфортным тезисом name (t2) = name(н(t1)) = «Машина может играть в игру имитации интеллекта человека». И, далее, с применением теоретико-вероятностного аппарата, name (t35) = name(н(t2)) = «Играя с компьютером, судья будет ошибаться в 70 процентах случаев столь же часто, как ошибается при игре с человеком».
59 Тьюринг предлагает структуру проведения дискуссий по поводу возможностей, невозможностей, преимуществ и угроз замены человека компьютером. Дискуссия, подчеркнем ещё раз, имеет интерсубъективный характер. Свой тезис А. Тьюринг защищает от реальных и воображаемых людей, живущих (Курт Гёдель), умерших (Ада Лавлейс) и еще не родившихся, когда машины станут соперниками людей (см. подробнее знаменитый прогноз к 2000 г., точнее, к 2052 г. в [6]). То есть для обеспечения доверия он по сути предлагает то, что сегодня называется экспертной системой. Эта система ИИ представляет программно-технический комплекс организации, проведения и анализа дискуссий, которые выражают принципиальные идеи по поводу разработки, функционирования, сопровождения и развития систем ИИ.
60 Элементарная единица дискуссии: 1) тема возражения; 2) довод в пользу возражения; 3) ответ на возражение. Такая структура полностью отвечает основам теории аргументации: тезис – аргумент – контраргумент. Тьюринг сформировал весьма репрезентативную совокупность вопросов на положения дискуссии, защищая основной тезис («Машина может мыслить») и представил общезначимые ответы на них. Эта совокупность была названа нами «полемическим стандартом Тьюринга» [33]. Слово «стандарт» употребляется в том смысле, что вопросы, поднимаемые и на бытовом, и на научном уровнях сегодня столь часто звучат, что представляют некоторые общие темы изучения доверия к ИИ.
61 На первый взгляд, кажется правомочным вопрос о полноте и достаточности полемического стандарта Тьюринга: исчерпал ли А. Тьюринг девятью положениями всё многообразие возражений и ответов по теме «Может ли машина мыслить?». На наш взгляд, бессмысленна сама постановка этого вопроса: несмотря на семантическую общность положений, дискуссия бесконечна. Имеется бесконечное многообразие представлений об особенностях человеческого мышления и способах его моделирования. Также меняется степень доверия к аргументам дискуссии. То, что сегодня кажется верным, завтра может быть переоценено и прямо противоположно интерпретировано.
62 Неполнота этого полемического стандарта обнаруживается сразу после представления дискуссии из другого совершенного теста Тьюринга. Каждый элемент дискуссии повергается критике. Каждый тезис обосновывается, скептически проверяется, подвергается сомнению. Выдвигается антитезис, который также обосновывается и в последующем опровергается. То есть каждый автор частного теста Тьюринга, обозначая свой собственный вариант теста, явно или неявно обращается к форме «возражение»/«ответ на возражение».
63 Тьюринг предложил девять тезисов. Мы немного изменили порядок их следования, не так, как они даны в первоисточнике [46]. Например, возражения «теологическое», «безопасностное» и «телепатическое» приводятся в конце списка теста Тьюринга. Они менее значимы для формирования доверительного отношения. Некоторые положения в этой таблице сформулированы иначе, нежели чем в первоисточнике. Наконец, наши интерсубъективные исследования доверия мы начнём с главного вопроса комплексного теста Тьюринга «Может ли компьютер всё?». Именно поиск аргументации на данный вопрос и приближает нас к сути вопроса «Может ли машина мыслить?», потому что много контекстов тянется за понятием «интеллекта», а комплексный тест выявляет эти контексты.
64 Интерсубъективные параметры теста Серля в данной работе приведены достаточно полно, а вот материалы теста Блока представлены эскизно. Этих параметров очень много: как мы отметили выше, объем доверия для этого теста превышает 90 процентов. И конечно, надо хотя бы вкратце обозначить специальные методы работы с базой доверия. Полное изложение этих функций является предметом дальнейших исследований.
65

Специальные методы обеспечения доверия

Представим перечень методов обеспечения доверия. Они производны от общих методов научной деятельности, и в свою очередь, обладают рядом специфических характеристик:
66 Идентификация тезиса. Идентификация является одним из важнейших направлений стандартизации в любой сфере деятельности. Не исключается и проблема обеспечения доверия к системе ИИ, распознание того уникального мнения, положения, теории, концепции, подхода, направления, которые значимы на предмет оценки доверия к ИИ.
67 Концептуальная или семантическая нормализация, как было отмечено выше, предназначена для формирования тематически нейтральных терминов, которые не вызывают когнитивного диссонанса при вовлечении социогуманитарных и естественно-научных понятий в технический дискурс. Несмотря на то, что ИИ прочно вошел в нашу жизнь и является предметом государственного Указа, само словосочетание «искусственный интеллект» воспринимается многими как оксюморон. В самом деле, как возможно техническое воплощение моей мысли или мысли другого?
68 Редукция – приведение предмета дискуссии (тезиса, аргумента) к уже изученному положению или к более простому предмету.
69 Кодификация – выделение, группирование, упорядочение тезисов и их компонент.
70 Формализация – использование специальной символики, которая позволяет отвлечься от содержательных особенностей интерсубъективных исследований и перейти к возможностям оперирования символами.
71 Унификация – приведение разнородных, неоднородных и гетерогенных положений дискуссии к единообразной системе представления тезисов.
72 Апробация – объективная оценка результатов исследования доверия, проводимое, как правило, в условиях массового обсуждения в рамках масштабного мероприятия.
73 Верификация – подтверждение тезиса на основе представления объективных свидетельств, субъективных мнений и интерсубъективных оценок, включающих интеллометрическую экспертизу.
74 Стандартизация – системная деятельность по установлению правил и характеристик оценки доверия к системам ИИ для многократного использования.
75 Собственно, первый и последний методы являются точками входа и выхода в систему обеспечения доверия: экспертная деятельность начинается от выявления значимых положений по поводу компьютерного моделирования когнитивных функций и завершается целостной интеллектуальной системой, которая на выходе имеет два значения – можно ли системе ИИ доверять или ей доверять нельзя? Если можно доверять, то силами этой системы возможна проверка – почему ей можно доверять? А если нельзя, то что надо сделать для разработки доверительной системы ИИ?
76 Для ответа на основной вопрос данной работы «Каким системам ИИ можно доверять?» введем количественный показатель уровня доверия Ta . Для вычисления его используем выражение:
77 Ta  = QfaQsa
78 где Qfa – показатель качества системы Sa , под которым понимается уровень соответствия требованиям, установленным потребителем [20]. Угрозы безопасности системе ИИ, влияющие на способность системы выполнять задачи по назначению, также учитываются при определении показателя качества системы;
79 Qsa – уровень безопасности системы Sa , обратно пропорциональный значимости угроз безопасности (физических, информационных, социально-психологических, экологических и др.) со стороны системы ИИ для третьих лиц при применении этой системы по назначению.
80 Доверие к системе ИИ присуждается в том случае, если значение уровня доверия Ta превышает или равняется установленному порогу Q* (критериальному уровню доверия).
81 Возможны следующие режимы оценки уровня доверия Ta :
82
  • ручной режим, когда экспертная оценка уровня доверия Ta формируется человеком и определяется его знаниями, опытом, интуицией, воспитанием;
  • автоматизированный режим, в котором определение Ta поддерживается средствами специальной экспертной системой оценки доверия (ЭСОД).
  • автоматический режим, в котором Ta оценивается программно-аппаратным способом и решение о невозможности применения системы ИИ Sa осуществляется без участия человека.
83 Экспертная система ЭСОД является информационной системой, обеспечивающей реализацию функции оценки уровня доверия Ta посредством сбора, хранения, обработки и выдачи информации о параметрах Qfa , Qsa , Q* .
84 ЭСОД поддерживает когнитивные механизмы оценки доверия и способна лишь частично заменить эксперта (экспертов), так как доверие, вера, убеждение, знание – это приватные феномены сознания. Применение ЭСОД в автоматическом режиме возможно применительно к оценке доверия к системе Sa в контексте её использования для решения конкретной прикладной задачи ИИ G в заданных (предусмотренных) условиях эксплуатации, то есть при условии снижения критерия довериядо уровня отождествления когнитивной деятельности с механизмами ее имитации.
85 Информационным фундаментом ЭСОД является база доверия, предложенная в этой работе. Эта система может использоваться для оценки уровня доверия к интеллектуальной системе Sa безотносительно конкретной прикладной задачи (для неопределённого круга задач). Разнообразие ЭСОД должно превышать разнообразие оцениваемого предмета, поэтому предпочтительна реализация ЭСОД методами комплексного теста Тьюринга. Этот тест основан на тьюринговой игре в имитацию интеллектуального (диалогового) поведения и включает на сегодняшний день более сотни её версий и версии версий, которые имитируют когнитивные компетенции мышления, понимания, творчества, сознания, самосознания, морального вменения, личности, общества и другие x-компетенции.
86 Комбинация этих тестов обеспечивает сложностную аппроксимацию когнитивных функций системы ИИ Sa . Это позволяет полновесно оценить систему и довериться ей либо отказать в доверии. В первом случае ЭСОД должна показывать, почему уровень доверия является приемлемым. Во втором случае она должна предлагать рекомендации: что надо сделать для поднятия Ta .
87

Заключение

Отвечая на вопрос «Как можно доверять системам искусственного интеллекта?» мы предложили полный спектр параметров доверия и кратко изучили объективные, субъективные и интерсубъективные характеристики. Для увеличения степени валидности объективных параметров доверия было предложено формальное определение искусственного интеллекта как компьютерной реализации комплексного теста Тьюринга, отвечающего на вопрос: «Может ли компьютер всё?», т.е. все то, что специфицировано частными тестами. Каждый из частных тестов, отвечая на вопрос компьютерной реализации когнитивных функций понимания, сознания, самосознания, креативности, личностности и пр., выражает субъективные мнения об успешности/неуспешности имитации эти функций. Скрупулезный анализ субъективных параметров приводит, в итоге, к противоречию даже среди интерпретации логически необходимых и логически достаточных условий доверия к системе ИИ: то, что по одним меркам кажется логически необходимым условием, при других основаниях представляется логически достаточным условием. Решить методологический коллапс субъективных оснований доверия позволяет принятие интерсубъективных параметров доверия. Это, по сути, реализация критической функции комплексного теста Тьюринга. Основой содержания интерсубъективных методов оценки доверия к системам ИИ являются обобщения междисциплинарных дискуссий, обработанные путем специальных методов. Для практической оценки доверия к системам ИИ требуется специальная экспертная система. Она работает как система ИИ второго порядка и учитывает проблему аутореферентности, т. е. оценки доверия к оценке доверия. В остальном же, способ его функционирования не отличается от способов функционирования традиционной компьютерной системы поддержки принятия решения

88

Наименование тезиса

Содержание тезиса

Библиография

Компьютер может всё

Компьютер может всё то, что реализуют частные тесты Тьюринга

Алексеев 2016

Машина может мыслить

Вечный вопрос, решаемый в контексте ИТ

Turing 1950

Машина может играть в игру имитации интеллекта человека

Надо перевести вопрос "может ли машина мыслить" в плоскость "может ли машина играть в игру подражания человеческому поведению?"

Turing 1950, P.433, P.435

Машина способна играть в игру имитации пола человека

Надо перевести вопрос "может ли машина мыслить" в плоскость ""может ли компьютер имитировать когнитивные способности человека

Алексеев 2013

Вероятность доверительности к системе ИИ

Когда играет компьютер, судья будет ошибаться в 30 процентах случаев столь же часто, когда ошибается при игре с человеком

Тuring 1950, P442

Новая интерпретация тезиса Тьюринга об игре в имитацию

Надо перевести вопрос "может ли машина мыслить" в плоскость "может ли компьютер имитировать когнитивные способности человека"

Алексеев 2016, Указ № 490

Математическое возражение

Некоторые теоремы доказывают ограниченность мощности дискретных машин. Например, теорема Гёделя показывает, что в замкнутой логической системе достаточной мощности обязательно найдется утверждение, которое нельзя ни доказать, ни опровергнуть собственными средствами этой системы.

Тuring 1950, P.444

Вычислительная ограниченность интеллекта

Ограничения на мощность каждой конкретной машины установлены. Однако надо доказать, что эти ограничения не затрагивают человеческого интеллекта.

Тuring 1950, P.444

Доказать теорему о доказательстве недоказуемой теоремы

Надо доказать, что сами эти теоремы не требуют доказательств

Тuring 1950, P.445

Ошибки интеллекта

Надо доказать, что машины, обладающие интеллектом, не ошибаются

Тuring 1950, P.445

Требование безошибочности интеллекта

Отсутствие или наличие ошибок не есть требование к мышлению

Тuring 1950, P.445

Аргумент Лукаса

Разум не представим механизмом из-за проблем с теоремой Гёделя

Lucas 1961

Аргумент Пенроуза

Из-за проблем с теоремой Геделя разум должен быть представлен квантовым компьютером

Пенроуз 2003

Софизм для машины

Если человека попросить разрешить софизм, то он впадет в противоречие, для него вопрос q также будет невозможен и судья не отличит компьютер от человека.

Алексеев 2006, С.236

Возражение с позиции сознания (проблема другого сознания)

Чтобы быть разумной, машина должна обладать сознанием: осознавать себя, чувствовать удовольствие от успеха, расстраиваться от неудач и т.д. Однако единственный способ действительно узнать, мыслит машина или не мыслит – это быть машиной. Согласно солипсизму, единственный способ узнать мыслит или не мыслит другой человек – быть этим другим человеком. А это невозможно. Данная проблема обычно называется проблемой другого сознания.

Turing 1950, P.445

Возражение о различных невозможностях

Машины никогда не смогут сделать Х, где Х может быть любой человеческой особенностью, такой как чувство юмора, креативность, способность влюбляться или обожать клубнику.

Turing 1950 P.447

Вторая производная аргумента "от сознания"

Данная критика, как правило, представляет замаскированный довод о сознании.

Turing 1950 P.447

Ненужность довода

Некоторые Х неуместны в контексте игры в имитацию интеллекта, например, зачем компьютеру делать ошибки и любить клубнику?

Turing 1950 P.447

Угрозы от систем ИИ колоссальны

В основе возражения лежит отвращение к идее о мыслящих машинах по причине того, что последствия появления и распространения таких машин будут ужасны

Тuring 1950

Возражение по поводу непрерывности нервной системы

Нервная система непрерывна и невозможно моделировать ее поведение посредством дискретной машины

Turing 1950, P.451

Аналого-цифровые и цифро-аналоговые преобразования

Непрерывная машина дискретно представима посредством аналого-цифрового преобразования таким способом, что судья не заметит дискретности

Turing 1950, P.451

Довод о неформальном поведении

Невозможна система правил, полностью описывающая поведение человека в любой вообразимой ситуации. Если бы каждый человек имел набор правил на все случаи жизни, он был бы не лучше машины. Таких правил нет. Следовательно, люди не могут быть машинами.

Turing 1950, P.451

Неполнота правил поведения

Полный свод правил невозможен, всегда может быть упущено какое-то правило.

Turing 1950, P.451

Непредсказумость машины

Наблюдая за поведением машины также невозможно предсказать её поведение.

Turing 1950, P.451

Теологическое возражение

Мышление есть свойство бессмертной души человека. Бог дал бессмертную душу только человеку. Следовательно, машины не могут мыслить.

Тuring 1950, P.443

Ограничение всесильности всемогущего

Разрабатывая системы ИИ мы поступаем по отношению к богу не более непочтительно, узурпируя его способность создавать души, чем мы делаем это, производя потомство.

Тuring 1950, P.443

Возражение от боязни и неприязни («голова в песке»)

Ужасны угрозы появления систем ИИ и их распространения

Тuring 1950, P.444

Отвратительность идеи интеллектуальности машины

Одной из главных особенностей человека (Номо sapiens - [AA]) является его способность к мышлению и эту особенность было бы неприятно разделять с машинами.

Turing 1950, P.451

Шутка о реинкарнации

Возражение не надо опровергать, а сторонникам следует найти какое-либо утешение, что-то вроде переселения душ.

Turing 1950, P.451

Стена от телепатии

Если телепатия возможна, то судью следует помещать в комнату за стеной, защищающей от телепатии.

Turing 1950, P.453

Телепатическое возражение («с точки зрения сверхчувственного восприятия»)

Человеку иногда присуще сверхчувственное восприятие, а машине – нет. Человек способен интуитивно постичь правильный ответ на нечёткий вопрос судьи. Машина на это не способна.

Turing 1950, P.453

Интеллект любой искусственной интеллектуальной машины суть исключительно интеллект её разработчиков (программистов)

Проблема с концепцией нового теста Тьюринга и её предшественниками заключается в том, что невозможно обнаружить отличия между поведением, которое отражает собственный интеллект машины и поведением, которое отражает только интеллект программистов, её сконструировавшими.

Блок 2006, С.45

Актуальные и потенциальные знания системы ИИ

Интеллектуальная машина обладает не только актуальными знаниями, как в игре в имитацию, но и потенциальными знаниями в соответствии с концепцией Нового теста Тьюринга

Блок 2006, С.45

Нехватка потенциальных знаний интеллектуальной системы

Если бы строки [машины Блока] были записаны только до начала текущего 2020 года, машина не смогла бы ответить, как человек, на предложение типа: «Что вы думаете о последних событиях на Украине?»

Блок 2006, С.4

Интеллект не определяется исключительно фактуальной информацией

Систему можно считать интеллектуальной, даже если в неё не заложены знания о текущих событиях.

Блок 2006, С.48

Механическая машина не может быть интеллектуальной

Машина с выявленной внутренней механической структурой не является интеллектуальной даже тогда, когда она кажется интеллектуальной в любом внешнем отношении.

Блок 2006, С.51

Имитировать интеллект невозможно

Машина с выявленной внутренней механической структурой не является интеллектуальной даже тогда, когда она кажется интеллектуальной в любом внешнем отношении.

Блок 2006, С.50

Можно выявить отличие интеллектуального механизма от интеллектуального организма

Анатомический принцип доверия «Вскрытие покажет»

Блок 2006, С.59

Компьютер может понимать

Компьютер фактически понимает смысл слов

пример подхода см. в [Шенк 1989]

Компьютер может фактически понимать (с позиции сильного ИИ)

Надо изучить роли вычисления для понимания в мысленном эксперименте "Китайская комната"

Серль 2004, P.6

Системологический отзыв

Понимание является функцией понимающей системы в целом, часть системы не способна к "пониманию"

Серль 2004, P.11

Коньюнкция понимающей и непонимающей подсистем

Абсурдность идеи о том, что хотя индивид и не понимает китайского, но некое соединение
индивида с листами бумаги китайский понять сможет

Серль 2004, С.12

Понимание информации желудком

Китайский язык для непонимающего китайский язык - это просто совокупность ничего не значащих завитков. Информация не содержится ни в них, ни в пище. Она существует исключительно в головах программистов и интерпретаторов.

Серль 2004, С.14

Убеждение термостата Дж.Маккартни

Изучение разума начинается с признания факта наличия у человека убеждений, в то время как у термостатов, телефонов и арифмометров
убеждений нет.

Серль 2004, С.15

Робототехнический отзыв

Робот [, осуществляющий манипуляции с внешними объектами, - А.А.] в отличие от компьютера Р.Шэнка, обладает подлинным пониманием и другими ментальными свойствами

Серль 2004, С.15

Я - гомункул робота

Роботу не присущи никакие интенциональные состояния, он просто перемещается в соответствии с программой и электрическими импульсами в проводах. В свою очередь, руководствуясь программой, я так же не обладаю никакими интенциональными переживаниями. Всё, что я делаю, это попросту следую формальным инструкциям по манипулированию формальными символами.

Серль 2006, С.16

Отзыв с позиции моделирования мозга

Если репродуцировать в искусственной системе нейральные связи китайца в состоянии понимания текстов, то машина будет буквально понимать

перефраз высказывания в [ Серль 2004, С.16]

Мозг как сантехническая система [труб]

По основной формуле сильного ИИ разум относится к мозгу так же, как программа относится к аппаратным средствам – можно изучать работу разума, не вдаваясь в нейрофизиологические исследования. Однако рассмотрение деятельности мозга в таком приближении недостаточно для уяснения того, как возможно понимание.

Серль 2006, С.16

В системах ИИ моделируются формальные, а не каузальные зависимости

Я определённо не понимаю китайский текст. Не понимают его и водопроводные трубы. Если же полагать, что понимать способна конъюнкция человека и водопроводных труб, то, в принципе, человек может представить формализованную структуру водопроводных труб и в своём воображении произвести все «нейронные возбуждения». Проблема с моделированием мозга в том, что моделируются не то, что нужно. Моделируется лишь формализованная последовательность возбуждений нейронов посредством синапсических связей, а важно смоделировать каузальные, т.е. причинные зависимости [,определяющие соотношение «мозг-сознание»]. Именно причинные зависимости задают возможность интенциональных переживаний. Формальных зависимостей для этого недостаточно.

Серль 2006, С.17

Нейроморфный аналог "понимания"

Человек в «китайской» комнате, ничего не понимающий по-китайски, перебирает не символы, а управляет системой водопроводных труб, соединённых клапанами. Когда человек получает китайский иероглиф, он ищет в программе, написанной на английском, какие клапаны ему нужно открыть, а какие – закрыть. Каждое соединение водяных отсеков соответствует синапсу в мозгу китайца, а система в целом устроена таким образом, что после должной последовательности возбуждений (что соответствует должной последовательности изменений положений вентилей) ответ на китайском языке вытекает из труб, соединённых требуемым образом.

Серль 2006, С.16

Комплексный отзыв

Понимание возможно для робота, репродуцирующего все нейральные связи мозга "понимающего" китайца и обладающего поведением, которое неотличимо от поведения этого китайца

Серль 2004, С.18

Цифровая кукла, имитирующая и внешние и внутренние связи человека, разумом не обладает

Приписываемая интенциональность не имеет ничего общего со способностью оперировать формальными программами. Это приписывание основано на простом утверждении машинного функционализма [Putnam, 1960], что если робот выглядит и ведет себя как человек, то, пока не доказано обратное, робот способен пребывать в ментальных состояниях, подобных человеческим

Серль 2006, С.19

Компьютерная имитация каузальной зависимости "мозг-сознание" никогда не будет фактической каузальной зависимостью

Функционирование мозга – это не формальная тень, отбрасываемая последовательностью синапсов, а реальные свойства этих последовательностей. Все аргументы сильной версии искусственного интеллекта – это образы, рисуемые по контуру теней, отбрасываемых когнитивной способностью, с последующими заявлениями, что тени на самом деле и есть искомая реальность.

Серль 2004, С.18

Отзыв с позиции проблемы «другого сознания»

Откуда известно, что другие люди понимают китайский язык, и откуда известно, что другие люди вообще что-либо понимают? Только исходя из анализа поведения. Компьютер в принципе способен проходить тесты [на когнитивные способности] с такими же результатами, как у людей. Поэтому, если приписывать способность понимания другим людям, то её следует приписывать и компьютерам

Серль 2004, С.18

Вычислимость "ортогональна" когнитивности

Проблема состоит не в том, каким образом известно, что у других имеются когнитивные функции, а в том, что же в действительности им приписывается, когда говорится об этих функциях. Аргумент [китайской комнаты] состоит в том, что когнитивные функции не могут быть представимы в форме вычислительных процессов и их внешних проявлений. Вычислительные процессы и их проявления могут существовать без каких-либо когнитивных функций.

Серль 2004, С.19

Футурологический отзыв

Чем бы не являлись причинные зависимости, необходимые для интенциональности, в будущем будут созданы машины, обладающие данными причинными зависимостями. Такие устройства, как и сегодняшние компьютеры – это тоже искусственный интеллект. Поэтому аргумент китайской комнаты никоим образом не направлен на возможность ИИ [по крайней мере, в будущем,] искусственно продуцировать и объяснять когнитивные способности

Серль 2004, С.20

Машина может творить (контраргумент Ады Лавлейс)

Машины не способны к творчеству, не могут ничего нового сделать и не могут удивить нас. А если и удивляют своей способностью к мышлению, то в силу приписывания им этой способности со стороны человека

Turing 1950, P.450

Аргумент Ады Лавлейс (1843)

Компьютер может создать высокохудожественное произведение, однако самостоятельно творить не может: машина лишь пассивно исполняет инструкции разработчика-программиста

Menabrea 1842

Контраргумент Тьюринга (1950 г.)

Машина может творить и, следовательно, мыслить.
Контраргумент Тьюринга делится на две части: символьное и коннекционистское возражение.

Turing 1950, P.450

Символьный ответ аргументу Лавлейс (1950 г.)

Неубедительно: разработчик пытается обмануть наблюдателя (эксперта, тьюрингового судью) в неотличимости творчества и его программной имитации. Оригинальность продукта определяется неожиданным ходом выполнения программы, например, машинным сбоем или неведением пользователя.

Алексеев, Янковская 2015

Коннекционистский ответ аргументу Лавлейс (1950 г.)

Частично доверительное отношение: в общих чертах поведение робота предсказуемо, однако частные продукты машинного обучения могут казаться оригинальными.

Алексеев, Янковская 2015

Тест Лавлейс (2000 г.)

Отрицается символьный ответ Тьюринга путем постулирования
аксиом, запрещающих обман наблюдателя и сбой программы. Уникальность артефакта ограничена тем, что продукты известны разработчику: множество продуктов может быть потенциально бесконечным, тем не менее оно декларативно или процедурально задано, следовательно, актуально конечно и предсказуемо

Брингсйорд и др. 2006

Тест Лавлейс 2.0 (2015 г.)

Отрицается коннекционистский ответ Тьюринга, так как применим к нейронным сетям глубокого обучения. Судье сложно оценить креативность артефакта вне сферы его творческих компетенций. Аксиоматика ужесточается специализацией предметных областей и введением роли оценщика креативности продуктов.

Mark O. Riedl 2015

Тест Лавлейс 3.0 (2015 г.)

Дополняет предыдущую версию аксиомой обнаружения оценщиком осмысленного производства артефакта. Машина не способна продуцировать смысл, поэтому по-настоящему творить не может. Новый тест пройти нельзя, однако возможны относительные успехи креативной компьютерной техники. Для этого нужны технические принципы интеграции символьного и коннекционистского подходов.
Новый тест выявляет смыслоконститутивные основания поведения робота, производящего артефакт. Робот может выступать в роли роболичности, если ему приписывается возможность компьютерной имитации мысли, смысла, свободы, личности, творчества. Такой робот интересен на предмет обнаружения креативности произведенных им артефактов. Если, однако, обнаружится отсутствие осмысленности в ходе продуцирования артефакта (например, когда оценщик или судья заметили подмену абстрагирования операцией обобщения), то тогда следует заключить, что творец артефакта – это, на самом деле, робозомби.

Алексеев Пожарев 2015, Алексеев Пожарев 2020,

Алексеев 2020

Библиография

1. Научному совету РАН по методологии искусственного интеллекта. Материалы симпозиума, 26 марта 2015 г., Институт философии РАН, г. Москва / Ред.: Алексеев А.Ю., Дубровский Д.И., Лекторский В.А. М.: ИИнтелл, 2016. 142 с. (Сер.: Философия искусственного интеллекта) ISBN 978-5-98956-010-3.

2. Алексеев А.Ю. Возможности искусственного интеллекта: можно ли пройти тесты Тьюринга? //Искусственный интеллект: междисциплинарный подход. Под ред. Д.И. Дубровского и В.А. Лекторского М.: ИИнтеЛЛ, 2006. 448 с.

3. Алексеев А. Ю. Роль комплексного теста Тьюринга в методологии искусственных обществ // Искусственные общества. 2011, T. 6, № 1–4. URL: https://artsoc.jes.su/s207751800000051-5-1/

4. Алексеев А. Ю. Объемная (3d) интенсиональная семантика словаря искусственного общества // Искусственные общества. 2013, T. 8, № 1–4. URL: https://artsoc.jes.su/s207751800000038-0-2/

5. Алексеев А.Ю. Комплексный тест Тьюринга: философско-методологические и социокультурные аспекты. М.: ИИнтеЛЛ, 2013. 304 с. ISBN 978-5-98956-007-3

6. Алексеев, А.Ю. Концепт интерсубъективности в когнитивных моделях искусственного интеллекта //Интерсубъективность в науке и технике / Под ред.Н.М.Смирновой. М.: «Канон+» РООИ «Реабилитация», 2014. 416 с.

7. Алексеев А.Ю. Философия искусственного интеллекта: концептуальный статус комплексного теста Тьюринга. Диссертации на соискание ученой степени доктора философских наук по специальности 09.00.08 – философия науки и техники, философский факультет МГУ имени М.В.Ломоносова, диссертационный совет Д 501.001.37, г. Москва, 2016 г.; URL: https://istina.msu.ru/dissertations/15422339/

8. Алексеев А. Ю. Машина Корсакова (1832 г.) как прототип мультиагентного суперкомпьютерного автомата // Искусственные общества. 2019, T. 14, № 1. DOI: 10.18254/S207751800004999-7

9. Алексеев А. Ю. Мультиагентные категории робофилософии: роболичность и робозомби // Искусственные общества. 2020, T. 15, № 2. DOI: 10.18254/S207751800009761-6

10. Алексеев А.Ю, Пожарев Т. Креативные мультимедиа: физикалистский и менталистский подходы // Философия творчества: материалы Всероссийской научной конференции, 8 – 9 апреля 2015 г., Институт философии РАН, г. Москва / Под ред. Н.М.Смирновой, А.Ю.Алексеева. М.: ИИнтелл, 2015. 452 с.

11. Алексеев А.Ю., Пожарев Т. Принципы креативной робототехники // Технологос. 2020, № 4. DOI: 10.15593/perm.kipf/2020.4.01

12. Алексеев А.Ю., Янковская Е.А. Феноменология компьютерного творчества: тест Ады Лавлейс// Философия творчества: материалы Всероссийской научной конференции, 8 – 9 апреля 2015 г., Институт философии РАН, г. Москва / Под ред. Н.М.Смирновой, А.Ю.Алексеева. М.: ИИнтелл, 2015. 452 с. ISBN 978-5-98956-009-7 /

13. Алексеев А.Ю., Алексеева Е.А. Искусственный интеллект: трансцендентальный подход // Трансцендентальный поворот в современной философии (7): эпистемология, когнитивистика и искусственный интеллект: тезисы 7-го международного научного семинара «Трансцендентальный поворот в современной философии» (Москва, 21–23 апреля 2022 г.) / Oтв. ред. С.Л. Катречко, А.А. Шиян; Изд-во: РГГУ, Фонд ЦГИ, 2022. 155 с.

14. Анохин К.В. Когнитом: в поисках фундаментальной нейронаучной теории сознания// Журнал высшей нервной деятельности, 2021, том 71, № 1

15. Блок Н. Психологизм и бихевиоризм (Перевод c англ. И.Матанцевой и И.Чижова) // Тест Тьюринга. Роботы. Зомби. Под ред. А.Ю. Алексеева – М.: МИЭМ, 2006. 120 с.

16. Брингсйорд С., Беллоу П., Феруччи Д. Творчество, тест Тьюринга и улучшенный тест Лайвлейс / пер. c англ. А. Ласточкина // Тест Тьюринга. Роботы. Зомби, под ред. А.Ю. Алексеева. – М.: МИЭМ, 2006.

17. Гарбук С.В. Особенности применения понятия «доверие» в области искусственного интеллекта. // Искусственный интеллект и принятие решений. 2020, №3.

18. Гарбук С.В., Губинский А.М. Искусственный интеллект в ведущих странах мира: стратегии развития и военное применение. М.: «Знание», 2020, 590 с.

19. ГОСТ Р ИСО/МЭК 19795-1-2007 Автоматическая идентификация. Идентификация биометрическая. Эксплуатационные испытания и протоколы. Часть 1. Принципы и структура.

20. ГОСТ Р ИСО 9001-2015. Системы менеджмента качества. Требования/ Москва, Стандартинформ, 2015

21. А. Гулыга. Революция духа: Жизнь и творчество Иммануила Канта. Кант Иммануил - Собрание сочинений в 8-ми томах (Т. 1-8). Т.I. М.: Чоро, 1994. 544 c.

22. Колмогоров А.Н., Успенский В.А. К определению алгоритма, УМН, 1958, том 13, выпуск 4(82), 3–28

23. Марков А. Теория алгорифмов, Тр. МИАН СССР, 1954, том 42, 3–375

24. НСМИИ РАН 94-е заседание Научного совета РАН по методологии искусственного интеллекта и когнитивных исследований, 20 июня 2019 г., 16.00-18.00, Институт философии, г. Москва; URL: https://scmai.ru/2019/06/20/

25. НСМИИ РАН Постановление Президиума РАН от 23 ноября 2021 г. «Искусственный интеллект в контексте информационной безопасности»; URL: https://scmai.ru/docum/20211123.pdf

26. НСМИИ РАН. Сайт Научного совета при Президиуме РАН по методологии искусственного интеллекта и когнитивных исследований; URL: https://scmai.ru

27. Пенроуз Р. Новый ум короля. М.: Едиториал УРСС, 2003. 339 с. ISBN 5-354-00005-X.

28. Райхман Э.П., Азгальдов Г.Г. Экспертные методы в оценке качества товаров. М., «Экономика», 1974.

29. Ракитов А.И. Философия компьютерной революции. Издательство: М.: Политиздат, 1991. 287 с.

30. Серль Джон Р. Разумы, мозги, программы (Перевод c англ. Д. Родионова) // Тест Тьюринга. Роботы. Зомби. Под ред. А.Ю. Алексеева М.: МИЭМ, 2006. 120 с.

31. Сеунг Себастьян. Коннектом. Как мозг делает нас тем, что мы есть. М.: Лаборатория знаний, 2018 г.

32. Указ № 490. Указ Президента Российской Федерации от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации», http://www.kremlin.ru/acts/bank/44731

33. ФИИ 2004. Философия искусственного интеллекта. Материалы конференции МИЭМ, 20 мая 2004 г. Под ред. А.Ю. Алексеева М.: МИЭМ, 2006. 192 с.

34. Шенк Р., Бирнбаум Л., Мей Дж. К интеграции семантики прагматики// Новое в зарубежной лингвистике: Вып.XXIV. Компьютерная лингвистика: Пер.с англ./Сост., ред. и вступ.ст. Б.Ю.Городецкого. – М.: Прогресс, 1989. – 432 с.

35. Colby, K.M. Hilf, F.D. and Weber, S. 1971, Artificial Paranoia, Artificial Intelligence 2, pp. 1–25.

36. Dennett, D. C. 1984. The Age of Intelligent Machines: Can Machines Think? In (M. Shafto, ed) How We Know. Harper & Row. URL : http://www.kurzweilai.net/articles/art0099.html?printable=1

37. Garbuk S. Intellimetry as a way to ensure AI trustworthiness//The Proceedings of the 2018 International Conference on Artificial Intelligence Applications and Innovations (IC-AIAI). Limassol, Cyprus, 6-10.10.2018. С.27-30. ISBN: 978-1-7281-0412-6. DOI 10.1109/IC-AIAI.2018.00012.

38. Kirk, R. 1974. Sentience and behaviour. Mind 81:43-60

39. Kirk, R. 2005 Zombies and Consciousness. University of Nottingham, November, 2005. URL: http://www.oup.co.uk/isbn/0-19-928548-9

40. Mark O. Riedl. The Lovelace 2.0 Test of Artificial Intelligence and Creativity. Proceedings of the AAAI Workshop: Beyond the Turing Test, Austin. – Texas, 2015. – URL: https://arxiv.org/abs/1410.6142.

41. F.J. Maturana H.R., Varela F.J. Autopoiesis and Cognit ion. The Realization of the Living. Dordrecht, 1980

42. McCarthy, J (1984) Some Expert Systems Need Common Sense. URL : http://cogprints.ecs.soton.ac.uk/archive/00000423

43. Menabrea L.F. Sketch of The Analytical Engine Invented by Charles Babbage By L. F. MENABREA of Turin, Officer of the Military Engineers from the Biblioth?que Universelle de Gen?ve, October, 1842, No. 82, With notes upon the Memoir by the Translator ADA AUGUSTA, COUNTESS OF LOVELACE; URL: https://www.fourmilab.ch/babbage/sketch.html

44. Moor, J.H. (1976), An Analysis of the Turing Test, Philosophical Studies 30, pp. 249–257. URL: http://www.springerlink.com/content/x336q61282151813/fulltext.pdf

45. Parsing the Turing Test, Springer Science + Business Media B.V. 2008

46. Turing, A. Computing Machinery and Intelligence, Mind 59(236), pp. 433–460

Комментарии

Сообщения не найдены

Написать отзыв
Перевести