Искусственная личность в социально-политической коммуникации
Искусственная личность в социально-политической коммуникации
Аннотация
Код статьи
S207751800024370-6-1
Тип публикации
Статья
Статус публикации
Опубликовано
Авторы
Алексеев Андрей Юрьевич 
Должность: профессор философского факультета
Аффилиация: Государственный академический университет гуманитарных наук
Адрес: Российская Федерация, Москва
Алексеева Екатерина Алексеевна
Должность: заместитель декана философского факультета
Аффилиация: Государственный академический университет гуманитарных наук
Адрес: Российская Федерация, Москва
Емельянова Наталья Николаевна
Должность: Старший научный сотрудник кафедры сравнительной политологии факультета политологии
Аффилиация: МГУ имени М.В. Ломоносова, Государственный академический университет гуманитарных наук
Адрес: Российская Федерация, Москва
Аннотация

Статья посвящена проблеме применения интеллектуальных систем, соответствующих понятию искусственной личности, в социально-политической коммуникации. Рассматриваются составляющие проекта искусственной личности, показывается, что существующие в настоящее время технологии уже соответствуют одному из уровней реализации этого проекта. Это так называемые социальные боты. Рассматриваются сценарии применения социальных ботов в социально-политической коммуникации, с точки зрения как рисков, так и возможного повышения эффективности социально-политической коммуникации за счет использования данной технологии. Демонстрируются примерные этапы разработки и применения социального бота. Также рассматривается вопрос о критериях доверенного искусственного интеллекта применительно к искусственной личности, используемой в социально-политической коммуникации.

 

Ключевые слова
искусственная личность, социальный бот, социально-политическая коммуникация, искусственный чиновник, доверенный искусственный интеллект
Источник финансирования
Статья подготовлена в ФГБОУ ВО «Государственный академический университет гуманитарных наук» в рамках выполнения государственного задания Министерства науки и высшего образования Российской Федерации (FZNF-2022-0015 – «Концептуальная модель искусственной личности как доверенной системы искусственного интеллекта, применимая в социально-политических коммуникациях».
Классификатор
Получено
31.01.2023
Дата публикации
31.03.2023
Всего подписок
13
Всего просмотров
503
Оценка читателей
0.0 (0 голосов)
Цитировать Скачать pdf
Доступ к дополнительным сервисам
Дополнительные сервисы только на эту статью
1

Введение

Сегодня понятие «искусственная личность» стало популярным и часто возникает тогда, когда разработка и реализация интеллектуальных систем переходит из чисто технической плоскости в область исследования многообразных способов их применения в гуманитарной и социокультурной сферах человеческой деятельности. В данной работе рассматривается, каким образом возможно использование интеллектуальных систем, обозначаемых как искусственная личность, в такой значимой области, как социально-политическая коммуникация. Под политической коммуникацией понимается «интерактивный процесс передачи информации между политиками, средствами массовой информации и общественностью. Этот процесс действует сверху вниз от институтов управления к гражданам, по горизонтали – между акторами политического процесса, а также снизу-вверх как общественное мнение по отношению к власти» [23, с. 11631]. Введение дополнительного социального компонента в эту систему передачи информации, то есть обозначение ее как социально-политической коммуникации, предполагает интенсивное вовлечение различных социальных групп и отдельных граждан в систему коммуникативного взаимодействия.
2 Одной из ключевых тенденций в области социально-политической коммуникации является ее медиатизация. Под медиатизацией понимается «наделение базовых элементов социальной и культурной реальности медиалогикой или медиаформой» [25, с. 29]. В контексте социально-политической коммуникации это означает, в том числе, что она опосредуется взаимодействием социально-политических акторов в среде социальных медиа. А именно там используются те интеллектуальные технологии, которые соответствуют определенным признакам искусственной личности. Применение таких технологий в рамках социально-политической коммуникации становится амбивалентным явлением, поскольку несет в себе некоторые негативные аспекты, разрушающие демократические процедуры, но в то же время может быть использовано в качестве инструмента, интенсифицирующего социально-политическую коммуникацию снизу-вверх и повышающего вовлеченность общества в принятие социально-политических и управленческих решений. Очевидно, что и позитивный сценарий внедрения технологий искусственной личности в социально-политическую коммуникацию несет в себе определенные риски, но они могут быть снижены за счет соответствия таких систем специальным критериям доверенного искусственного интеллекта.
3

Определение и современные исследования искусственной личности

Следуя определению искусственного интеллекта, директивно предложенного в Указе Президента № 490 [1], под искусственной личностью (ИЛ) мы понимаем различные способы построения и применения систем искусственного интеллекта, которым достаточно компетентный наблюдатель (человек, группа людей, коллектив экспертов) способен доверительно приписать персонологические когнитивные параметры и функции: самость, сознание, самосознание, творчество, смысл, свободу, дружбу, любовь, эмоции, убеждения, мораль и т.п.
4 Необходимость реализации в современных и перспективных системах ИИ не только когнитивных параметров, связанных с мышлением, но и параметров личностного плана обусловлена тем, что в настоящее время развитие интеллектуальных систем и их повсеместное внедрение не позволяют рассматривать такие системы в сугубо техническом плане. Системы ИИ сегодня приобрели антропологическое измерение, они оказались погруженными в социогуманитарный контекст производственных, социальных, экономических и политических взаимодействий, культурных ценностей, мировоззренческих ориентиров, моральных императивов, правовых норм, эстетических канонов.
5 В одной из ранних работ, посвященных проблематике проекта ИЛ [2], мы выделяли два подхода, которые сложились к середине 1990-х годов: экспертный и робототехнический. Экспертный подход ориентировался на инженерию интегрального представления знаний специалистов различного профиля и уровня. Особое внимание с позиции представления и применения знаний уделялось экспертам, предположительно обладавшим экстраординарными способностями. Формализованные знания, которые использовались для принятия решения, включали и междисциплинарные решения и особые знания «суперэкспертов». Координация и интеграция этих разнородных знаний поддерживалась компьютерными моделями «смысла». Они фиксировали «нетрадиционную» информацию и, помимо эпистемических обобщений, апеллировали к изобразительному и музыкальному сопровождению фактографических данных сложных информационных систем.
6 Другой показательный проект искусственной личности сложился в эти же годы за рубежом. Это – антропоморфный робот, обладающий вполне приемлемыми формами коммуникации с людьми. Например, машине посредством речевого ввода информации приказывают носить тяжелое вооружение хозяина-пехотинца.
7 Этим проектам искусственной личности насчитывается тридцать лет. В те годы в научных дискуссиях осторожно употребляли понятия, связанные с искусственным интеллектом. Словосочетания «искусственная личность», «модель смыслов», «механизм понимания», «машина сознания» воспринимались как метафоры. Сегодня ситуация иная. Многочисленные факты применения систем ИИ, широко освещаемые в СМИ, позволяют судить о том, что сбылось так называемое «пророчество» А. Тьюринга, предложенное в заключение статьи 1950 года [26]: в 2000 году электронно-вычислительные машины станут соперничать с людьми во всех сферах общественной жизни. Вычислительных мощностей и объемов машинной памяти для имитации интеллектуального поведения будет вполне достаточно. С погрешностью в два десятилетия прогноз А. Тьюринга в общем случае увенчался успехом. Однако положительный результат был достигнут не только благодаря информационно-технологической оснащенности моделирования социогуманитарных процессов. Поменялось отношение человека к самой этой социогуманитарной реальности, современная культура стала восприниматься как электронная культура.
8 Сегодня начинает cбываться еще одно важное «пророчество». Оно предложено академиком В.С. Степиным в 1980-1990 гг.: в ближайшем будущем, в эпоху постнеклассической рациональности, сотрется диспозиция «естественное/искусственное» (cм. в [13]). Для человека – носителя естественного интеллекта – станет естественным способом обживание материального и духовного мира техническими системами искусственного интеллекта. Подробнее о посттьюринговой методологии ИИ как «цифровой трансформации» концепции постнеклассической рациональности см. в работах [5, 13]. Мы в данной работе отметим лишь то, что показательным примером наступления эпохи постнеклассической рациональности явилась конференция «Искусственный интеллект: проблема доверия», проведенная в конце апреля 2022 г. в Президиуме РАН под непосредственным руководством президента РАН академика А.М. Сергеева [7].
9 Доверие – это сложный правовой, этический, социокультурный и психофизиологический феномен, который присущ носителю субъективных и личностных характеристик. То есть проблема доверия к системе искусственного интеллекта является собственной проблемой проекта искусственной личности: она состоит в вопросе о том, на каких объективных, субъективных и интерсубъективных основаниях можно доверять тому, что система ИИ в самом деле является интеллектуальной системой. При изучении объективных параметров оценки доверия, как предложено в [3, 4], целесообразно ввести формальное определение ИИ. Это повысит обоснованность доверительных суждений. При изучении субъективных параметров как основы экспертных показателей оценки доверия возможно раскрытие их внутренней логической противоречивости. Это позволит строить ряды амбивалентных оценок доверия, так как устанавливается концептуальное равенство силы и убедительности рядов доказательства. Эти ряды доказательств на самом деле логически узаконивают противоречия субъективных оценок, с одной стороны. С другой стороны, в зависимости от силы логического вывода, демонстрируется значимость этих противоречивых субъективных параметров для определения доверительного отношения к возможностям компьютерной имитации когнитивных функций. При изучении интерсубъективных параметров доверия предлагается единый формат для когерентного согласования противоречивых доверительных концепций. Этот формат задается исполнением критической функции комплексного теста Тьюринга, обобщающей возражения по поводу построения и применения систем ИИ, а также принципиальные ответы на эти возражения. Междисциплинарная организация мониторинга доверия к системам ИИ поддерживается экспертной системой, основной задачей которой и является оценка доверия к системе искусственного интеллекта [3].
10 Система искусственной личности в зависимости от степени доверительного отношения в различных социогуманитарных контекстах воспринимается по-разному. Выделим пять доверительных уровней реализации проекта искусственной личности, сформулировав тем самым принцип «пять ре-»:
  1. репликативность, когда искусственная личность имитирует, симулирует, дублирует, повторяет поведение реальной личности и разработчики ее не предполагают либо не принимают сознательных, сущностных, смысловых, творческих и других подобных оснований такого поведенческого «копирования» [9];
  2. репрезентативность, когда компьютерная система является моделью естественной личности и эвристически погружена в социокультурный контекст её построения и использования [12];
  3. репродуктивность, когда функции человека и функции его компьютерного двойника представляются инвариантными «при прочих равных условиях» коммуникации, то есть для исполнения персонологической роли субстрат игрока не имеет значения: будь подсистема человеком либо компьютером – «всё равно» [24];
  4. рекреативность, когда компьютерной системе приписывается продуцирование сверхличностных феноменов относительно среднестатистического уровня когнитивной компетентности либо когда этой компьютерной системе приписывается личностное (скажем, сознание, моральная ответственность, правовое вменение) и при этом подвергается сомнению презумпция человечности этого личностного, что выражается, например, в приписывании роботу гражданских прав (примером является робот София, которой в 2017 году было предоставлено подданство Саудовской Аравии);
  5. рефлексивность, когда с помощью идеи искусственной личности осуществляется метафизическое исследование антропологических, экзистенциальных, аксиологических, социально-политических и иных феноменов духовной культуры [11]. Освоение мира электронной культуры отличается от традиционных форм рефлексии. Сегодня критические поиски собственного Я осуществляются в условиях различения естественной и искусственной субъектности. Человеческая личность вынуждена демонстрировать, защищать и отстаивать свой собственный интеллект, разум, креативность перед глобальной искусственной личностью, являющейся результатом генерации текстов и мультимедийного контента.
11 Эти пять уровней доверия к искусственным личностям раскрываются на основе репликативного базиса реализации. Выше компьютерных имитаций личности подняться нет возможности, не упав при этом в болото метафизических спекуляций. Однако наблюдатель – это постнеклассический наблюдатель, не объективирующий результаты собственных исследований. И наш наблюдатель способен рекреативно приписать им рекреативность. К их числу относятся системы, построенные на базе технологии GPT-3 – разработанной компанией OpenAI модели обработки естественного языка на основе обучения на большом массиве текстов. С появлением этой технологии вербальная имитация персонологических феноменов вышла на новый уровень. Тексты, которые генерирует такая система, содержат в том числе вербальные маркеры эмоциональных состояний и персональных убеждений, что позволят атрибутировать им персонологические феномены. Разработчики указывают, что они «обучают GPT-3, модель авторегрессивного языка со 175 миллиардами параметров, которых в 10 раз больше, чем у любой предыдущей языковой модели. Для всех задач применяется GPT-3 без каких-либо обновлений градиента или тонкой настройки, с заданиями и небольшими демонстрациями, указанными исключительно посредством текстового взаимодействия с моделью. GPT-3 достигает высокой производительности на многих наборах данных для NLP, включая перевод, ответы на вопросы и выполнение задач, которые требуют рассуждений на лету или адаптации предметной области, таких как расшифровка слов, использование нового слова в предложении или выполнение трехзначной арифметики» [15, с. 9]. Данная модель может использоваться в качестве основы для разработки социальных ботов, тем более что в настоящее время представлен и применяется дополнительный модуль для диалогов chatGPT-3.
12 К сожалению, примером рекреативной искусственной личности являются системы, декларативно назначаемые таковыми, но не имеющими для этого технологических предпосылок. Ни сегодня, ни в ближайшем будущем нет никаких предпосылок для атрибутирования личностного программно-аппаратным комплексам. Как справедливо отмечала Т.Я. Хабриева на конференции Президиума РАН по проблеме доверия к системам ИИ (апрель 2022 г.) [7], робот София получила гражданство в Саудовской Аравии по причине PR-кампании, а не по причине доверия к этой компьютерной системе как к полноправной личности, обладающей гражданством Саудовской Аравии.
13 Таким образом, доверие к компьютерной системе, которой приписывается личностное, представляется весьма варьируемой величиной. Чтобы продемонстрировать эту доверительную вариабельность, рассмотрим иерархию тестов Тьюринга, предложенную С. Харнадом в работе «Неотличимость неотличимостей» (тест Харнада) [21].
14 ТX0: уровень фрагментарных тьюринговых тестов, ограниченных как по длине, так и по содержанию. Такие тесты не отвечают исходному замыслу А. Тьюринга, хотя вполне успешно реализованы в играх на премию Лойбнера. Все попытки моделирования интеллекта, известные на сегодняшний день, выше данного уровня не поднялись, – считает С. Харнад [21].
15 ТX1: уровень оригинального теста Тьюринга с учетом ограничений на длину теста, объем компьютерной памяти и скорость вычислений. Искусственная личность неотличима от естественной личности в условиях проведения тьюринговой игры в имитацию [26]. Однако при этом изучаются не гендерные параметры, а более общие персонологические феномены, которые были предложены и самим А. Тьюрингом.
16 ТХ2: общепринятое понимание теста Тьюринга, который часто называется «друг по переписке». Это искусственная личность, которая в различных и всевозможных медиаконтекстах кажется настоящей личностью.
17 ТХ3: роботизированная версия TХ2. Искусственные личности имеют возможность манипуляции предметами внешнего мира, скажем, они способны не только к забиванию гвоздей, но и к организации потока интернета вещей.
18 TХ4: компьютерные системы, неотличимые как в плане ТХ3-неотличимости, так и в плане микрофизической организации системы. Здесь имеет место «тотальная неотличимость» компьютерной системы от человека, включая мельчайшие внутренние нюансы телесного строения. Например, вскрывается черепная коробка искусственной личности, а в ней – мозг, неотличимый от человеческого. На самом деле, этот мозг является произведением нейроинспирированной нанотехнологии.
19 ТХ5: системы, неотличимые с точки зрения теории реальности. То есть имеется некоторая панкомпьютерная модель представления единой реальности. Смотрим с позиции корпускулярной теории на искусственную и естественную личности – они не отличаются. Смотрим с позиции теории струн – тот же эффект, эффект тотальной неотличимости.
20 Тест Харнада был предложен более двадцати лет назад. И тогда, и сейчас неотличимость естественной и искусственной личностей следует рассматривать с помощью тьюрингового теста ТХ0. На этом уровне мы и будем рассматривать систему ИИ, которая обозначается нами как «искусственный чиновник».
21

Чат-боты как искусственные личности в социально-политической коммуникации

В качестве искусственной личности мы рассматриваем интеллектуальные системы, способные имитировать поведение людей (прежде всего вербальное) и проходить определенные составляющие комплексного теста Тьюринга. Эти компьютерные системы сегодня вполне успешно заменяют людей во многих сферах социальной жизни и, к сожалению, гуманитарной деятельности. Эти системы становятся прекрасными моделями для социокультурных экспериментов, то есть в рамках социально-политической коммуникации искусственные личности выполняют репликативные, репрезентативные и репродуктивные функции. К таким системам относятся, прежде всего, чат-боты, но также это могут быть системы, еще и визуально схожие с людьми, например, созданные с помощью технологий для разработки дип-фейков. В социально-политической коммуникации соответствующие системы действуют как коммуникативные акторы и посредники, способные оказывать влияние на действия акторов-людей. В настоящее время в данном контексте наиболее активно используются чат-боты, получившие наименование социальных ботов и определяющиеся следующим образом: «боты…, которые автоматически создают контент и взаимодействуют с людьми, пытаясь им подражать и изменять их поведение» [17, c. 96].
22 Рассмотрим два основных сценария применения социальных ботов как систем искусственного интеллекта, соответствующих формату искусственной личности, в сфере социально-политической коммуникации. Эти сценарии можно обозначить как «виртуальный политик» и «виртуальный чиновник» [14] или в контексте тематики искусственной личности как «искусственный политик» и «искусственный чиновник».
23 Первый из них представляет собой использование социальных ботов в рамках политического процесса, связанного с электоральной деятельностью, взаимодействием политических партий или других акторов политического процесса. Такие системы используются, например, как участники политических дискуссий в социальных сетях, когда чат-боты, имитирующие реальных людей, высказывают мнение по некоторым вопросам, например, аргументы в поддержку определенного кандидата на политических выборах. Такие боты формируют видимость политически активного сообщества вокруг определенных субъектов политического процесса и меняют политическое настроение сообщества, оказывая таким образом влияние на результаты электорального процесса. Социальные боты способны репрезентировать определенную политическую позицию и делать ее видимой для широкого круга аудитории за счет скорости продуцирования сообщений и охвата большой аудитории. Социальные чат-боты изменяют четыре основных аспекта сетевой социально-политической коммуникации, к числу которых относятся «(1) структура сети, (2) содержание/обмен сообщениями, (3) настроение и (4) влиятельность» [20, с. 275]. В настоящий момент подобные технологии становятся все более доступны, что приводит как к негативным, так и к возможным позитивным эффектам применения социальных ботов в политическом процессе.
24 Негативные эффекты основаны на том, что в область политического действия внедряются акторы, лишь имитирующие характеристики полноправных участников политической деятельности, но реально ими не обладающие. Из-за этого происходит деструкция процедур демократии участия, предполагающей равнозначность и открытость участников поля социально-политической коммуникации. Примером подобного деструктивного воздействия «является астротурфинг, понимаемый как дезинформация об участниках сообщества, которые скрывают, что не являются людьми и за счет этого продвигают политические кампании, имитируя «голос народа» в поддержку определенного кандидата» [18, с. 3]. Подобные явления заставляют рассматривать применение социальных ботов в политической деятельности преимущественно в негативном ключе, однако, возможны и позитивные эффекты их применения.
25 Предлагается сформулировать критерии, которым должен соответствовать социальный бот, становящийся актором политического процесса. Ключевым из них является следующий: «Социальные боты должны значительно улучшить демократию участия, что предполагает получение нетривиальных, поддающихся количественной оценке эффектов в целевых подсетях» [19, с. 8]. Отмечается также, что, несмотря на риски, вызванные все большей доступностью технологий продуцирования социальных ботов, они дают возможность более активного участия в политической жизни, поскольку позволяют увеличить охват аудитории, на которую нацелена репрезентация собственной политической позиции [27, с. 191]. При этом социальные боты, соответствующие критериям этичности, могут быть обозначены как «искусственный политик». Такая система репрезентирует определенную политическую позицию, но при этом выступает как специфический искусственный политический актор, не выдавая себя за человеческую личность. Примером подобной системы может служить социальный проект Синтетической партии, представляющий собой «коалицию политических партий, основанных на искусственном интеллекте… Синтезируя информацию от всех маргинальных партий в Дании, Синтетическая партия активизирует аполитичных диванных избирателей» [16]. Данный проект предполагает взаимодействие с чат-ботами, которые способны репрезентировать программу «партии» и взаимодействовать с потенциальными избирателями.
26 Другой сценарий связан с использованием социальных ботов в качестве каналов взаимодействия между правительственными структурами и гражданами. Такие боты могут быть направлены на повышение эффективности принятия управленческих решений, получение обратной связи от граждан, анализ опыта взаимодействия с управленческой инфраструктурой. Такие боты служат для интенсификации «различных форм гражданского участия, как непосредственных, так и опосредованных— контроля за деятельностью правительственных структур (противодействие коррупции, протест против пенсионной реформы), отстаивание социальных интересов граждан (права человека, контроль за информационным пространством), реализация различных форм социальной солидарности (волонтерская деятельность, действия в кризисных ситуациях)» [6, с. 28]. Применяемые в подобном контексте социальные боты могут обозначаться как «искусственные чиновники», выполняющие один из присущих чиновникам видов деятельности – осуществление коммуникации между гражданами и властными структурами.
27 Социальные боты, нацеленные на подобную коммуникацию, могут выполнять несколько ключевых функций. К их числу относится, прежде всего, информирование граждан о различных правительственных мероприятиях и действиях. В силу интерактивности бота есть возможность сразу же получить обратную связь по поводу данных мероприятий. Так же социальные боты могут выступать в роли ассистентов, помогающих совершать определенные действия в качестве граждан. Такие ассистенты могут оказывать в том числе юридическую поддержку гражданам, обучаясь на массивах юридических документов и кейсах, материал для которых сами граждане предоставляют в процессе диалога с ботом.
28 В настоящее время для выполнения подобных функций существуют боты-ассистенты, которым приписывают квазиличностные свойства, например, дается определенное имя, но они чаще всего привязаны к определенному правительственному сервису и не могут считаться в полной мере социальными ботами. Примером подобного бота может служить EMMA – чат-бот, разработанный для Иммиграционной службы США. Этот чат-бот выступает в качестве ассистента, дающего ответы на вопросы об иммиграционных услугах, процессе получения грин-карты, паспортах и так далее. Еще один подобный пример – чат-бот правительства штата Миссисипи США: MISSI. Он отвечает на вопросы жителей о налогообложении, медицинских услугах, расписании общественного транспорта, возможностях трудоустройства. Однако есть примеры и реальных социальных ботов, используемых для коммуникации с гражданами, хотя степень и направление этой активности не были достаточными: «Наиболее активные каналы во время пожаров принадлежали экстренным службам и информационным агентствам. В области управления чрезвычайными ситуациями автоматизация используется исключительно для обработки предупреждений» [22, с. 5]. В данном случае рассматривался кейс применения социальных ботов во время пожаров в Австралии в 2018 году: «Во время лесных пожаров, аварийные организации, новостные агентства, граждане и другие субъекты активно общались через Twitter» [22, с. 7]. В целом, основываясь на ряде исследований зарубежных и отечественных авторов можно отметить, что применение социальных ботов, демонстрирующих признаки искусственной личности, в качестве «искусственных чиновников» является более редкой и фрагментарной практикой, чем их применение, например, в электоральном политическом процессе.
29

Социальный бот в качестве «искусственного чиновника»

Представляется важным рассмотреть возможный сценарий применения социального бота, соответствующего признакам искусственной личности, в сфере социально-политической коммуникации между правительственными структурами и гражданами. Основной целью применения такого социального бота или «искусственного чиновника» может стать суммирование и анализ опыта граждан, испытывающих на себе последствия принятия правительственных решений в наиболее значимых общественных сферах: образовании, медицине, городском управлении, правовом регулировании и т.п. Предполагается, что учет такого опыта станет основой для корректировки принимаемых решений в целях повышения их эффективности. Это позволит прийти к согласованности общественных действий в области принятия общезначимых решений. Важной особенностью социально-политической коммуникации в этом случае должна стать ее двусторонняя направленность: не простое информирование граждан, но постоянный учет их собственного опыта и получение обратной связи. Общая схема применения социального бота «искусственный чиновник», основанного на технологии GPT-p представлена на рисунке 1.
30

Рис. 1. Общая схема применения социального бота «искусственный чиновник», разработанного на основе модуля GPT-3 (ruGPT-3)

31 Социальный бот в данном случае должен вести осмысленные диалоги в социальных сетях, которые призваны инициировать описание гражданами собственного опыта и возникающих проблем при использовании, например, городской инфраструктуры, посещении медицинских учреждений, получении образования и так далее. Такие диалоги должны быть систематическими, происходить в различных сообществах внутри социальных сетей, инициироваться самими социальными ботами. Представляется, что в качестве искусственной личности такие социальные боты должны имитировать компетентность в той сфере, в которой идет обсуждение, и эмпатию, поскольку важно заставить пользователя обозначить максимальное количество компонентов его персонального опыта. Существуют вербальные маркеры эмпатии, которые должны отображаться в сообщениях, продуцируемых социальными ботами. Вербальный маркер – «это единица или дискретная структура одного из уровней языковой системы, в ряде случаев поддающаяся параметризации, появление которой (а) само по себе или (б) в совокупности с другими релевантными единицами и / или (в) с определенной частотностью в сегменте речи / тексте косвенно указывает на некоторые сложные и недоступные непосредственному наблюдению процессы, феномены, фундированные в когнитивной деятельности, психической жизни продуцента речи / текста, способные при определенных условиях «запускать» аналогичные процессы во внутреннем мире реципиента речи / дискурса» [10, с. 49].
32 Социальный бот, отвечающий подобным критериям, должен эмулировать спонтанный диалог, который будет максимально близок к беседе на естественном языке, и не станет напоминать типичный социологический опрос, предполагающий формальные и помещенные в предзаданные рамки ответы. Представляется необходимым, чтобы подобный социальный бот был основан на использовании модуля GPT-3 (chatGPT-3), поскольку данная система позволяет продуцировать тексты, максимально приближенные к стилистике естественного языка, а не следовать готовым скриптам. К сожалению, в настоящее время компания OpenAI не предоставляет доступ к API пользователям, находящимся на территории Российской Федерации. Тем не менее, существует проект русифицированного ruGPT-3 ( >>>> ), разработанный подразделим SberDevices. Эта система позволяет продолжать тексты на русском языке, но не имеет в открытом доступе специального модуля для разработки чат-ботов.
33 Разработка социального бота на основе ruGPT-3, которого можно использоваться в социально-политической коммуникации в качестве искусственного чиновника, предполагает несколько основных этапов: 1) дообучение системы ruGPT-3 на основе корпуса текстов той предметной области, в которой предполагается работа с целью имитации компетентности в этой предметной области; 2) разработка API, позволяющего чат-боту подключаться к системе ruGPT-3; 3) создание чат-бота в социальной сети или мессенджере.
34 В качестве исследования возможностей построения чат-бота в определенной предметной области произведено дообучение модели GPT-3 на основе текстов федеральных законов в сфере образования ( >>>> ).
35

36 Рис. 2. Процесс дообучения ruGPT-3
37 В настоящий момент продолжается разработка API и диалогового модуля для чат-бота «искусственный чиновник», которая осложнена отсутствием доступа к сервисам OpenAI, а ruGPT пока не предоставляет в открытом доступе собственного диалогового модуля. Соответственно, разработка требует дальнейших исследований с учетом особенностей модуля ruGPT и привлечением дополнительных вычислительных мощностей.
38

Критерии доверия к системе искусственной личности в социально-политической коммуникации

Доверие к «искусственному интеллекту» (далее – доверие к ИИ) – «состояние убеждённости пользователя системы ИИ и других заинтересованных лиц (например, государственных регуляторов в соответствующих прикладных отраслях; разработчиков систем ИИ; страховых компаний) в том, что система 𝑺𝑺𝑎𝑎 может быть использована для решения конкретной прикладной задачи искусственного интеллекта 𝑮𝑮 в заданных (предусмотренных) условиях эксплуатации» [3, с. 3]. Это определение требует дальнейшей интерпретации в контексте применения технологий искусственной личности в условиях социально-политической коммуникации.
39 Предложенный сценарий применения социальных ботов, реализующих принцип имитации персонологических феноменов, особенно остро ставит вопрос информационной безопасности таких систем. Некорректное применение этих технологий способно привести к ряду нежелательных социально-политических последствий, а также вызывает экономические и даже медицинские риски. Доверие к таким системам должно обеспечиваться со стороны следующих субъектов: государственных регуляторов, социальных групп, отдельных граждан. Только в этом случае возможно делегирование системам искусственной личности тех функций, которые были обозначены в сценарии их использования как «искусственного чиновника».
40 Понятие «доверие» субъекта к объекту (в данном случае искусственной личности) имеет социогуманитарное происхождение и выражается в совокупности установок субъекта: ожидании того, что объект будет реализовывать некоторые функции, способствующие увеличению или сохранению ресурсов субъекта и готовности субъекта делегировать объекту реализацию этих функций [5]. Также важным компонентом доверия к системе искусственной личности является доверие к сообществу, обеспечивающему разработку, создание и поддержание системы искусственной личности в процессе ее применения. Например, необходима нейтральность разработчиков в плане так называемых AI bias, то есть предрассудков (расовых, национальных, классовых, гендерных), которые они вольно или невольно могут имплементировать в интеллектуальную систему искусственной личности. Предполагается, что при дообучении социального бота, разработанного на основе ruGPT-3, следует избегать текстов, в которых представлены вербальные маркеры различного рода предрассудков.
41 Другим подходом к определению уровня доверия к искусственной личности является квалиметрический подход. В рамках реализации данного подхода целесообразно выделить две ключевые задачи: 1) формирование исчерпывающих перечней функциональных характеристик, измерение которых необходимо при определении качества системы искусственной личности, задействованной в социально-политической коммуникации; 2) разработка способов измерения функциональных характеристик, позволяющих получать статистические оценки этих характеристик, являющиеся несмещёнными, состоятельными и эффективными.
42 Решение первой задачи осуществляется на этапе внешнего проектирования, когда могут быть выявлены функциональные характеристики системы искусственной личности. К их числу отнесем имитацию компетентности в определенной предметной области, эмоциональных состояний, эмпатии. Все эти функциональные характеристики должны быть выражены с помощью релевантного набора вербальных маркеров.
43 Для второй задачи ключевым моментом является подготовка релевантного набора тестовых данных, на котором могут быть получены необходимые оценки функциональных характеристик систем искусственной личности Ключевой особенностью алгоритмов обучения искусственной личности с применением таких моделей, как ruGPT-3 является их принципиально плохая интерпретируемость (interpretability), объяснимость (explainability) и понятность (transparency) для человека. Это требует особых подходов к обеспечению статистической представительности проводимых испытаний алгоритмов, основанных на детальной формализации планируемых условий их применения (context, domain) [3]. Исходя из этого, обоснование репрезентативности тестовых наборов данных предполагает выполнение следующих процедур: выявление исчерпывающего перечня внешних по отношению к системе искусственной личности факторов, существенно влияющих на качество работы алгоритмов для задачи социально-политической коммуникации, обоснование предположений о законах распределения существенных факторов в реальных (предусмотренных) условиях.
44

Заключение

В настоящее время применение технологий «искусственной личности» для повышения эффективности социально-политической коммуникации в большей степени представлено в рамках электорального процесса. Тем не менее, возможен сценарий применения таких технологий, прежде всего в виде социальных ботов, в качестве «искусственных чиновников», обеспечивающих взаимодействие между институтами власти и гражданами. Разработка подобных социальных ботов требует привлечения языковых моделей типа ruGPT-3, для дообучения которых необходимо использовать тексты в соответствующей предметной области и в соответствии с задачами, которые ставятся в рамках конкретного коммуникативного контекста. Также такие социальные боты должны быть основаны на принципах доверенного искусственного интеллекта.
45 Социальные боты сегодня успешно реализуют почти все функции искусственных личностей. Репликативные, репрезентативные, репродуктивные и рекреативные функции искусственных личностей – пожалуйста, всё успешно реализуется. Казалось бы, весьма преждевременно говорить о правомочности рекреативных систем, то есть, когда построение и внедрение программно-аппаратного комплекса подобно рождению человеческой личности. Оказывается, на практике это оказывается весьма простым делом. Если наблюдатель искусственной личности, выражая общественное мнение, посчитал, что компьютерная система удовлетворяет доверительному интервалу оценки личностного, значит, так оно и есть, искусственная личность построена и ее можно и нужно наделять правами и обязанностями, равными с человеческими.
46 Для выбора масштаба доверия к этой внешне успешной последовательности проектов следует изучать еще одну интерпретацию, рефлексивного содержания. На уровне проекта как рефлексии (буквально настоящей, мировоззренческой рефлексии) звучат отрезвляющие оценки: «Проект изучает духовную жизнь человека, а она вряд ли поддается компьютерному анализу» (В.Л. Макаров); «Слишком сложным предметом изучения является мозг» (А. Тьюринг); «Слишком сложным предметом изучения является общество и социальные связи между людьми» (Х. Патнэм), «Ваш мозг изучить можно, мой – нет» (В.Л. Дунин-Барковский, со ссылкой на суждения Р. Пенроуза, Б. Рассела). Однако доверительно оценить такую рефлексивную позицию мы сможем, пройдя самостоятельно сложным путем попыток программно-аппаратной реализации проектов искусственных личностей.
47 В завершение работы еще раз подчеркнем, что пророчества А.М. Тьюринга и В.С. Стёпина сбылись: неожиданно нас, людей, стали окружать искусственные личности и этим программно-аппаратным системам мы должны доверять или не доверять.

Библиография

1. Указ Президента Российской Федерации от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» // URL: http://www.kremlin.ru/acts/bank/44731

2. Алексеев А.Ю. Трудности проекта искусственной личности // Искусственные общества. 2008, T. 3, № 1.

3. Алексеев А.Ю., Винник Д.В., Гарбук С.В., Лекторский В.А. (ред.), Черногор Н.Н. Методика оценки доверия к «искусственному интеллекту». М.: Президиум РАН. 2022 г. 17 с. URL: https://aintell.info/55/

4. Алексеев А.Ю., Гарбук С.В. Как можно доверять системам искусственного интеллекта? Объективные, субъективные и интерсубъективные параметры доверия. // Искусственные общества. 2022, T. 17, № 2.

5. Алексеев А.Ю., Ефимов А.Р., Финн В.К. Будущее искусственного интеллекта: тьюринговая или посттьюринговая методология? // Искусственные общества. 2019, T. 14, № 4. DOI: 10.18254/S207751800007698-6.

6. Василькова В.В., Легостаева Н.И., Радушевский В.Б. Социальные боты как инструмент развития гражданского участия // Мониторинг общественного мнения: Экономические и социальные перемены. 2019, № 5.

7. Всероссийская междисциплинарная конференция «Философия искусственного интеллекта – 2022. Искусственный интеллект: проблема доверия». // URL: https://phai.info/2022

8. Гарбук С.В. Особенности применения понятия «доверие» в области искусственного интеллекта // Искусственный интеллект и принятие решений. 2020, № 3. DOI 10.14357/20718594200302

9. Деннетт Д.С. Виды психики: на пути к пониманию сознания / Пер. с англ. А. Веретенникова. Под общ. ред. Л. Б. Макеевой. М.: Идея-Пресс, 2004.

10. Колмогорова А.В., Калинин А.А., Маликова А.В. Типология и комбинаторика вербальных маркеров различных эмоциональных тональностей в интернет-текстах на русском языке // Вестн. Том. гос. ун-та. 2019, № 448.

11. Лекторский В.А., Васильев С.Н., Макаров В.Л., Хабриева Т.Я., Кокошин А.А., Ушаков Д.В., Валуева Е.А., Дубровский Д.И., Черниговская Т.В., Семёнов А.Л., Зискин К.Е., Любимов А.П., Целищев В.В., Алексеев А.Ю. Человек и системы искусственного интеллекта / Под ред.акад. РАН В.А. Лекторского. — СПб.: Издательство «Юридический центр», 2022. 328 с.

12. Серёдкина Е.В. Общая теория рациональности и артилекты в проекте OSCAR Дж. Поллока // Философско-методологические проблемы искусственного интеллекта: Материалы постоянно действующего теоретического междисциплинарного семинара / Под ред. Е.В. Серёдкиной. – Пермь: Изд-во Перм. гос. техн. ун-та, 2007.

13. Степин В.С. Постнеклассическая рациональность и информационное общество // Философия искусственного интеллекта. Труды Всероссийской междисциплинарной конференции, посвященной шестидесятилетию исследований искусственного интеллекта, 17-18 марта 2016 г., философский факультет МГУ имени М. В. Ломоносова, г. Москва / Под ред. В. А. Лекторского, Д. И. Дубровского, А. Ю. Алексеева. – М.: ИИнтелл, 2017. ISBN 978-5-98956-012-7 – 340 с. (Сер.: Философия искусственного интеллекта). URL: https://aintell.info/25

14. Федорченко С. Н. Феномен искусственного интеллекта: гражданин между цифровым аватаром и политическим интерфейсом // Журнал политических исследований. 2020, №. 2. DOI: https://doi.org/10.12737/2587-6295-2020-34-57

15. Brown B.B. et al. Language Models are Few-Shot Learners // Advances in Neural Information Processing Systems 33 (NeurIPS 2020) https://papers.nips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf

16. Det syntetiske parti // https://computerlars.com/blog/

17. Ferrara E., Varol O., Davis C., Menczer F., Flammini A. The rise of social bots// Communications of the ACM. 2016, 59(7). 96–104.

18. Garc?a-Orosa, B. Disinformation, social media, bots, and astroturfing: the fourth wave of digital democracy// Profesional De La informaci?n/ 2021. 30(6). https://doi.org/10.3145/epi.2021.nov.03

19. Gehl R. W., Bakardjieva M. Socialbots and Their Friends // Socialbots and Their Friends. Digital Media and the Automation of Sociality. Ed. by Gehl R. W., Bakardjieva M. Routledge, 2016

20. Hagen L., Neely S., Keller T.E., Scharf R., Vasquez F.E. Rise of the Machines? Examining the Influence of Social Bots on a Political Discussion// Discussion Network. Social Science Computer Review. 2020. 40(2). https://doi.org/10.1177/0894439320908190 

21. Harnad S. Minds, machines and turing: The indistinguishability of indistinguishables // J. of logic, language, and information. http://www.ecs.soton.ac.uk/~harnad/Papers/Harnad/harnad00.turing.html

22. Hofeditz L., Ehnis Ch., Bunker D., Brachten F. Stieglitz S. Meaningful use of social bots? possible applications in crisis communication during disasters // Proceedings of the 27th European Conference on Information Systems (ECIS), Stockholm & Uppsala, Sweden, June 8-14, 2019. ISBN 978-1-7336325-0-8 Research Papers. 2019. https://aisel.aisnet.org/ecis2019_rp/138

23. Norris P. Political Communication // Smelser N. J., Baltes P. B. (Eds.) International Encyclopedia of the Social & Behavioral Sciences. Amsterdam: Elsevier. 2001. Pp. 11631-11640. https://doi.org/10.1016/B0-08-043076-7/04364-311631

24. Sloman A. What sorts of machines can love? Architectural requirements for human-like agents both natural and artificial. // URL: http://www.sbc.org.uk/ literate.htm 4

25. Thompson, John B. The Media and Modernity: A Social Theory of the Media. Stanford. 1995.

26. Turing, A. Computing Machinery and Intelligence, Mind 59 (236), pp. 433–460.

27. Woolley S.C., Philip N.H. Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. Oxford Academic, 2018.

Комментарии

Сообщения не найдены

Написать отзыв
Перевести