Ethics of the Digital Twin of Society
Table of contents
Share
Metrics
Ethics of the Digital Twin of Society
Annotation
PII
S207751800012583-0-1
DOI
10.18254/S207751800012583-0
Publication type
Article
Статус публикации
Published
Authors
Oleg Gurov 
Occupation: applicant for PhD
Affiliation: RAS Institute of Philosophy, Institute of Industrial Management of the Russian Presidential Academy of National Economy and Public Administration
Address: Russian Federation, Moscow
Yulia Belokhina
Occupation: Senior lecturer
Affiliation: Institute of Industrial Management of the Russian Presidential Academy of National Economy and Public Administration
Address: Russian Federation, Moscow
Abstract

We have been witnessing the implementation of large-scale projects based on digital technologies. Among such developments is the creation of a model of an artificial society which allows to create and test management and economic proposals and solutions in a simulation environment. Such multilevel and interdisciplinary tasks require new approaches, cooperation and interaction between specialists in various fields of knowledge and activity. The mutual penetration of “human” and technologies allows us to enrich our capabilities to improve the life of a person and society, but at the same time it requires a decent and ethical goal-setting of activities, which must recognize the anthropocentricity of all basic processes. Accomplishing this challenge requires extensive ethical research, evaluation and identification of effective solutions to ethical issues.

Keywords
artificial intelligence, artificial intelligence system, ethics, digital ethics, big data ethics, machine ethics, digital twin, COVID-19
Received
07.10.2020
Date of publication
06.12.2020
Number of purchasers
8
Views
305
Readers community rating
0.0 (0 votes)
Cite Download pdf

To download PDF you should sign in

1 Этическая проблематика и вопросы доверия становятся важной проблемой, требующей внимания на всех уровнях: в международных отношениях, в экономике, в социальной сфере. Неочевидно, но феномен доверия приобрел актуальность и для техносферы. Более того, значительность дискуссии именно вокруг взаимодействия человека и общества с техникой сложно переоценить особенно сегодня, когда продукты продвинутых технологий начинают выполнять все больше и больше функций, ранее характерных только для человека. Мы говорим о технологиях, которые буквально вчера были сюжетами фантастики, например, о цифровом двойнике общества. Возможно ли, что нейронные сети станут способными принимать решения с учетом этических соображений, или это утопия? Какие ограничения работа над созданием таких проектов накладывает на разработчиков и тех, кто будет пользователем их продуктов? Какие вопросы вправе задать субъекты данных тем, кто использует их данные?
2

Отметим, что вопросы, формулируемые в таком ключе, вопросы доверия к технике, взаимодействия ее с человеком — далеко не новы. Мы не будем делать глубокий экскурс в историю развития этой рефлексии и приведем лишь несколько отдельных ярких примеров, чтобы показать, насколько серьезна и многогранна эта тема. Еще в древнегреческой мифологии можно найти сюжеты, свидетельствующие об интересе к границам между биологическим и технологическим, гранью между человеком и продуктом технологии. По легенде, Дедал, великий художник, скульптор и инженер, смог создать биомиметическую корову, настолько похожую на подлинное животное, что определить ее искусственное происхождение было невозможно. Речь о чуде инженерной мысли и признание заслуг создателя не подлежит сомнению. Но все не так однозначно, этот же сюжет предрекает и опасности, которые могут исходить от технических изобретений, повествуя о трагической гибели сына Дедала, Икара [4].

3

Л.Н. Толстой отмечал, что, с одной стороны, техника свободна от дихотомии добра и зла, а с другой - научные истины искажаются в минимальной степени, проходя через «человеческое» в отличие от истин религиозных. И для качественного и всестороннего научно-технического прогресса, направленного на достижение всеобщего блага, необходимо не абсолютизировать технику, а применять ее с оглядкой на мудрость великих учений прошлого, очищенных от искажений, которые обусловлены историей и политикой [9]. Задача достойная, но насколько она выполнима в действительности, насколько реалистична?

4

М. Хайдеггер заявил, что говорить о выстраивании отношений между человеком и техникой просто нерелевантно, поскольку «… требуется человечество, которое в самой своей основе соразмерно уникальному существу новоевропейской техники и ее метафизической истине, то есть которое дает существу техники целиком овладеть собою» [8]. Иными словами, ведущее положение техники в современном цивилизационном процессе является данностью, под воздействием которой перестраивается, подвергается мутациям, сама природа человека.

5

Этот дискурс коренится, наверное, в природе самого человека, который издавна стремится к тому, чтобы сделать свое существование более комфортным, и техника является постоянным спутником и средством достижения этой цели. Обозначенные выше идеи вполне корреспондируют с тем, что мы наблюдаем сегодня: развитие техники в образе цифровых технологий позволяет говорить даже о вирусе цифровизации, поразившем политическую, экономическую и культурную системы в общем, и сознание человека в частности. Многоуровневая цифровая пандемия вписывается в уже сложившуюся традицию интерпретировать общественное развитие как бесконечную череду вирусных мутаций. Как отметил один из авторов статьи еще несколько лет назад, задолго до коронакризиса, вирус превратился в метафору современности, став универсальным понятием: сегодня мы затрудняемся определить границу между вирусами-микроорганизмами, медиавирусами, компьютерными вирусами – список можно продолжить [3].

6

Хотя разные виды вирусов охватывают, на первый взгляд, абсолютно несопоставимые сферы, принципы их рождения, жизнедеятельности и распространения идентичны, они могут взаимодействовать и производить синергетический эффект на окружающий мир. События текущего, 2020 года, связанные с пандемией COVID 19, заставляют убедиться, что распространение биологического вируса сопровождается не менее масштабной информационной пандемией, или, иначе говоря, инфодемией. На сайте Всемирной организации здравоохранения (ВОЗ) была недавно опубликована статья «Управление инфодемией COVID-19: пропаганда здорового образа жизни и уменьшение вреда от дезинформации». Само название публикации свидетельствует, что пандемия коронавируса включает биологическую и информационную ипостаси. В статье декларируется, что текущая коронавирусная пандемия – это первый случай в мировой практике, когда борьба с биологическим явлением на планетарном уровне осуществляется с помощью продвинутых информационных технологий и возможностей социальных медиа. При этом те же самые технологии и соцсети несут ответственность за возникновение и распространение инфодемии, негативный эффект которой заметен во всех общественных сферах в том же планетарном масштабе [15]. Вопрос, явно лежащий на стыке традиционной этики и вопросов технологического развития.

7

При этом если мы наблюдаем катастрофический избыток и переполнение инфосферы, необходимо искать дефицит такого же масштаба в каких-либо смежных, пограничных областях. И действительно, как мы уже писали выше, налицо кризис доверия, его недостаточность и даже отсутствие во многих ключевых областях общественной жизни. Сегодняшние вызовы в условиях пандемии для мировой системы здравоохранения, неопределенность в отношении путей всеобщего экономического развития, кризис в международных отношениях, пути выхода из которого туманны – все это явно не способствует восстановлению доверия [14]. Но кроме этого, современный человек сталкивается с дефицитом смыслов и понимания в экзистенциальном смысле. Как отмечает известный австрийский психолог и психотерапевт А. Лэнгле, у современного человека, в меньшей степени, чем у предыдущих поколений, присутствуют ограничения, связанные с бытовыми сложностями, религиозными и культурными установками, что вроде должно дать ему больше возможностей для выбора собственного пути в жизни. Однако при этом, «… в ситуации, когда постоянно растет число возможностей и соблазнов, проблема смысла только обостряется, хотя и недостаточно осознается, и нужно быть очень сильной и очень ясно мыслящей личностью, чтобы сохранить аутентичные жизненные установки» [2]. Подобные условия питают негативную и разрушительную энергию постправды и неопределенность культурных установок, что приводит к дезориентации и неустойчивому состоянию общества и отдельного индивида.

8

В концептуальной области, направленной на практические аспекты развития общества, мы также наблюдаем определенный разрыв между общепринятыми теориями и перспективной практикой. Система научной организации труда Ф. Тейлора, теория конкурентных преимуществ М. Портера, теория «подрывных инноваций» К. Кристенсена имеют одну общую черту - отсутствие человеческого измерения, и поэтому рассматривают менеджмент и связанные с ним процессы как «… инструмент или технологию для максимизации эффективности, координации и производительности, даже если внешне сохраняется видимость заботы о людях» [7]. В настоящее время эти подходы теряют эффективность, потому что не дают решения для насущных проблем сегодняшнего дня, которые мы обозначили выше: это те самые вопросы, связанные со смыслами, пониманием и доверием. Безусловно, все общественные системы должны приобрести новую грань - гуманитарную, обязаны начать учитывать человеческие особенности, определяющие человеческую индивидуальность. Именно этот подход, на наш взгляд, способен обеспечить баланс между развитием техносферы и сохранением человеческого потенциала, создать основу для благополучного движения вперед и гарантировать защиту от риска дегуманизации. При этом важно, чтоб этический стандарт вошел в ДНК всей системы, в том числе, в те области, которые ранее представлялись исключительно технологическими и дегуманизированными. И снова проблематика, в которой технологии пересекаются с этикой.

9

Подобные задачи, многоуровневые и междисциплинарные, требуют новых подходов, сотрудничества и взаимодействия между специалистами в различных областях знания и деятельности. В существующей общественной системе бессчетное количество социальных и экономических субъектов демонстрирует широкий спектр реакций и поведения, учесть полноту которых при принятии решений представляется сложнейшим делом. И здесь, хотя это звучит как парадокс, именно высокотехнологичные решения могут позволить решить задачи, необходимые для преодоления гуманитарных кризисных явлений, обозначенных выше. Работа по созданию цифрового двойника общества, с помощью которого можно решать масштабные экономические и общественные задачи, ведется во всем мире. Совсем недавно исследователи Гарвардского университета и компании Salesforce представили модель AI Economist, новое исследовательское направление, моделирующее с помощью алгоритмов ИИ управление экономикой и оптимизирующее производительность с учетом требований всеобщей социальной справедливости. Более того, AI Economist способен помочь в принятии обоснованных политических решений, и в перспективе данный инструмент может использоваться для разработки и реализации конкретных социальных задач [13].

10

В российском Центральном экономико-математическом институте (ЦЭМИ) РАН ведется своя масштабная работа над разработкой модели искусственного общества, позволяющая создавать и тестировать управленческие и экономические предложения и решения в симуляционной среде. Это очень непростая задача, требующая учета человекомерности всех процессов не только в качестве абстрактной характеристики, но и как конкретных элементов компьютерной модели человека и общества. Как отмечает научный руководитель ЦЭМИ, академик РАН В. Макаров: «… Искусственное общество — это инструмент апробации управленческих решений. Мы давно занимаемся созданием моделей искусственных обществ. До сих пор строили такие модели для регионов России» [1]. Для создания цифровой модели, максимально похожей на живого человека, необходимо «наделить» его чувствами – это перспективная исследовательская деятельность, необходимая, чтобы модель искусственного общества была актуальной и выполняла свою главную задачу.

11 И поэтому, когда мы говорим о технологиях ИИ, особенно о таких масштабных и амбициозных, в первую очередь, на ум приходят риски и угрозы, возникающие при использовании больших данных – как самих данных и алгоритмов, так и всех этапов работы, связанных с ними. Чем выше цена вопроса, тем более серьезные последствия могут иметь просчеты. Необходимо буквально через микроскоп изучать все параметры и контролировать их на предмет возможных bias (ошибок, предрассудков, искажений, проявлений дискриминации и пр.). Однако здесь этический вызов как раз является и возможностью, и эти риски и необходимость их контролировать следует рассматривать в положительном ключе. Наличие bias свидетельствует, что та или иная проблема существовала и ранее, возможно, в скрытой форме, и новый подход позволяет выявить и обратить на нее особое внимание, поставить диагноз и создать почву для устранения.
12

Таким образом, взаимное проникновение «человеческого» и технологий позволяет обогатить и сделать более универсальным инструментарий наших возможностей по улучшению жизни человека и общества, но для этого необходимо выполнение самого важного условия – достойного и этичного целеполагания всей деятельности. А вот это серьезный вызов. Мы уже наблюдаем на практике, как эти же самые технологии начинают использоваться политиками в новых, неизведанных ранее областях, находящихся за границей добра и зла. В частности, технологии Deepfake становятся на службу медийных кампаний, разрушая границы реальности и этических ограничений. Например, с помощью такой технологии был виртуально «воскрешен» Х. Оливер, убитый несколько лет назад во время трагедии в школе Паркленда. Сегодня образ убитого подростка участвует в предвыборной агитации [10].

13 Поэтому отметим еще раз — критически важно учитывать всю широту гуманитарной и этической составляющей при разработке и реализации продвинутых технологических проектов. Горизонт поистине безграничен, начиная с того, что требуется сформулировать подходы и ограничения в отношении того, насколько технологии ИИ могут принимать решения за человека, и заканчивая тем, насколько допустимо презентовать выпускнику школы прогнозы его профессионального развития на долгие годы, или человеку, прошедшему медицинский чекап - прогноз вероятности возникновения критического заболевания. Еще одной параллельной задачей является разработка системы, которая сможет контролировать этические стандарты алгоритмов с целью принятия объективных и справедливых решений на благо общества.
14

Мы привели эти частные и острые примеры только, чтобы показать, насколько критично обеспечить прозрачность и гибкость при создании цифрового двойника общества. Представляется, несомненно, важным обеспечить укрепление доверия к таким проектам. В общественной риторике можно встретить опасения в связи с рисками безответственного использования технологий ИИ, а также угроз потери человеком автономии и свободы [5]. Четкой формулы выстраивания доверия в этой области не существует, однако исторический опыт внедрения инноваций свидетельствует о том, что доверие как правило рождается, если технологии полезны и безопасны, и их регулирование является прозрачным. Говоря о практической стороне этического регулирования модели искусственного общества, необходимо решить задачу формализации этики в доступном для технологий ИИ формате, а также реализовать этичное принятие решений в самой автономной системе на основе ограничений ИИ в соответствии с моральными нормами или путем обучения ИИ распознавать этические конфликты и принимать в их отношении индивидуальные решения. Это требует увеличения ответственности в процессе разработки и применения этих систем, а также максимально серьезного оперативного контроля ввиду серьезных последствий при принятии неверного этического выбора.

15

Существующий опыт систематизации основных этических вопросов, связанных с созданием и развитием сложных проектов на основе технологий ИИ, позволяет выделить проблемы конфиденциальности и защиты данных, прозрачности, и, возможно, в качестве общего знаменателя - доверия к прогнозным данным. Проблема конфиденциальности и защиты данных широко исследуется в последние годы. Наверное, самым показательным примером является кейс компании Cambridge Analytica, которая использовала личную информацию многих десятков миллионов пользователей Facebook для манипуляции политическим процессом, в частности, во время президентской кампании в США и референдума о Брексите в 2016 году [12].

16

Отметим, что данная проблематика приобрела настолько острую актуальность, что рефлексия по ее поводу из общественного обсуждения перешла в практическую правовую плоскость. Только что группой Facebook You Owe Us (англ. Фейсбук, ты нам должен) был подан коллективный судебный иск на соцсеть за неправомерное использование данных почти миллиона британских пользователей. Данная группа подает аналогичный иск и против Google. Представитель истца Э. Карпио заявляет: «Мы ожидаем от Facebook, что наши личные данные будут использоваться ответственно, прозрачно и законно. Мы считаем, что, не сумев защитить наши личные данные от злоупотребления, Facebook нарушил закон. Наложение штрафа в размере менее 0,01% от их годового дохода явно не соответствует масштабу преступления. Извинение за нарушение закона - этого недостаточно. Facebook, вы должны нам - честность, ответственность и возмещение ущерба. Мы будем бороться за то, чтобы привлечь Facebook к ответственности» [11].

17 С учетом того, что модель искусственного общества, используемая для прогнозирования, должна обязательно использовать данные социальных сетей, вопросы конфиденциальности и защиты данных не могут не вызывать беспокойство, особенно с учетом того, что сейчас еще только формируется инструментарий борьбы с силами, способными получать и использовать данные по собственному, зачастую, преступному, усмотрению.
18 Проблема конфиденциальности и защиты данных пересекается со вторым этическим вопросом, связанным с тем, что локальные системы, использующие личные данные, все сильнее интегрируются в более масштабные системы (соцсети, международные корпорации, государства): и здесь пути, порядок и ответственность за безопасность конфиденциальных данных представляются чем-то размытым и непрозрачным. Более того, требуемая прозрачность искусственной интеллектуальной системы, чьей целью является прогнозирование возможных рисков в политических и экономических процессах, должна соответствовать и сочетаться с концептом информированного согласия. То есть, мы должны быть уверены в том, что субъекты данных (в данном случае граждане, общественность) концептуально согласны с тем, что принимают в своей цифровой ипостаси участие в подобном эксперименте.
19

Следующее этическое соображение — это bias, о которых мы говорили ранее, а также доверие к действительной возможности искусственной интеллектуальной системы прогнозировать риски. И снова встает проблема доверия как ключевой компонент точного прогноза и в результате позитивных изменений в обществе. Важно отметить, что этические проблемы, возникающие в сфере прогнозирования рисков, должны перманентно идентифицироваться и подвергаться обсуждению. При этом мы не наблюдаем в этой сфере действительно критическую или безнадежную ситуацию: ведь технологии не наступают на наш мир как цунами, если мыслить трезво. То, с чем мы имеем дело – болезнь роста. Л. Флориди отмечает: «Распространение технологий не происходит по щелчку: раз — и все стало цифровым. Прогресс никогда не работал таким образом и никогда не будет так работать» [6].

20

И в первую очередь обществу нужно решить собственные, не связанные с цифровизацией, проблемы, находящиеся на стыке культурно-исторического самосознания и этики. Академик РАН В. Макаров справедливо обращает внимание: «Мы очень плохо знаем самих себя, свою историю... Незнание общества, в котором ты живешь,— это серьезный фактор. Люди не в состоянии адекватно воспринимать действительность, не могут критически мыслить» [1]. А это главная причина неспособности рефлексировать в этическом русле, и главная задача здесь стремиться познать себя и определить собственное осознанное отношение к жизни. Необходимо вовлекать все задействованные и заинтересованные стороны в решение этой задачи – государство, систему образования, бизнес, технических специалистов – только совместными усилиями возможно на деле внести в общественную повестку этическую составляющую: государству, обществу, отдельному технологическому проекту недостаточно просто заявлять о своей этичности. Необходима организация общественной дискуссии и тематических исследований, на их основе создание этического кодекса, формирование советов по этике и организация комплексного взаимодействия между всеми участниками по системным и индивидуальным вопросам. Для решения старых и новых этических дилемм требуется достижение общественного консенсуса, а для этого требуется дискуссия.

21 Возвращаясь к теме формирования и этичного управления цифровым двойником общества, на основе предложенных выше инициатив целесообразно проведение так называемой этической экспертизы, в которой должны принимать участие не только эксперты в области цифровых технологий и государственные служащие, работающие в соответствующем сегменте управления, а также отраслевые специалисты, но и представители гуманитарного знания. Этическая составляющая должна стать не просто одной из необходимых категорий цифрового двойника общества, но и основной ценностью, потому что, как мы уже продемонстрировали, этическая составляющая и доверие, играя важнейшую роль, могут легко быть подорваны и в результате лишить проекта высшего смысла.
22 Комплекс событий последнего времени, среди которых экспонентное развитие технологий, позволяющее говорить о цифровом двойнике общества как о реальном проекте, а также пандемия Сovid-19, заставившая среди прочего отметить антропоцентричность основных сфер общественной деятельности, требует проведения масштабных исследований в области этической проблематики, оценки и определения эффективных решений для этических вопросов. На этом пути, мы уверены, перед исследователями открывается целая Вселенная подходов и интерпретаций, а также возможностей для взаимодействия, сотрудничества и взаимного обучения для формирования этичного будущего, в котором цифровые технологии будут служить на благо общества и человека.

References

1. «Upravlencheskie ehksperimenty luchshe oprobovat' na iskusstvennom obschestve»/ Akademik RAN Valerij Makarov — o tom, kak rabotaet tsifrovoj dvojnik sotsiuma // Kommersant' URL: https://www.kommersant.ru/doc/4433177

2. Al'frid Lehngle: «My vse slabee ponimaem istinnuyu tsennost' zhizni» // Psychologies URL: https://www.psychologies.ru/standpoint/alfrid-lengle-ponyat-chego-jdet-ot-menya-jizn/

3. Gurov O.N. Virus kak instrument mediaterrorizma v sovremennoj kul'ture // Yaroslavskij pedagogicheskij vestnik. 2012, №2

4. Zolotareva T.A. Ideya tekhniki v Antichnosti // Gumanitarnyj vektor. 2019, T. 14, № 2. DOI: 10.21209/1996-7853-2019-14-2-89-94

5. Igor' Shnurenko, futurolog: «S vnedreniem iskusstvennogo intellekta my sdelali shag nazad, a ne vpered» // Kul'tura URL: https://portal-kultura.ru/articles/country/326818-igor-shnurenko-futurolog-s-vnedreniem-iskusstvennogo-intellekta-my-sdelali-shag-nazad-a-ne-vpered/

6. Luchano Floridi: «Esli vam neinteresny informatsionnye kontsepty, vy ne ponimaete XXI vek» // Colta URL: https://www.colta.ru/articles/society/21599-luchano-floridi-esli-vam-neinteresny-informatsionnye-kontsepty-vy-ne-ponimaete-xxi-vek

7. Pochemu sovremennye teorii menedzhmenta uzhe ne rabotayut // Vedomosti URL: https://www.vedomosti.ru/newspaper/articles/2020/07/12/834401-pochemu-sovremennie-teorii-menedzhmenta-ne-rabotayut

8. Khajdegger M. Evropejskij nigilizm // Vremya i bytie. M., Respublika, 1993. s. 63-176

9. Shmelev V.D. Otnoshenie L. N. Tolstogo k nauchno-tekhnicheskomu progressu [Tekst] / Shmelev V. D. // Vestnik Orenburgskogo gosudarstvennogo universiteta. 2012, № 7, iyul'.

10. Change the Ref // Twitter URL: https://twitter.com/ChangeTheRef/status/1312024331225051136?s=19

11. Facebook sued over Cambridge Analytica data scandal // BBC URL: https://www.bbc.com/news/technology-54722362

12. Facebook zaplatit $5 mlrd iz-za skandala s Cambridge Analytica Podrobnee na RBK: https://www.rbc.ru/business/25/04/2020/5ea3a15d9a7947fedeb4fed1 // RBK URL: https://www.rbc.ru/business/25/04/2020/5ea3a15d9a7947fedeb4fed1

13. Introducing the AI Economist: Why Salesforce Researchers are Applying Machine Learning to Economics // Salesforce URL: https://www.salesforce.com/news/stories/introducing-the-ai-economist-why-salesforce-researchers-are-applying-machine-learning-to-economics/

14. Kydd A. Trust and Mistrust in International Relations. — Princeton: Princeton University Press, 2005. pp. 284.

15. Managing the COVID-19 infodemic: Promoting healthy behaviours and mitigating the harm from misinformation and disinformation // World Health Organisation URL: https://www.who.int/news/item/23-09-2020-managing-the-covid-19-infodemic-promoting-healthy-behaviours-and-mitigating-the-harm-from-misinformation-and-disinformation