The problem of standardizing the ethics of Artificial Intelligence
Table of contents
Share
Metrics
The problem of standardizing the ethics of Artificial Intelligence
Annotation
PII
S207751800009044-7-1
DOI
10.18254/S207751800009044-7
Publication type
Article
Статус публикации
Published
Authors
Alexander Lunkov 
Occupation: Senior Researcher, Sector of History and Philosophy of Science
Affiliation: Institute of Philosophy and Law, Ural Branch of the Russian Academy of Sciences
Address: Russian Federation, Ekaterinburg
Abstract

In August 2019, the Technical Committee No. 164 for standardization "Artificial Intelligence" was created in Russia. It became a "mirror image" of the profile committee ISO / IEC JTC 1 / SC 42 "Artificial intelligence" (created in 2017) of the International Organization for Standardization. At the moment, there is still no consensus among experts in this field regarding the understanding of what artificial intelligence is. However, technological progress in this area cannot be "paused" to wait until the theoretical understanding of the problem of artificial intelligence is completed. Therefore, the philosophical, scientific and expert community of Russia is faced with the task of developing concepts that are adequate to the present day for all aspects of artificial intelligence. One of the most important problems in this area is the problem of the ethics of artificial intelligence. To date, a number of large international organizations and political institutions have issued framework documents on the ethical aspects of artificial intelligence. UNESCO, the European Commission, the largest international association of specialists in the field of technology "Institute of Electrical and Electronics Engineers", the International Organization for Standardization and others are actively competing to make their approach the main one in the issue of the ethics of artificial intelligence. The Russian philosophical, scientific and expert community needs to analyze all existing approaches to solving this problem and develop on their basis their own strategy for the development of the ethical component of artificial intelligence technology.

Keywords
artificial intelligence, ethics of artificial intelligence, applied artificial intelligence, standardization of artificial intelligence
Received
01.04.2020
Date of publication
09.06.2020
Number of purchasers
29
Views
610
Readers community rating
0.0 (0 votes)
Cite Download pdf

To download PDF you should sign in

Additional services access
Additional services for the article
Additional services for all issues for 2020
1

Введение

2 Термин «этика» происходит от древнегреческого слова «этос», которое означает совокупность норм поведения, порождаемых совместным проживанием. Другими словами, этические аспекты жизни человека возникают только в ситуации совместного проживания с другими людьми. В дальнейшем все сферы совместной деятельности людей породили наборы этических норм. В случае с искусственным интеллектом речь идет о совместном «проживании» и деятельности человека и искусственного интеллекта, что необходимо порождает этически нагруженные ситуации. Оптимальное разрешение этих ситуаций, то есть выбор наилучшей с этической точки зрения стратегии поведения, является целью нового направления научных и философских исследований в рамках проблематики создания искусственного интеллекта.
3 На данный момент в мировой философской и научной мысли нет четкого, устраивающего всех определения понятия «искусственный интеллект». Мы не ставим своей целью дать исчерпывающее определение этому понятию. Однако для целей данной статьи важно обозначить один аспект. По нашему мнению уровень развития компьютерных технологий еще не позволяет говорить о «сильном» искусственном интеллекте, который был бы сопоставим с человеческим разумом, и мог бы быть субъектом этического поведения. Поэтому о проблемах этики искусственного интеллекта мы будем говорить в контексте поведения человека в ситуациях, возникших и протекающих при участии прикладного или «слабого» искусственного интеллекта.
4 Предметом анализа станет ряд рамочных документов. Речь идет о «Steering AI and Advanced ICTs for Knowledge Societies. A Rights, Openness, Access, and Multi-stakeholder Perspective» [5] (UNESCO), «Ethics Guidelines For Trustworthy AI» [3] (EUROPEAN COMMISSION), «Ethically Aligned Design – Version II» [2] (IEEE), «ISO/IEC AWI TR 24368 Information technology – Artificial intelligence – Overview of ethical and societal concerns» [4] (ISO) и «Национальной стратегии развития искусственного интеллекта на период до 2030 года» [1] (Президент РФ). При этом «Overview of ethical and societal concerns» является конфиденциальным документом, так как находится на стадии «20.00 New project registered in TC/SC work programme» и доступен только экспертам ISO. Автор данной статьи является членом ТК-164 «Искусственный интеллект» и участвовал в выработке позиции России по данному документу. Поэтому мы посчитали возможным привести в этой статье некоторые общие соображения касательно этого «Overview» без конкретных цитат и отсылок.
5 Во всех указанных выше документах этическая проблематика является краеугольным камнем. Но понимание концептуальных основ и принципов этики искусственного интеллекта во всех них разное. Каждый документ выполняет определенную, заложенную в него авторами, функцию, и эта функция не всегда полностью соответствует декларируемой цели. Помимо прочего мы постараемся указать на некоторые скрытые мотивы различной природы, которыми могли руководствоваться авторы этих текстов.
6

Общие замечания

7 Анализ указанных выше текстов показал, что авторы каждого из них не пользовались какой-то единой этической или философской системой для решения проблемы этики ИИ. Этот факт не является признаком некомпетентности авторов или их злого умысла. Это результат их включенности в определенную теоретическую среду и отражение их мотивации. Деятельность по созданию нормативной базы для развития технологии ИИ сопряжена с поиском консенсуса чрезвычайно разноплановых по мотивации субъектов. Речь идет о мегакорпорациях (Google, Apple, Microsoft, Яндекс и т.д.), политиках всех цветов политического спектра, «силовиках», философах и ученых, университетах и научных сообществах, технических экспертах, энтузиастах безудержного технического прогресса и примкнувшим к этой деятельности ловких дельцов, почуявших легкую прибыль. Все они в той или иной степени повлияли на итоговый облик и содержание данных документов. Тем не менее, для задач данного исследования необходимо ответить на вопрос, является ли результат смешения философских и этических подходов мертвой эклектикой или жизнеспособной системой? В этом отношении можно выстроить определенную иерархию «внутренней непротиворечивости» данных документов. Далее мы приведем некоторые общие соображения, некоторые из которых будут развернуты в других частях статьи.
8 На наш взгляд наиболее продуманным с философской точки зрения является «Ethically Aligned Design – Version II». Признаками этого является четкая, логически связанная категориально-понятийная система; ясная логика развертывания и доказательства тезисов; опора на широкий круг источников и вариантов их интерпретации. В свою очередь «Steering AI and Advanced ICTs for Knowledge Societies. A Rights, Openness, Access, and Multi-stakeholder Perspective» и «Ethics Guidelines For Trustworthy AI» являются глубоко политизированными документами, в которых часто в угоду конъюнктурным интересам нарушается логика текста и подбирается тенденциозная информация. «Overview: Aspects of ethics and societal concerns» во многом следует логике перечисленных выше документов, с той лишь разницей, что этическая проблематика ИИ в нем представлена намного уже, чем в них. «Национальная стратегия развития искусственного интеллекта на период до 2030 года», к сожалению, имеет все основания быть названной «сырым» в философском отношении документом, что, конечно, не является фатальным недостатком. Категориально-понятийная система в «Стратегии» нацелена на решение задачи по выстраиванию общей рамки, в соответствии с которой в нашей стране должно идти развитие технологии ИИ.
9

Противоречия в рассматриваемых документах

10 «Ethically Aligned Design – Version II» (IEEE) при всей своей проработанности имеет ряд противоречий. В этом документе постулируется равенство всех возможных этических традиций в деле решения проблем ИИ, но это должно происходить на основе принципа уважения неотъемлемых естественных прав человека [2, p. 2]. Однако, данная идея является продуктом развития западноевропейской этической традиции и в чистом виде отсутствует в упомянутых в тексте восточной (синтоистской, конфуцианской) и африканской (убунту) традициях. Тем более странно, что отсутствует упоминание о буддистской традиции, представленной на Востоке не менее широко, чем синтоизм и конфуцианство. Также этика и философия «убунту» корнями уходит в зулусскую культуру и на сегодняшний день активно продвигается как часть идеологии ЮАР, что далеко не исчерпывает все разнообразие африканских традиций. То есть заявленное в документе равенство этических традиций соблюдается не полностью, и при этом доминируют западноевропейские идеи.
11 В части касающейся внедрения ИИ говорится, что ИИ должен следовать нормам того общества, куда он будет внедрен и учитывать его особенности [2, p. 34]. Далее вновь подчеркивается, что универсальные права должны ограничивать набор норм конкретного общества. То есть, в любом случае главную роль будут играть универсальные права человека. Этот принцип будет порождать этические коллизии всякий раз, когда будет проводиться сопоставление универсальных прав и норм конкретного общества. В случае с искусственным интеллектом эта ситуация еще более усложняется, так как представители заинтересованных сторон (разработчики, владельцы, пользователи, контролирующие органы и т.д.) могут оказаться носителями разных ценностей и вносить соответствующие изменения в функционирование системы искусственного интеллекта.
12 В свою очередь в «Steering AI and Advanced ICTs for Knowledge Societies. A Rights, Openness, Access, and Multi-stakeholder Perspective» на протяжении всего текста подчеркивается, что вред или польза от ИИ возникает только при определенном характере его использования. В данном случае закладывается «мина замедленного действия» под всю концепцию ИИ. Возникает логическое противоречие, так как в ряде конкретных случаев подчеркивается способность самой технологии, а не заинтересованных сторон, создавать этически сомнительные ситуации. Ярким примером этого, по мнению авторов этого документа, является гендерная предвзятость технологии ИИ [5, p. 127]. Ряд элементов технологии, например, голосовое сопровождение, рассчитано на мужскую аудиторию. Но в случае «правильного» использования «правильных» технологий возможно достижение общественной пользы. При этом в точном соответствие с этикой прагматизма акцент делается именно на удовлетворении потребностей человека с точки зрения реализации естественных прав (одна и та же система может использоваться для удовлетворения потребности человека в информации и для манипулирования им, когда информация предоставляется в определенном виде и порядке). Завершением этой логики является создание регулирующих органов, следящих за «правильным» применением ИИ (путем соотнесения количества «вреда» и «пользы», причиняемого ИИ человеку) на всех уровнях, от локального до международного [5, p. 34-43].
13

Основой для решения проблемы подотчетности ИИ и ответственности за действия ИИ является категория намерения. При этом возникает проблема определения субъекта намерений и их оценки. Постфактум могут утверждаться любые благие намерения по созданию и внедрению ИИ для пользы общества, тем самым вменить ответственность тому или иному субъекту будет затруднительно. Еще больше усугубят эту ситуацию алгоритмы ИИ, которые делают процессы в системе ИИ «черным ящиком» даже для самого разработчика. Рассматриваемый документ прямо указывает на то, что в этой ситуации трудно определить носителя ответственности, тем самым порождает серьезную уязвимость в этическом и юридическом регулировании ИИ [5, p. 79-82].

14 Значительная часть документа посвящена анализу этических проблем ИИ, связанных с гендерной и ЛГБТИ проблематикой. При всей тенденциозности своих конкретных концептуализаций эта проблема реально существует и обостряется в случае с использованием ИИ. Наиболее ярким примером здесь является индустрия «секс-роботов», которая активно развивается в данное время и имеет огромный потенциальный спрос на свою продукцию [5, p. 139-141]. На наш взгляд бесконтрольное и массовое применение «секс-роботов» опасно не столько усугублением гендерного неравенства, «объективацией» женщины и т.д., сколько «расконсервацией» этических паттернов и стереотипов поведения предшествующих исторических эпох, прежде всего Античности. В Античности было очень ёмко и непротиворечиво концептуализировано и объяснено так называемое патриархальное рабство, в понятиях которого раб не является человеком. Это орудие, вещь или инструмент, основная задача которого служить хозяину каким-то своим полезным свойством. При этом сфера сексуальности на данный момент остается единственным «ключом» к этим паттернам поведения, так как экономическая и политическая составляющая патриархального рабства уже очевидно несостоятельны. Если допустить развитие этой индустрии, всегда будет оставаться «прагматическое» искушение использовать «секс-роботов» в тех сферах, где это будет признаваться оправдано с точки зрения соотношения вреда и пользы (тюрьмы, армия, люди с неудавшейся личной жизнью и далее по нарастающей).
15 В «Ethics Guidelines For Trustworthy AI» тезис о человеке как высшей ценности, постулируемый в разных вариантах в ряде ключевых мест документа, вступает в противоречие с прагматической установкой для ИИ по достижению пользы для человека и общества. Сопоставление принципов «уважения к автономии человека / достоинству человека» и требования, что системы ИИ должны улучшать индивидуальное и коллективное благополучие иллюстрирует эту проблему [3, p. 10-11]. Как быть в ситуации, когда в противоречие вступают индивидуальная автономия и коллективное благополучие? Такие коллизии будут возникать повсеместно, когда ИИ будет использоваться для принятия решений, касающихся судьбы отдельного человека (увольнение или прием на работу, определение срока тюремного заключения и т.д.). Еще более ухудшает мысль, что все указанные этические принципы являются абстрактными и ненужно ждать от «практика», что на их основе он найдет решение конкретных этических проблем [3, p. 13]. Тем самым нарушается связь между принципами и практикой и создается огромная уязвимость во всей системе этических принципов.
16 Практически в точности повторяется проблема с подотчетностью систем, построенных на алгоритме «черного ящика». При этом формулировка «степень, в которой требуется объяснимость, в значительной мере зависит от контекста и серьезности последствий, если этот вывод [вывод системы ИИ – А. Луньков] ошибочен или неточен» [3, p. 13] порождает проблему в проблеме – кто будет определять степень серьезности контекста и последствий? В субъективном плане ситуация может видеться предельно серьезно, при внешнем рассмотрении она может казаться незначительной (например, в случае оценки адекватности действий по самообороне самим человеком в ситуации нападения на него и участниками судебного разбирательства постфактум).
17 В завершении обзора международных документов, скажем несколько слов о «Overview: Aspects of ethics and societal concerns». Пока рано давать окончательную оценку этому документу. Но уже сейчас следует указать на ряд моментов, которые в будущем могут затруднить его внедрение в качестве части экосистемы документов по стандартизации ИИ. Так, например, проблема «черного ящика» анализ ее следствий для этики ИИ вообще отсутствует в данной редакции документа. Это может привести к невозможности следовать принципу ответственности как обязательства обеспечить реализацию предполагаемых и объявленных функций системы ИИ, а также использование системы ИИ в соответствии с ее предполагаемыми и объявленными функциями.
18 Среди категорий людей, находящихся во взаимодействии с ИИ не выделены люди, на которых направлено воздействие этой технологии. Они не являются пользователями, разработчиками или владельцами и могут даже не подозревать о своей вовлеченности в этически нагруженную ситуацию, связанную с применением ИИ. Эта этическая проблема вообще слабо обозначена во всех рассмотренных документах.
19 Наконец, в «Национальной стратегии развития искусственного интеллекта на период до 2030 года» среди основных этических принципов использования ИИ в России обозначены только а) защита прав и свобод человека, б) безопасность и в) прозрачность [1, ч. III, п. 19]. Такой «вакуум принципов» может породить очень вольное толкование этической проблематики ИИ, тем более что «разработка этических правил взаимодействия человека с искусственным интеллектом» все-таки заявляется как необходимая.
20 Особенную тревогу вызывает пункт «48 в.» («создание правовых условий и установление процедур упрощенного тестирования и внедрения технологических решений, разработанных на основе искусственного интеллекта…» [1, ч. V, п. 48в.]), в котором в угоду скорейшему развитию технологий ИИ в России создается огромная уязвимость для юридического и этического регулирования ИИ. Именно на начальном этапе развития велика опасность негативных последствий использования ИИ, поэтому необходимо более внимательно подходить к тестированию и внедрению ИИ, чтобы сформировать благоприятное восприятие этих технологий в обществе. Вместо этого уже сейчас создается почва для возможных осложнений, в том числе и этического характера.
21

Этически нагруженные ситуации и принципы этики ИИ

22

Любые события с участием человека являются этически нагруженными, так как речь идет о совместной жизни и деятельности. Участие ИИ в этих ситуациях порождает дополнительные проблемы. Для оптимального решения этих проблем необходимо для начала классифицировать и описать ситуации с ними связанные. Мы предлагаем бинарную классификацию этически нагруженных ситуаций с участием ИИ. Основанием для классификации будут этапы жизненного цикла ИИ. Рассмотрим для примера ряд этических «ошибок» в различных ситуациях.

23
  1. Планирование создания ИИ – понятийная или логическая ошибка при создании концепта конкретной системы ИИ, принятие «ангажированного» решения по поводу создания конкретной системы ИИ;
  2. Разработка ИИ – различные виды ошибок программирования, обучения, тестирования и т.д. системы ИИ, согласие на реализацию заведомо «ангажированного» решения по поводу создания конкретной системы ИИ;
  3. Внедрение ИИ – ошибка с определением целевой аудитории системы ИИ, согласие на внедрение потенциально вредной для общества системы ИИ;
  4. Использование ИИ – ошибки в настройках и управлении системой ИИ, формирование эмоциональной привязанности к системе ИИ со стороны пользователя, использование системы ИИ не по прямому назначению;
  5. Свертывание использования ИИ и его «утилизация» – отсутствие четкого понимания последствий свертывания системы ИИ в конкретной сфере, принятие решения о свертывании использования системы ИИ без учета всех последствий этого.
24

Данный список далеко неполный и число этически нагруженных ситуаций нуждается в дальнейшем расширении, так как каждая такая ситуация требует определенного этического регулирования. Важной задачей является выявление, классификация и концептуализация возможного круга данных ситуаций.

25 Особо необходимо отметить, что все рассмотренные выше документы уделяют недостаточно внимания этическому регулированию такого этапа жизненного цикла ИИ, как планирование его создания. Складывается впечатление, что принять решение о начале разработки технологии ИИ для какой-либо сферы это настолько естественный волевой акт, что нет необходимости его регулировать с точки зрения этики. Однако именно здесь может заключаться корень большинства проблем с этой технологией в будущем. Технологии ИИ представляют большой интерес для коммерческих организаций, так как существует обоснованное ожидание больших прибылей после разработки и внедрения соответствующих систем. Как раз стремление получить наибольшую прибыль (даже не как проявление банальной алчности, а, например, как выполнение обязательств перед акционерами компании) может войти в противоречие с принципом общественного и индивидуального блага. На примере алкоголя, табачной продукции и т.п. хорошо видно насколько востребованы заведомо вредные вещи. Потенциально «вредные» системы ИИ тоже могут пользоваться большим спросом.
26 Ниже приведена примерная схема использования различных этических систем для регулирования всех этапов жизненного цикла ИИ. Данная схема должна стать предметом будущего обсуждения и дополнения.
27 Таблица 1. Этические принципы для ситуаций принятия решений на этапах жизненного цикла систем ИИ.
28
Этап жизненного цикла системы ИИ Содержание этапа жизненного цикла системы ИИ Этические принципы для ИИ
Решение о разработке ИИ Анализ необходимости применения ИИ в конкретной сфере Этика прагматизма (приоритет пользы для общества)
Анализ принципиальной возможности разработки ИИ с необходимыми характеристиками Этика долга (если полезный обществу ИИ может быть разработан, он должен быть разработан)
Анализ последствий начала разработки ИИ Этика прагматизма (отказ от разработки, если процесс разработки принесет больше вреда обществу сейчас, чем пользы в будущем)
Разработка ИИ Выбор стратегии разработки, в наибольшей степени гарантирующей этически оправданный результат Этика добродетели (как можно большее следование представлению о благе в виде конкретных этических принципов)
Выбор технологических решений и алгоритмов ИИ Этика утилитаризма (стремление к наилучшему выполнению будущей системой своих функций)
Тестирование и эмпирическая проверка ИИ Этика добродетели и утилитаризма (разумный баланс между благом и функциональностью)
Внедрение ИИ Выбор для внедрения ту сферу, где это необходимо обществу, а не ту, где выгодно владельцу Этика долга (полезный обществу ИИ должен быть внедрен там, где он нужен)
Информирование конечного пользователя Этика долга (владелец должен исчерпывающе информировать конечного пользователя)
Ответственность (может присутствовать на всех этапах) Этика добродетели (следование идеалу ответственного поведения) и этика долга (долг нести ответственность)
Использование ИИ Использование ИИ по прямому назначению Этика утилитаризма и прагматизма (удовлетворение своей потребности наиболее эффективным и полезным для общества способом)
Повышения уровня компетенций пользователя ИИ Этика долга (долг пользователя по эффективному использованию ИИ)
Свертывание использования и утилизация ИИ Анализ необходимости свертывания ИИ в конкретной сфере Этика прагматизма (приоритет пользы для общества)
Анализ принципиальной возможности отказа от использования ИИ в конкретной сфере Этика прагматизма (приоритет пользы для общества)
Анализ последствий свертывания использования ИИ в конкретной сфере Этика прагматизма (отказ от свертывания использования, если этот процесс принесет больше вреда обществу сейчас, чем пользы в будущем)
29

Заключение

30 Мы попытались наметить некоторые контуры этической проблематики для прикладных технологий искусственного интеллекта. Существующие современные международные и российские рамочные нормативные акты и документы содержат в себе ряд противоречий, когда речь идет об этических принципах ИИ, этическом регулировании разработки и использования этих систем и т.д. Однако философы, юристы, эксперты в сфере стандартизации находятся в роли догоняющих. Технический прогресс не стал ждать окончательного консенсуса по поводу того, нужно ли нам вообще разрабатывать искусственный интеллект. Однажды появившись, эта идея была обречена на воплощение. Сейчас на повестке дня стоит вопрос о максимально возможном предотвращении вреда от этой технологии. Не случайно часть названия одного из рассмотренных документов c с определенной долей метафоричности можно перевести как «беспокойства, относящиеся ко всему обществу» (societal concerns).
31 Закончить мне бы хотелось словами Айзека Бромберга, героя повести братьев Стругацких «Волны гасят ветер»: «… мы неспособны понять, настолько это интересно – предотвращать вредные последствия, какую массу интеллектуального и эмоционального наслаждения это даёт». В случае с технологиями искусственного интеллекта у нас есть уникальная возможность предотвратить хотя бы некоторые из возможных вредных последствий от ее внедрения.

References

1. Decree of the President of the Russian Federation dated October 10, 2019 No. 490 “On the Development of Artificial Intelligence in the Russian Federation”. Avialable at http://www.kremlin.ru/acts/bank/44731 (accessed April 01,2020). (in Russ.)

2. Ethically Aligned Design – Version II. IEEE, 2019. 263 p. Avialable at https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf (accessed April 01,2020).

3. Ethics Guidelines For Trustworthy AI. Brussels: European Commission, 2019. 41 p. Avialable at https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (accessed April 01,2020).

4. ISO/IEC AWI TR 24368 Information technology – Artificial intelligence – Overview of ethical and societal concerns. Avialable at https://www.iso.org/ru/standard/78507.html?browse=tc (accessed April 01,2020).

5. Steering AI and advanced ICTs for knowledge societies: a Rights, Openness, Access, and Multi-stakeholder Perspective. Paris: UNESCO, 2019. 197 p. Avialable at https://unesdoc.unesco.org/ark:/48223/pf0000372132 (accessed April 01,2020).

Comments

No posts found

Write a review
Translate