Artificial Emotions in Intelligent machines
Table of contents
Share
QR
Metrics
Artificial Emotions in Intelligent machines
Annotation
PII
S207751800014145-8-1
Publication type
Article
Статус публикации
Ретрагировано
Причина ретракции
Плагиат
Authors
Alexandra Shiller 
Occupation: Head of grant's department
Affiliation: Lomonosov Moscow State University
Address: Russian Federation, Moscow
Abstract

The article presents the results of research devoted to identifying and clarifying the causes of the existing methodological difficulties and shortcomings inherent in the modeling of emotions in artificial agents. The arguments that the neurobiological data obtained in recent studies should be necessarily taken into account in the development of artificial emotions are presented, and a set of methodological recommendations for future research in the field of artificial emotions and intelligent machines in general is proposed.

Keywords
emotions, artificial intelligence, artificial agent, neuroscience, emotion modeling, methodology of science
Acknowledgment
The study was supported by the Interdisciplinary Scientific and Educational School of Moscow University "Brain, cognitive systems, Artificial Intelligence"
Received
08.02.2021
Date of publication
22.03.2021
Number of purchasers
17
Views
1115
Readers community rating
0.0 (0 votes)
Cite Download pdf
Additional services access
Additional services for the article
1 Искусственные эмоции в интеллектуальных машинах
2

Введение

Эмоции имеют решающее значение для обеспечения гибкого и разумного поведения биологических организмов. Именно поэтому в последние десятилетия были предприняты многочисленные попытки моделирования эмоций у роботов и искусственных агентов. Однако механизмы моделирования эмоций и их взаимодействия с когнитивными архитектурами остаются недостаточно разработанными. Некоторые теоретические подходы в робототехнике и искусственном интеллекте вдохновлены данными биологических исследований [17, 20, 35, 37]. Во многих из них в качестве модели автономного обучения и принятия решений используется обучение с подкреплением, что является одним из удачных примеров взаимодействия нейробиологии и когнитивных наук [40]. Однако структура подкрепляющего обучения не позволяет учесть критически важные компоненты естественных эмоций, поскольку такое обучение в первую очередь касается процессов, связанных с оперантным обучением и простыми формами принятия решений [36]. Таким образом, несмотря на множество попыток моделирования эмоций у искусственных агентов, эта сфера недостаточно исследуется и применяется в робототехнике.

3 В данной статье описываются и оцениваются по пяти критериям существующие подходы к моделированию эмоций у роботов и искусственных агентов. Предлагаемая классификация подходов направлена на преодоление разрыва между вычислительными моделями эмоций, используемыми в робототехнике, и нейробиологией эмоций. Также освещаются новые данные когнитивных исследований, которые показывают, что эмоции и познание связаны на нескольких уровнях. Затем эти идеи сформулированы в виде методологических принципов для разработки моделей эмоций в интеллектуальных машинах, способных решать реальные проблемы.
4

Моделирование эмоций у виртуальных агентов и роботов

За последние несколько десятилетий растет интерес к моделированию эмоций у роботов и виртуальных искусственных агентов с использованием многих исследовательских подходов: аффективные вычисления, социальная робототехника, разработка нейророботов и компьютерная анимация. Из-за специфики каждой дисциплины, а именно используемых инженерных решений и целей разработки, существующие подходы к моделированию довольно сильно отличаются друг от друга, что делает почти невозможным их сравнение. Такая же сложность наблюдается и при попытках сравнения теорий эмоций. Однако достичь прогресса в этой области исследований можно, если выявить общие методологические рекомендации для моделирования эмоций у искусственных агентов при одновременном понимании особых требований и ограничений отдельных подходов. Ранее автором уже были проиллюстрированы основные ошибки и искажения, сопровождающие моделирование эмоций, а также описаны основные методологические вопросы, на которые следует ответить разработчику аффективной системы для искусственного агента [1, 3]. В данной статье предлагается набор из пяти критериев, на основании которых можно оценить существующие модели эмоций у искусственных агентов:

5
  1. Цель
  2. Теория
  3. Архитектура
  4. Воплощение
  5. Поведение
6

Цель. В общих чертах искусственные эмоциональные системы можно различать в зависимости от цели их создания. В настоящее время преобладают практически-ориентированные подходы, но встречаются и теоретические междисциплинарные, в которых разработчики осмысляют и применяют знания других исследовательских дисциплин. Часть исследований ориентировано на применение моделирования эмоций для генерации человекоподобных реакций, что обогащает взаимодействие человека и искусственного агента [11, 44]. Примерами таких проектов с искусственными эмоциональными агентами являются роботы-сиделки для ухода за пожилыми людьми [14] и приложения, которые помогают принимать сложные решения [25]. Целью теоретических исследований обычно выступает моделирование механизмов естественных эмоций для проверки гипотез о человеческом эмоциональном аппарате [29]. Как будет показано ниже, вычислительные модели эмоций будут играть все более важную роль в теоретических исследованиях, направленных на понимание нейронной основы эмоций.

7

Теория. Некоторые вычислительные модели эмоций используют психологические теории эмоций и эксплицитно воплощают принципы подхода «top-down». Например, модель ALMA [24] основана на комбинации двух теоретических подходов: теории эмоций Ортони [43] и схемы PAD (Pleasure-Arousal-Dominance) [51]. Модель EMA [25] реализует теорию оценки Лазаруса [30], а TEATIME [58] реализует теорию склонности к действию [22]. С другой стороны, искусственные эмоции можно исследовать и исходя из принципов подхода «bottom-up», сосредоточившись на реализации отдельных аспектов естественных эмоций. Например, был предложен гормоноподобный механизм по аналогии с работой системы гомеостаза человека для решения проблемы конкуренции ресурсов [6, 29]. В другом приложении [10] проверяли гипотезу о том, может ли роботизированная система научиться распознавать выражения лица без эксплицитных меток. В исследовании по вычислительным эмоциям автор также описывал подход, согласно которому можно моделировать два базовых процесса – генерацию и выражение эффектов эмоций [2]. Можно сказать, что «bottom-up» подходы способны дополнять существующие теории эмоций и создавать практические реализации процессов, которые в противном случае оставались бы описательными.

8

Архитектура. Многие когнитивные архитектуры, как и другие проектируемые системы, являются модульными [14, 15]. Это связано прежде всего с тем фактом, что модульность относится к основным принципам инженерии. Поэтому архитектура системы часто выстроена таким образом, что эмоции добавляются в нее в виде отдельного модуля, который взаимодействует с другими компонентами. В этом случае эмоциональная регуляция часто понимается как простой механизм «сдвига», который регулирует другие функции системы. Например, может быть усилена сенсорная обработка или ослаблены когнитивные функции. Другим типом архитектур являются интегративные подходы, в которых подчеркивается взаимосвязь между эмоциями и когнитивными процессами в системе [8]. Модульность как принцип архитектуры интеллектуальных систем является необходимым и наиболее часто применимым в настоящее время проектным решением, но при этом растет количество исследований, представляющих доказательства интеграции эмоций и когниций, что рано или поздно приведет к отказу от модульных архитектур [26, 46, 48].

9

Воплощение. Простым способом оценки и измерения искусственных эмоций является анализ воплощения агента: физическое воплощение (робот) или виртуальное воплощение (анимированный виртуальный персонаж или аватар). Есть физически воплощенные агенты, созданные только для выполнения определенных функций: практических, как Фёдор (FEDOR), AR-601, KIKI (модификация робот-кассир «Маруся») или теоретических, как робот-голова SEER, который эмулирует эмоции исключительно для проводимых на нем теоретических исследований. Есть выразительные роботы – Kismet, Berenson, EMYS, Pepper [11, 28], предназначенные для взаимодействия с людьми и устроенные таким образом, чтобы имитировать стереотипные эмоциональные выражения лица. Некоторые разработчики стремятся создавать более антропоморфные лица роботов (например, [57]), а в более простых моделях выражение лица отображается на экране [34]. Другой особенностью физически воплощенных, но не выразительных роботов является регуляция поведения во время выполнения задачи. Но несмотря на преимущества физического воплощения, роботизированные модели ограничены узким поведенческим репертуаром, что объясняется сложностями создания и передачи движений в механических системах.

10

Среди виртуально воплощенных агентов трехмерные анимированные аватары способны как на богатое невербальное поведение (жесты, позы и мимика), так и на вербальные высказывания, которые передают эмоциональные сигналы пользователям-людям, что обеспечивает выполнение социальной функции эмоций. Несколько вычислительных моделей эмоций были реализованы при создании чат-ботов [24, 25], а Greta [44] и MARC [15] являются хорошо зарекомендовавшими себя платформами. Чтобы усилить эффект присутствия, анимированные виртуальные агенты могут быть помещены в виртуальную реальность [33, 41], что обеспечивает пользователям ощущение ситуативного взаимодействия. Тем не менее, эти приложения несовершенны и ограничены из-за отсутствия физического взаимодействия пользователя и агента с реальным миром.

11

Поведение. Большинство разработчиков моделей искусственных эмоций фокусируются на социальном поведении с целью облегчения взаимодействия человека и машины. Это выражается в формировании набора вербальных высказываний для чат-ботов, которые обслуживают клиентов, в виде взаимодействия агентов с посетителями музея и обучения у них, а также путем проработки моделей, использующих совместно вербальное и невербальное поведение у роботов-компаньонов  или виртуальных тренеров. Но функции эмоций гораздо шире, чем сопровождение социального поведения, и некоторые модели затрагивают такие вопросы, как роль эмоций в поисковом поведении.

12

Естественные эмоции

Подходы к моделированию связанных с эмоциями процессов у искусственных агентов не соответствуют современным представлениям нейробиологии об эмоциях. Если обратится к исследованиям, становится понятной глубина разрыва между естественными и искусственными эмоциями. В частности, важно помнить о связанности эмоций и познания у людей и животных на нескольких уровнях: мозг, тело и поведение. Исторически мозговая основа эмоций понималась в зонально-ориентированном ключе. Долгое время считалось, что гипоталамус является эмоциональным центром, а в 1980-х годах эмоции были локализованы в миндалевидном теле. В последние десятилетия не только неуклонно растет число выявляемых областей “эмоционального мозга”, но и начинает выясняться, как они функционируют с использованием сложных цепочек взаимодействий. Показано, что к таким областям относятся медиальная префронтальная кора, орбитофронтальная кора, кора островка, таламус и некоторые другие. Важно отметить, что процессы, связанные с эмоциями, не являются функционально локализованными в определенных областях, а реализуются распределенными нейронными цепями, которые связаны с несколькими структурами одновременно [31, 46, 54].

13

В более широком смысле классическое разделение между эмоциями и познанием постепенно стирается. За размыванием границ скрывается представление о том, что психические процессы реализуются через крупномасштабные распределенные сети [53]. Сети, которые были открыты в контексте исследований когнитивных процессов, имеют много общих областей, пересекающихся с теми, которые важны для эмоций [39]. Таким образом, нейронные вычисления, лежащие в основе поведения, реализуются через перекрывающиеся сети: это означает, что определенные области мозга включаются в несколько крупных сетей взаимодействия в зависимости от поведенческих требований.

14 Даже в более общем плане деление на разные когнитивные процессы или высшие психические функции: восприятие, познание, мотивация и эмоции, не отражает реальную организацию мозга и не учитывают функциональные взаимодействия.
15

Эмоции и тело. Интеллект в концепции энактивизма понимается не просто как набор вычислений, происходящих в центральной нервной системе, а как результат взаимодействия мозга, тела и окружающей среды [42, 55]. С точки зрения теории воплощенного познания эмоции основаны на гомеостазе, обеспечивающем телесную целостность, и поддерживаются представлениями о разных процессах, протекающих в теле, путем фиксации состояния в каждый момент времени. Эти ключевые функции задействуют как подкорковые, так и кортикальные области. Таким образом, нейробиологически обоснованные теории эмоций приписывают телу центральную роль в эмоциональных процессах. Например, в теории основных аффектов телесные состояния занимают центральное место в эмоциональном опыте. В теории соматических маркеров устанавливаются ассоциации между конкретными ситуациями и паттернами вызываемых физиологических и эмоциональных реакций, которые помогают формировать поведение [18].

16

Эмоции и поведение. Выражение эмоций, в том числе с помощью мимики, жестов и позы, является важным связующим звеном между эмоциями и телом [16, 19]. Разнообразие и сложность процессов, связанных с выражением и распознаванием эмоций, подчеркивает их важность в социальном поведении человека. Эмоционально-поведенческая связь не ограничивается коммуникативными функциями, но также тесно связана с мотивацией и формированием действий [9, 22]. У живых организмов мотивированное поведение представлено в терминах приближения и избегания. Даже такие якобы простые формы поведения, как бегство, используют сложные когнитивно-эмоциональные процессы [21]. В более общем плане выживание – и автономность организма – зависит от способности формировать гибкое поведение и адаптироваться к динамической среде. Таким образом, ключевой проблемой является то, что действия организма в окружающей его среде зависят и связаны с эмоциями, которые не ограничиваются генерацией экспрессивного поведения для общения.

17

К моделям эмоций будущего

Для создания следующего поколения интеллектуальных машин можно применить четыре принципа развития искусственных эмоций:
18
  • модели эмоций должны учитывать интеграцию эмоций и познания;
  • эмоциональные модели должны соответствовать принципам воплощения;
  • эмоциональные модели должны поддерживать как социальное, так и несоциальное поведение;
  • модели эмоций должны служить основой для исследований естественных эмоций.
19

Подходы к интеграции эмоций и когниций

Рассмотрим традиционную архитектуру со стандартными компонентами, такими как восприятие и принятие решений (рис. 1А). Признавая важность аффективной информации, разработчики начали включать в модели эмоциональный компонент, который взаимодействует с некоторыми из блоков обработки. Но современные данные исследований свидетельствуют, что эмоции и познание должны быть интегрированы в общую архитектуру таким образом, чтобы эмоции были вовлечены во все когнитивные процессы (рис. 1B). Другими словами, эмоция не может быть реализована как «дополнение» к существующей когнитивной машине, например, когда она усиливает определенные компоненты восприятия и принятия решений.

20

Хотя рисунок 1B иллюстрирует необходимость размывания границы между эмоциями и остальной архитектурой, эмоциональные вычисления должны быть определены на подуровне, который является достаточно детализированным, чтобы позволить реализовать этот принцип в реальных моделях. Рассмотрим это на примере внимания, центральной когнитивной операции. Плодотворным способом концептуализации внимания является использование карт приоритетов [27]. В частности, приоритет визуального стимула, который должен быть представлен, зависит от ряда факторов, включая значимость стимула и контроль сверху вниз, которые могут быть соответственно обозначены как перцептивные и когнитивные факторы. Важно отметить, что приоритет также зависит от аффективных и мотивационных факторов [4, 5]. Например, стимул, связанный с неприятными последствиями в прошлом, приобретет отрицательное значение и получит высокий приоритет, чтобы при появлении его можно было максимально быстро обработать. А стимул, связанный с вознаграждением в прошлом, приобретет мотивационное значение. Процесс определения приоритета основан на множестве факторов, необходимых для определения общей релевантности объекта (рис. 1С).

21

Рис. 1. Интеграция эмоций в когнитивных архитектурах искусственных агентов.

22

В качестве другого примера рассмотрим исполнительный контроль (также называемый «когнитивным контролем»), который состоит из операций, связанных с сохранением и обновлением информации, отслеживанием конфликтов и/или ошибок, ограничением отвлекающей информации, подавлением доминирующих реакций и смещением целей. Полезным способом концептуализации когнитивного контроля является представление его с помощью ряда процессов, включая торможение, обновление и перестановку (сдвиг) [38]. Поскольку ценность, релевантность, значимость и другие характеристики информации должны быть приняты во внимание для осуществления исполнительного контроля, эмоции оказываются вовлечены в когнитивные процессы. Другими словами, контекст или объекты влияют на процессы когнитивного контроля таким образом, что возникают вознаграждения (или наказания), и эти объекты/контекст становятся положительно (или отрицательно) релевантными. Почему архитектура, представленная на рис. 1А несовершенна? Информация о том, какая информация/стимул является эмоционально/мотивационно релевантным, так или иначе поступит в конкретные компоненты архитектуры. Основная причина несовершенства таких архитектур заключается в том, что воздействие должно быть двунаправленным (рис. 1D). Например, работа с эмоциональным стимулом или ситуацией требует многократных корректировок, включая «обновление» содержимого рабочей памяти, «смещение» при переключении текущей подцели задачи или «торможение» для отмены ранее запланированных действий. 

23 Рисунок 1А: традиционная когнитивная архитектура, в которой эмоции взаимодействуют с другими компонентами. Хотя такая архитектура, по-видимому, признает важную роль эмоций, она несовершенна, поскольку подразумевает, что эмоции являются дополнительным модулем, который может не использоваться или отключаться от других. Рисунок 1Б: архитектура, в которой границы между эмоциями и другими компонентами нечеткие. Этот тип архитектур демонстрирует, что эмоции являются неотъемлемым элементом системы. Рисунок 1В: внимание, представленное в виде набора карт приоритетов, которые объединяются для определения того, на какие элементы окружающей среды ИИ должен обратить внимание. Карты приоритетов основаны на множестве факторов: перцептивных (значимости), когнитивных (текущий план деятельности), а также эмоциональных/мотивационных (ценность, релевантность, значимость). Рисунок 1D: исполнительный контроль осуществляется с помощью ряда операций, таких как торможение, обновление и смещение. Эти процессы должны учитывать эмоциональные факторы для поддержания автономного адаптивного поведения.
24

Принципы воплощения

Чтобы подчеркнуть важность воплощения для искусственного интеллекта, робототехники часто используют аргументы, связанные с морфологией и физическим взаимодействием с окружающей средой [12, 47]. В качестве примера рассмотрим систему, которая должна интериоризировать понятие «стул». Чисто визуальные подходы (например, с использованием глубоких нейронных сетей) потребовали бы огромного объема данных и были бы способны только распознавать стулья по форме. С другой стороны, гуманоидный робот, способный сидеть на плоской поверхности, может узнать, что сидение минимизирует потери энергии, и таким образом начать изучать функциональные аспекты стула. Другими словами, бестелесные машины не могут воспринимать мир таким же образом, как люди. Что касается эмоций, то здесь применимы те же самые рассуждения. Распознавание выражения лица должно быть встроено в систему, которая может генерировать экспрессивное поведение и связывать его со своими собственными внутренними состояниями, чтобы обработать то, что выражается самой системой или другими. В противном случае это не более чем устройство обнаружения стереотипных паттернов, помеченных эмоциональными тегами «счастливый» или «обозленный».

25

При рассмотрении воплощения эмоций в искусственных системах основное внимание уделялось тому, как эмоции выражаются через тело (например, распознавание эмоций в компьютерном зрении, системы управления лицевыми выражениями в социальной робототехнике, синтез социальных сигналов в компьютерной анимации). Но для того, чтобы модели эмоций и познания были воплощены в полном смысле этого слова, поведение, которое они реализуют, должно управляться основными проприоцептивными сигналами удовольствия, боли, насыщения, истощения энергии и т. д. [23, 32]1. В предыдущем разделе было показано, насколько эмоционально-мотивационные факторы ценности, релевантности и значимости важны для правильного автономного функционирования. Этот тип информации основан на телесных реакциях, которые вызывает стимул или событие: вознаграждение обрабатывается через сигналы удовольствия, избегание вреда связано с ощущениями физической боли и стремлением сохранить целостность организма, так что успешное выполнение целей более высокого порядка частично зависит от связи между набором действий и физиологическими реакциями, которые они вызывают.

1. Будучи воплощенными интеллектуальными машинами, роботы способны получать информацию о мире и воздействовать на него с помощью различных датчиков и исполнительных механизмов. Понятие воплощения также включает в себя обработку и регуляцию телесных сигналов, таких как удовольствие, боль, насыщение и т. д., что имеет решающее значение для моделирования эмоций и формирования автономного поведения.
26 Таким образом, создание робота, способного автономно и разумно исследовать неизвестную среду, требует механизмов для мониторинга уровня энергии, предотвращения физического вреда, развития механизма выбора безопасных мест, внимания к объектам, имеющим отношение к целям/планам, и переключения между целями и поведением в зависимости от текущих собственных и внешних состояний, которые опираются на воплощенные эмоционально-когнитивные процессы2.
2. Интегрируя эмоции в архитектуру роботов/искусственных агентов, мы можем создавать машины, способные генерировать и координировать интеллектуальное поведение для выживания, исследования и достижения целей высокого уровня.
27

Поддержка разных типов поведения

Модели эмоций создаются как для обеспечения социального поведения, так и для несоциальных взаимодействий. Например, распознавание выражения лица как механизм поддержки социального поведения, и автономная навигация для несоциальных взаимодействий. Часто инженеры заинтересованы в моделировании социально-эмоциональной компетентности, чтобы сделать взаимодействие человека и машины более удобным для пользователя. Хотя социальное взаимодействие является основной областью, в которой задействованы эмоции, нам кажется, что моделирование эмоций должно охватывать как социальное, так и несоциальное поведение.
28 Рассмотрение процессов как социальной, так и несоциальной эмоциональной обработки может быть полезным. Например, как обрабатывать социальные и несоциальные стимулы, которые являются релевантными по отношению к самим себе, как переключаться между социальными и несоциальными целями и как узнать в зависимости от поступающих сигналов, какие действия являются более благоприятными для достижения цели. С инженерной точки зрения автономные автомобили могли бы быть безопаснее для людей, если бы они обладали способностью интерпретировать социальные сигналы (например, модели пешеходов и возможные способы взаимодействия с ними); промышленные роботы могли бы быть более эффективными, если бы они могли решать задачи как независимо друг от друга, так и в команде; а роботы-компаньоны могли бы быть более привлекательными и веселыми, если бы они могли развивать «личность» с учетом социального и несоциального опыта.
29 Исследования естественных эмоций и когнитивных способностей Хотя теоретически возможно создавать интеллектуальные машины, отличающиеся от живых организмов, представляется чрезвычайно полезным ориентироваться на биологическое разнообразие в формировании разумного поведения. Чтобы сделать еще один шаг вперед, следует рассматривать интеллектуальные машины как модели, которые могут углубить наше понимание человеческого интеллекта через процесс его воссоздания. Можем ли мы построить машину, способную обрабатывать различные типы стимулов и событий, безопасно исследовать неизвестную среду, обладать саморегуляцией и адаптировать свое поведение к различным контекстам, обладать обширными знаниями, предпочтениями, ставить долгосрочные цели и формировать отношения? При этом проектирование интеллектуальной машины может принести пользу не только в изучении собственно ИИ, но и для развития представлений о естественном интеллекте.
30 Модели могут служить основой для исследований человеческих эмоций и когнитивных процессов на четырех уровнях: 1) проверка существующих теорий, 2) создание новых теорий, 3) выдвижение новых гипотез и проектирование экспериментов и 4) создание возможностей для новых экспериментов (Рис. 2).
31

Рис. 2. Уровни взаимодействия моделирования эмоций в роботах и нейробиологических исследований. Четыре уровня, на которых моделирование может помочь развитию нейробиологических знаний: 1- проверка существующих теорий, 2- создание новых теорий, 3- выдвижение новых гипотез и проектирование экспериментов и 4- создание возможностей для новых экспериментов.

32

Например, достаточно ли современного понимания того, как мы обрабатываем социальные и несоциальные стимулы (например, лицо человека с угрожающим выражением и ползущая змея), чтобы реализовать аналогичные механизмы в роботе? Представленная схема позволяет оценить текущее состояние знаний, выявить неясности и недостающие части головоломки (Уровень 1). Например, как приоритезируются стимулы перед процессом их обработки в случае возникновения различных дистракторов? В какой степени реакция зависит от обучения? Какая последовательность вычислений приводит к соответствующим ответам? Процесс проверки теорий должен основываться на гипотезах и научных знаниях, а не на решениях (например, разработка функциональной системы), чтобы привести к новым теориям (Уровень 2). После работы с теориями могут возникнуть новые экспериментальные проекты для проверки правильности предложенных гипотез (Уровень 3). Кроме того, моделирование интеллектуального поведения в машинах позволяет проводить инновационные экспериментальные исследования (Уровень 4). Примером возникшего исследовательского вопроса является поиск факторов, которые заставляют людей рассматривать машины в качестве социальных агентов [56]. В более общем плане интеллектуальные машины предоставляют уникальную возможность воссоздавать воплощенные взаимодействия в реальном времени для исследования социального познания человека.

33

Выводы

В этой статье была предложена структура для проектирования интеллектуальных, автономных машин, которая основана на идее интеграции познания и эмоций. Последние исследования в области нейробиологии подчеркивают важность эмоций для человеческой интеллектуальной деятельности и показывают их взаимозависимость, а также связь мозговой активности, телесных процессов и окружающей среды. Таким образом, моделирование эмоций и их интеграция в «когнитивные архитектуры», является ключом к созданию роботов, способных функционировать независимо в разнообразных и сложных ситуациях реального мира. Можно надеяться, что предложенные рекомендации помогут в разработке руководящих принципов для будущих исследований, а также стимулируют междисциплинарные исследования.

References

1. Shiller A. V. Ot teorij k modelyam ehmotsij dlya iskusstvennogo intellekta — osnovnye metodologicheskie voprosy // Tsennosti i smysly. 2018, T. 4, № 56.

2. Shiller A. V. Expression of the modeled effects of emotions in artificial agents as a visual language // ???????. Problemy vizual'noj semiotiki. 2019, Vol. 22, no. 4.

3. Shiller A. V. Iskazheniya i oshibki modelirovaniya ehmotsij v iskusstvennom intellekte // Tsennosti i smysly. 2020, T. 5, № 69.

4. Anderson, A. K., & Phelps, E. A. (2001). Lesions of the human amygdala impair enhanced perception of emotionally salient events. Nature, 411(6835)

5. Anderson, B. A., Laurent, P. A., & Yantis, S. (2011). Value-driven attentional capture. Proceedings of the National Academy of Sciences, 108(25

6. Avila-Garcia, O., & Ca?amero, L. (2004). Using hormonal feedback to modulate action selection in a competitive scenario. From animals to animats, 8

7. Belkaid, M., Cuperlier, N., & Gaussier, P. (2017). Emotional metacontrol of attention: Top-down modulation of sensorimotor processes in a robotic visual search task. PloS one, 12(9).

8. Belkaid, M., Cuperlier, N., & Gaussier, P. (2018). Autonomous Cognitive Robots Need Emotional Modulations: Introducing the eMODUL Model. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 49(1)

9. Blakemore, R. L., & Vuilleumier, P. (2017). An emotional call to action: Integrating affective neuroscience in models of motor control. Emotion Review, 9(4)

10. Boucenna, S., Gaussier, P., Andry, P., & Hafemeister, L. (2014). A robot learns the facial expressions recognition and face/non-face discrimination through an imitation game. International Journal of Social Robotics, 6(4)

11. Breazeal, C. (2003). Emotion and sociable humanoid robots. International journal of human- computer studies, 59(1-2)

12. Brooks, R. A. (1991). Intelligence without representation. Artificial intelligence, 47(1-3)

13. Ca?amero, L., & Gaussier, P. (2005). Emotion understanding: robots as tools and models. In Nadel, J. and Muir, D., editors, Emotional development: Recent research advances

14. Correia, F., Alves-Oliveira, P., Maia, N., Ribeiro, T., Petisca, S., Melo, F. S., & Paiva, A. (2016, August). Just follow the suit! trust in human-robot interactions during card game playing. In 2016 25th IEEE international symposium on robot and human interactive communication (RO-MAN) (pp. 507- 512). IEEE.

15. Courgeon, M., & Clavel, C. (2013). MARC: a framework that features emotion models for facial animation during human–computer interaction. Journal on Multimodal User Interfaces, 7(4)

16. Cowen, A., Sauter, D., Tracy, J. L., & Keltner, D. (2019). Mapping the passions: Toward a high- dimensional taxonomy of emotional experience and expression. Psychological Science in the Public Interest, 20(1)

17. Cully, A., Clune, J., Tarapore, D., & Mouret, J. B. (2015). Robots that can adapt like animals. Nature, 521(7553)

18. Damasio, A. R., Everitt, B. J., and Bishop, D. (1996). The somatic marker hypothesis and the possible functions of the prefrontal cortex [and discussion]. Philosophical Transactions of the Royal Society of London B: Biological Sciences, 351(1346):1413–1420.

19. de Gelder, B., De Borst, A. W., & Watson, R. (2015). The perception of emotion in body expressions. Wiley Interdisciplinary Reviews: Cognitive Science, 6(2)

20. Doncieux, S., Filliat, D., D?az-Rodr?guez, N., Hospedales, T., Duro, R., Coninx, A., ... & Sigaud, O. (2018). Open-ended learning: a conceptual framework based on representational redescription. Frontiers in neurorobotics, 12, 59.

21. Evans, D. A., Stempel, A. V., Vale, R., & Branco, T. (2019). Cognitive control of escape behaviour. Trends in cognitive sciences. Apr; 23(4)

22. Frijda, N. H. (1986). The emotions: Studies in emotion and social interaction.

23. Froese, T., & Ziemke, T. (2009). Enactive artificial intelligence: Investigating the systemic organization of life and mind. Artificial Intelligence, 173(3-4)

24. Gebhard, P. (2005). ALMA: a layered model of affect. In Proceedings of the fourth international joint conference on Autonomous agents and multiagent systems (pp. 29-36). ACM.

25. Gratch, J., & Marsella, S. (2004). A domain-independent framework for modeling emotion. Cognitive Systems Research, 5(4)

26. Grossberg, S. (2018). Desirability, availability, credit assignment, category learning, and attention: Cognitive-emotional and working memory dynamics of orbitofrontal, ventrolateral, and dorsolateral prefrontal cortices. Brain and Neuroscience Advances, 2, 2398212818772179.

27. Itti, L., Koch, C., & Niebur, E. (1998). A model of saliency-based visual attention for rapid scene analysis. IEEE Transactions on pattern analysis and machine intelligence, 20(11)

28. Karaouzene, A., Gaussier, P., & Vidal, D. (2013, August). A robot to study the development of artwork appreciation through social interactions. In 2013 IEEE Third Joint International Conference on Development and Learning and Epigenetic Robotics (ICDL) (pp. 1-7). IEEE.

29. Krichmar, J. L. (2013). A neurorobotic platform to test the influence of neuromodulatory signaling on anxious and curious behavior. Frontiers in neurorobotics, 7, 1.

30. Lazarus, R. S. (1991). Emotion and adaptation. Oxford University Press.

31. Lindquist, K. A., & Barrett, L. F. (2012). A functional architecture of the human brain: emerging insights from the science of emotion. Trends in cognitive sciences, 16(11)

32. Man, K., & Damasio, A. (2019). Homeostasis and soft robotics in the design of feeling machines. Nature Machine Intelligence, 1(10)

33. Martin, P., Bourdot, P., & Touraine, D. (2011). A reconfigurable architecture for multimodal and collaborative interactions in Virtual Environments. In 2011 IEEE Symposium on 3D User Interfaces (3DUI) (pp. 11-14). IEEE.

34. Masuyama, N., Loo, C. K., & Seera, M. (2018). Personality affected robotic emotional model with associative memory for human-robot interaction. Neurocomputing, 272

35. Mnih, V., Kavukcuoglu, K., Silver, D., Rusu, A. A., Veness, J., Bellemare, M. G., ... & Petersen, S. (2015). Human-level control through deep reinforcement learning. Nature, 518(7540)

36. Moerland, T. M., Broekens, J., & Jonker, C. M. (2018). Emotion in reinforcement learning agents and robots: a survey. Machine Learning, 107(2)

37. Moulin-Frier, C., Fischer, T., Petit, M., Pointeau, G., Puigbo, J. Y., Pattacini, U., ... & Chang, H. J. (2017). DAC-h3: a proactive robot cognitive architecture to acquire and express knowledge about the world and the self. IEEE Transactions on Cognitive and Developmental Systems, 10(4)

38. Miyake, A., Friedman, N. P., Emerson, M. J., Witzki, A. H., Howerter, A., & Wager, T. D. (2000). The unity and diversity of executive functions and their contributions to complex “frontal lobe” tasks: A latent variable analysis. Cognitive Psychology, 41(1)

39. Najafi, M., McMenamin, B. W., Simon, J. Z., & Pessoa, L. (2016). Overlapping communities reveal rich structure in large-scale brain networks during rest and task conditions. Neuroimage, 135

40. Neftci, E. O., & Averbeck, B. B. (2019). Reinforcement learning in artificial and biological systems. Nature Machine Intelligence, 1(3)

41. Ochs, M., & Blache, P. (2016). Virtual reality for training doctors to break bad news. In European Conference on Technology Enhanced Learning (pp. 466-471). Springer.

42. O’Regan, J. K. and No?, A. (2001). What it is like to see: A sensorimotor theory of perceptual experience. Synthese, 129(1)

43. Ortony, A., Clore, G. L., and Collins, A. (1988). The Cognitive Structure of Emotions.

44. Pelachaud, C. (2009). Modelling multimodal expression of emotion in a virtual agent. Philosophical Transactions of the Royal Society B: Biological Sciences, 364(1535)

45. Pessoa, L. (2008). On the relationship between emotion and cognition. Nature Reviews Neuroscience, 9(2)

46. Pessoa, L. (2017). A network model of the emotional brain. Trends in Cognitive Sciences, 21(5)

47. Pfeifer, R., Lungarella, M., & Iida, F. (2007). Self-organization, embodiment, and biologically inspired robotics. Science, 318(5853)

48. Phelps, E. A., & LeDoux, J. E. (2005). Contributions of the amygdala to emotion processing: from animal models to human behavior. Neuron, 48(2)

49. Picard, R. W. (1997). Affective computing, volume 252. MIT press Cambridge.

50. Russell, J. A. & Barrett, L. F. (1999). Core affect, prototypical emotional episodes, and other things called emotion: dissecting the elephant. Journal of personality and social psychology, 76(5).

51. Russell, J. A., & Mehrabian, A. (1977). Evidence for a three-factor theory of emotions. Journal of research in Personality, 11(3)

52. Saint-Aim?, S., Le-P?v?dic, B., & Duhaut, D. (2009). iGrace–Emotional Computational Model for EmI Companion Robot. In Advances in Human-Robot Interaction, Vladimir A. Kulyukin. IntechOpen.

53. Sporns, O. (2010). Networks of the Brain. MIT press.

54. Tovote, P., Fadok, J. P., & L?thi, A. (2015). Neuronal circuits for fear and anxiety. Nature Reviews Neuroscience, 16(6)

55. Varela, F. J., Evan, T., and Eleanor, R. (1992). The embodied mind: cognitive science and human experience. MIT Press.

56. Wiese, E., Metta, G., & Wykowska, A. (2017). Robots as intentional agents: using neuroscientific methods to make robots appear more social. Frontiers in psychology, 8

57. Wu, T., Butko, N. J., Ruvulo, P., Bartlett, M. S., & Movellan, J. R. (2009). Learning to make facial expressions. In 2009 IEEE 8th International Conference on Development and Learning (pp. 1-6). IEEE.

58. Yacoubi, A., & Sabouret, N. (2018). TEATIME: A Formal Model of Action Tendencies in Conversational Agents. In ICAART (2)

Comments

No posts found

Write a review
Translate