Всё об искусственном интеллекте за 60 минут - Питер Дж. Бентли
Шрифт:
Интервал:
Закладка:
Конечная цель эмоционального ИИ – дать ИИ его собственные эмоции. Распознавание эмоций у других лишь помогает вам понять, что ваше поведение оказывает определенное влияние. Ощущение же собственных эмоций позволяет вам сопереживать и принимать решения более эффективно.
Исследователи симулировали эмоции в своих ИИ и мультиагентных моделях в течение многих лет. Одни просто использовали понятие стоимости (скажем, 0,9 для счастья); другие – модели с нечеткой логикой. Симулированные эмоции могут быть реактивными, то есть возникающими автоматически: к примеру, страх, вызванный огнем, счастье во время приема пищи. Некоторые модели эмоций включают в себя психологические особенности, такие как личностные свойства, чтобы ограничить влияние каждой эмоции на поведение. Для создания правил об эмоциональных состояниях использовали символьные методы ИИ: если оцениваемая ситуация повысила ясность и удовольствие, она создает радость. Таким образом, агент начинает «чувствовать» радость, гнев, удивление, страх, панику, беспокойство, сожаление, а также понимает причину этих эмоций. В настоящее время другие исследователи приступили к моделированию физиологической реализации эмоций, при этом эмоциональные состояния меняют поведение нейронных сетей так же, как области нашего мозга – лимбическая система и миндалина – влияют на его поведение как системы. Точно так же, как настоящие эмоции помогают нам функционировать в реальном мире, включение эмоций в искусственные нейронные сети, как надеются исследователи, позволит роботам отражать и изучать эмоциональные состояния, в результате чего они обретут способность быстро и эффективно выносить суждения, как это делаем мы.
Вопрос не в том, могут ли разумные машины иметь какие-либо эмоции, а в том, могут ли эти машины быть разумными без каких-либо эмоций.
НЕЧЕТКАЯ ЛОГИКА
Нечеткая логика – это разновидность многозначной логики, впервые предложенная математиком и информатиком Лотфи Заде в 1965 году. В то время как нормальная логика основана на бинарном «да/нет», «включено/выключено», нечеткая логика определяет степень принадлежности к множеству. Нечеткая логика напоминает вероятность, но отличается от нее: значение нечеткой логики представляет собой степень, с которой данные относятся к значению в пределах неясно заданного набора, тогда как вероятность – это возможность чего-либо. В то время как логическое выражение имеет бинарную логическую переменную «счастливый», которая принимает значение «да» или «нет», в нечеткой логике та же концепция будет формулироваться с использованием нескольких лингвистических переменных, соответствующих нечетким множествам. Например, концепция настроения может быть размыта и содержать: нечеткое множество понятия «счастливый» со значением 0,8; нечеткое множество понятия «печальный» со значением 0,3; «злой» – 0,1 и «удивленный» – 0,4. Использование лингвистических переменных делает нечеткую логику намного более понятной. Сегодня она широко применяется в ИИ, которые контролируют метро, подъемники и даже рисоварки.
Эмоциональные вычисления – одно из последних значительных достижений в области ИИ: по оценкам специалистов, рынок эмоциональных вычислений вырастет с 22,2 миллиарда долларов в 2019 году до 90 миллиардов долларов к 2024 году. Распространение подобных технологий облегчает сбор данных (изображений лиц, аудиозаписей голосов и физиологических особенностей, таких как частота сердечных сокращений и интенсивность потоотделения). Алгоритмы машинного обучения теперь способны классифицировать эти данные и позволяют точно прогнозировать наше эмоциональное состояние. Это должно привести к появлению более осведомленных чат-ботов, которые смягчат свои ответы, если мы разозлимся или расстроимся. Производители автомобилей уже работают над транспортными средствами, которые предупредят нас, когда гнев или депрессия начнет негативно влиять на нашу способность вести машину. Более качественный анализ настроения уже используется британским правительством для сопоставления комментариев в социальных сетях с конкретными эмоциональными настроениями. По мере того как цифровые очки (такие как Google Glass) становятся все более распространенными, компании вроде Brain Power предлагают новые технологии для людей с аутизмом, которые подсказывают им эмоциональное состояние окружающих и учат лучше понимать мир чувств. Другие компании разрабатывают технические решения для людей с проблемами в области психического здоровья. В частности, они задействуют в поведенческой терапии чат-ботов. Один из таких чат-ботов Ellie – виртуальный агент, финансируемый Управлением перспективных исследовательских проектов и помогающий солдатам с посттравматическим стрессовым расстройством. Karim – чат-бот, созданный стартапом X2AI из Кремниевой долины, он помогает сирийским беженцам преодолевать последствия травмы.
Будущее выглядит радужно. Однако, как и все остальные достижения, эмоциональный ИИ имеет свою темную сторону. Использование наших физиологических и эмоциональных данных без разрешения вызывает у многих большие опасения. А что, если данные используются в менее пристойных целях? Чат-бот Microsoft в женском обличье, Xiaoice, добилась значительной популярности благодаря симпатичной внешности и способности очаровывать собеседника. Около 100 миллионов 18–25-летних людей в мире беседуют с ней, причем некоторые регулярно. Является ли это лекарством от одиночества, которое нам стоит принять? Или это всего лишь циничная уловка компании, призванная повысить лояльность к бренду?
К 2022 году ваше персональное устройство будет знать о вашем эмоциональном состоянии больше, чем ваша собственная семья.
В 2017 году в результате утечки данных о сообщениях, отправленных рекламодателям руководством Facebook, стало известно, что компания способна отслеживать сообщения в режиме реального времени и определять, когда подростки чувствуют себя «беззащитными», «бесполезными» и «нуждающимися в увеличении уверенности». Также утверждалось, что компания может классифицировать такие состояния, как «напряженный», «побежденный», «ошеломленный», «тревожный», «нервный», «глупый», «бессмысленный», «бесполезный» и «неудачливый».
Facebook также подвергся критике за более раннее исследование 2014 года, в ходе которого компания проводила манипулирование новостными лентами почти 700 000 пользователей, чтобы повлиять на их эмоции, что нарушало этические принципы, поскольку никто из «испытуемых» не давал информированного согласия.