Книги онлайн и без регистрации » Разная литература » Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 34 35 36 37 38 39 40 41 42 ... 107
Перейти на страницу:
маркировки в очевидном случае высказывания, разжигающего ненависть, которое разгоняется манипулятивными методами. Чтобы не допустить экстремизм в центр публичного внимания, маркировкой можно снабжать исторические ресурсы и группы интересов с обманчиво невинными названиями, которые в действительности проповедуют опасные дискредитированные идеологии. Без такой маркировки упорная банда фанатиков, обладающих базовыми навыками программирования, способна взломать экономику внимания, воспользовавшись неспособностью автоматизированных систем верно размечать и разъяснять источники информации[333].

Автоматические боты изрядно поспособствовали распространению в сети экстремизма, а потому государства должны взять их под контроль. Крупнейшие технологические платформы борются с подобными аккаунтами спустя рукава. У таких платформ две обязанности. Они знают, что пользователям не нравятся утомительные комментарии с каких-то анонимных аккаунтов или просмотры видео, которые нагоняются автоматическими «фермами ботов». С другой стороны, у них не слишком много конкурентов, поэтому нет причин бояться оттока пользователей. В то же время боты повышают показатели вовлечения на платформе, которые являются святыней цифровых маркетологов.

В 2012 г. YouTube «поставил перед компанией задачу достичь миллиарда часов просмотров в день и переписал свою рекомендационную систему, чтобы максимизировать этот показатель»[334]. «Миллиард часов ежедневных просмотров стали для наших технических специалистов путеводной звездой», – сказала гендиректор Сьюзен Воджицки. К неудовольствию пользователей YouTube, эта фиксация на количественных показателях позволила мошенникам манипулировать рекомендациями и создавать трафик для источников опасной дезинформации, о которых мы уже упоминали. Чтобы выявлять и предупреждать подобную манипуляцию, социальные сети вместе с поисковыми машинами должны покончить с ботами, занимающимися подобными махинациями. Если они не смогут сделать этого, законы должны потребовать, чтобы каждый аккаунт раскрывал, кем он управляется: человеком или машиной. Все пользователи должны иметь возможность блокировать аккаунты ботов в пользовательских настройках, а еще лучше, если такая блокировка будет выставлена по умолчанию, так что от пользователя, чтобы открыть ботам и их автоматическим сообщениям доступ в свою новостную ленту, потребуется специально его подтвердить. Некоторые адепты технологии обеспокоены тем, что подобные ограничения могут сказаться на свободе слова. Однако чисто автоматический источник информации и манипуляции, за который не отвечает ни один человек, не должен обладать подобными правами. Государства могут блокировать шумные мини-дроны, которые вторгаются в наше личное пространство для распространения новостей, изображений и рекламы, и та же логика применима и в сети.

Защита свободы слова – для людей и только во вторую очередь (если она к ним вообще применима) для программ, алгоритмов и искусственного интеллекта[335]. Свобода слова для людей – чрезвычайно важная цель, если учесть контекст современных исследований манипуляций публичной сферой по всему свету. Как отметил Джеймс Гриммельман, призывая отнестись к авторскому праву роботов с осторожностью, Первая поправка в приложении к ИИ могла бы систематически отдавать предпочтение машинной речи, а не человеческой[336]. Если людям-ораторам приходится учитывать законы о клевете и другие формы ответственности, наступающей, когда они лгут или искажают истину, как может быть ответственен автономный бот? У него нет репутации или активов, которые он мог бы потерять, поэтому остановить его невозможно.

Гораздо проще изобразить народную поддержку, чем на самом деле создать ее[337]. Когда избиратели и даже государства не могут провести различие между реальным и поддельным выражением мнения, невозможным становится то, что Юрген Хабермас называет «формированием демократической воли». Как доказывает постоянно растущее число эмпирических исследований негативных последствий «высказываний» ботов, в слишком многих сценариях их выступления представляют собой не столько речь, сколько антиречь, то есть хорошо рассчитанную попытку подорвать разумные обсуждения и ввести в заблуждение ничего не подозревающих людей[338]. Для восстановления доверия общества к демократическим процессам государства должны потребовать безотлагательного раскрытия данных, используемых для порождения алгоритмической речи, применяемых алгоритмов, а также таргетирования этой речи. Четвертый новый закон робототехники (предусматривающий атрибуцию ИИ его изобретателем или контролером) требует подобной прозрачности. Фирмы, которые подпадут под это требование, могут утверждать, что их алгоритмы слишком сложны, чтобы их раскрыть. В таком случае власти должны иметь возможность запретить таргетирование и сбор соответствующей информации, поскольку защита свободы слова должна иметь некоторое опознаваемое отношение к человеческому интеллекту. Без такого правила постоянно пополняемая армия ботов грозит заглушить речь реальных людей[339].

Кроме того, власти должны рассмотреть запрет определенных типов манипуляций. В британском Кодексе рекламы на радио и телевидении говорится, что «аудиовизуальные коммерческие передачи не должны применять техники, незаметные для сознания»[340]. В нормах американской Федеральной торговой комиссии прямо указывается на запрет вводящих в заблуждение рекламных объявлений, а также неверных или отсутствующих сведений о спонсорстве. Также государствам будет необходимо разработать более конкретные законы, управляющие все более автоматизируемой публичной сферой. В Калифорнии недавно потребовали, чтобы цифровые боты идентифицировали себя в социальных сетях[341]. Еще один предложенный закон должен «запретить оператору сайта социальной сети совершать сделки по продаже рекламы с программным аккаунтом или пользователем, выполняющим автоматическую задачу, либо с аккаунтом, который не верифицирован оператором в качестве контролируемого реальным человеком»[342]. Это сильные и конкретные законы, которые должны гарантировать то, что критически важные форумы человеческой коммуникации и взаимодействия не будут заглушаться постчеловеческим роем спама, пропаганды и отвлечения.

Как бы ни были привлекательны говорящие роботы, которых рисует научная фантастика, никто не должен романтизировать манипуляционную речь ботов. Логическим завершением laissez-faire в автоматизированной публичной сфере становится вечное сражение за внимание пользователей, которое ведут армии роботов, причем наиболее вероятным победителем станет фирма с наибольшими финансовыми ресурсами. Они смогут микротарге-тировать население любыми «работающими» материалами, чтобы мобилизовать его (и не важно, будет ли это истина, полуправда или ложь, цель которой – манипуляция), раскалывая публичную сферу на миллион персонализированных приватных сфер. Это очень далеко от победы классических ценностей свободы слова (то есть автономии и демократического самоуправления); на самом деле это, скорее, предвестье растворения в сфабрикованном консенсусе фантомной публики. Нераскрытые боты подделывают базовую репутационную валюту, которую люди зарабатывают благодаря своей телесности, поскольку боты неприкрыто нарушают второй новый закон робототехники.

Лучший телефонный робот

Проблема подделки вскоре может перейти из цифрового мира в реальный. Когда в 2018 г. был представлен Google Assistant, он поразил аудиторию, особенно когда гендиректор Сандар Пичаи продемонстрировал Duplex, искусственный интеллект, задача которого – назначать встречи. «Мы хотим наладить связи между пользователями и фирмами», – объяснил Пичаи. «60 % небольших фирм не имеют системы онлайн-букинга», а многие клиенты не любят звонить[343]. Пока он выступал, на экране отображалась команда: «Назначь мне встречу с парикмахером во вторник утром между io и 12 часами». В ответ на эту команду Duplex тут же сделал звонок в салон и пообщался

1 ... 34 35 36 37 38 39 40 41 42 ... 107
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. В коментария нецензурная лексика и оскорбления ЗАПРЕЩЕНЫ! Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?