Книги онлайн и без регистрации » Разная литература » Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 28 29 30 31 32 33 34 35 36 ... 107
Перейти на страницу:
в целом. Первый новый закон робототехники требует политики, которая поддерживает профессиональный статус журналистов (и рассматривает ИИ в качестве вспомогательного инструмента, который не должен их замещать)[274]. Модераторам контента нужно более качественное обучение, большая оплата труда и более удобные условия, если мы хотим, чтобы они надежно руководили ИИ в новом контексте социальных сетей. Один из способов финансировать, с одной стороны, журналистику, то есть старую профессию, и, с другой, новые профессии, созданные в результате автоматизации медиа, – это снизить конкурентные требования к публикациям, которые якобы должны участвовать в цифровой гонке за внимание пользователей сети (это предмет третьего закона, запрещающего разорительные гонки вооружений). Далее в этой главе мы будем исследовать способы передачи финансирования от платформ (подобных YouTube и Facebook) людям, которые занимаются тем, что помогают нам понять политику, политический курс и многое другое и в то же время участвовать в них[275].

Этот проект окажется крайне сложным, что отчасти обусловлено новыми формами авторитаризма, которые развиваются в автоматизированной публичной сфере. Некоторые государственные медиа- и интернет-регуляторы, даже в странах, которые безусловно являются демократическими, выведены из строя, их уже невозможно восстановить.

Но это означает лишь то, что проект по защите медиа нужно как можно быстрее запустить в юрисдикциях, которые еще не стали жертвами авторитарного тренда. И даже в тех странах, где это уже случилось, граждане, которые прилагают немало усилий к созданию альтернативных медиасистем, должны найти много полезного в четырех новых законах робототехники и в той их проработке, которая будет дана далее.

Политические, экономические и культурные сбои массовых онлайн-посредников заслуживают внимания и отпора. Хотя часто такие фирмы говорят, что они слишком сложны, чтобы их можно было регулировать, Европа уже показала, как одним незначительным фрагментом автоматической публичной сферы, а именно именами, выдаваемыми в поисковых результатах, можно управлять благодаря закону, который будет человечным и инклюзивным. Этот опыт способен подсказать нам, как развивать более обширную структуру регулирования наиболее распространенной формы ИИ, влияющей ныне на нашу жизнь, а именно автоматизации медиа. Эта структура ответственности, построенная на понятиях аудита данных, закладываемых в алгоритмические системы, и атрибуции действий подобных систем, которые должны приписываться их контролерам, должна определять регулирование ИИ, проникающего благодаря роботам в наш физический мир.

Когда слова убивают

Автоматические медиа могут предстать маловероятным или неудачным предметом для внимания регулирующих ведомств. Ведь это только слова и картинки, не имеющие ничего общего с действиями хирургического робота или автономной вооруженной системы, которые решают вопросы жизни и смерти. Однако сегодня хорошо известны кровавые последствия бесконтрольного распространения высказываний, разжигающих ненависть. Например, в индийской Шри-Ланке и Мьянме фанатики и зеваки распространяли в социальных сетях безосновательные выдумки о мусульманских меньшинствах. Странный слух о том, что мусульмане раздали «23000 стерилизационных таблеток», мгновенно разошелся по Facebook, заставив толпу сжечь один ресторан, который, считалось, отравил еду такими таблетками[276]. Владельцу ресторана несколько месяцев пришлось скрываться. И такие инциденты нередки. Взрывоопасные нарративы межрасовой злобы, как и откровенная ложь, – все это повлияло на ключевые выборы в Британии, Кении и Америке[277]. Они циркулируют на крупных интернет-платформах, стохастически радикализируя пользователей[278].

Множество опасностей появляется, когда критически важная социальная роль, исторически определявшаяся суждением и человеческими контактами, внезапно автоматизируется. Менеджеры и инженеры часто довольно дурно оптимизировали алгоритмы, максимизируя рекламные доходы, для этого использовался набор из кликбейта, сенсаций и манипуляций. Можно подумать, что подсчет просмотров видео – последний заслон человеческого контроля качества. Однако широкое распространение получили «фермы просмотров», состоящие из ботов[279]. Даже когда просмотры настоящие, простое «вовлечение», оцениваемое по времени присутствия пользователя на сайте и на основании текста, который он печатает, – это весьма грубый показатель качественного сетевого времени, не говоря уже о последствиях для демократии или политического общества[280].

Конечно, социальные сети позволили определенным сообществам связаться друг с другом, и в некоторых случаях они поддержали похвальные социальные движения. Мы не стали бы тем не менее соглашаться с повальной автоматизацией в здравоохранении и образовании, если бы она привела к тому, что миллионы учащихся не смогли получить основные сведения о математике или науке, или если бы она вызвала сотни случаев ущерба, который можно предотвратить. Пора отнестись к нашей автоматизированной публичной сфере серьезней, прежде чем в нее смогли проникнуть еще более опасные субъекты. Для этого потребуется подписаться под двумя простыми принципами. Во-первых, защита свободы слова применима прежде всего к людям, а к ИИ она если и применима, то лишь во вторую очередь. Крупные технологические фирмы более не должны скрываться за принципом «свободы слова» как универсальным талисманом безответственности. Во-вторых, ведущие фирмы должны взять на себя ответственность за то, чему они отдают приоритет и что они публикуют. Они более не могут винить «алгоритм» в распространении вредной информации и подстрекательстве. Мы можем либо потребовать от ИИ человеческих ценностей, либо страдать от того, что он будет взращивать в нашей же среде бесчеловечность. Середины тут нет.

Конечно, всегда будут споры о точном определении контента, который в социальном плане настолько опасен, что его нужно запрещать, скрывать или понижать в поисковом рейтинге и новостных лентах. Откровенный расизм, распространение порочащих сведений и отрицание базовых научных фактов – вот то, с чего было бы неплохо начать, особенно когда все эти факторы прямо угрожают жизни и средствам к существованию. В таком процессе определения угроз ключевую роль должны сыграть специализированные рецензионные советы[281].

В идеальном случае они должны отражать ценности пользователей платформы и взвешенные позиции экспертов в данной области, а также включать юристов, способных установить непростой баланс между свободой слова, конфиденциальностью и другими ценностями.

Еще важнее переосмыслить отношение между новыми и старыми медиа. Большинству журналистов, несмотря на все их хорошо известные прегрешения, можно доверять в том, что они, по крайней мере, пытаются проверять точность новостей, отчасти потому, что на них лежит юридическая ответственность: бездумная ложь может стать причиной судебного обвинения в клевете. Тогда как лоббисты технологических фирм убедили слишком большое число законодателей и регуляторов в том, что их платформы следует считать такими же проводниками, как и любые другие, то есть чем-то вроде телефонной линии. Эта удобная характеристика позволяет им избегать ответственности за клевету[282].

Подобную безнаказанность можно было понять, когда Facebook и Google были начинающими компаниями. Но теперь это анахронизм. Авторитарная пропаганда заполонила новостные ленты и поисковики[283]. Facebook может снимать с себя ответственность за распространение фальшивых историй, в которых утверждалось, что папа римский одобрил кандидатуру Дональда Трампа или

1 ... 28 29 30 31 32 33 34 35 36 ... 107
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. В коментария нецензурная лексика и оскорбления ЗАПРЕЩЕНЫ! Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?