Книги онлайн и без регистрации » Разная литература » Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 30 31 32 33 34 35 36 37 38 ... 107
Перейти на страницу:
алгоритмических производителей контента, так что в итоге становится просто невозможно понять, что происходит» и с чем мы имеем дело – с примером художественной изобретательности, сатирой, жестокостью или извращенной попыткой познакомить маленьких детей с контентом, содержащим сцены насилия и секса[299]. Контекст отсутствия контекста смешивает все эти формы друг с другом, сближая несовместимые материалы. Из этого предсказуемо возникают злоупотребления, которые заставляют поставить серьезные вопросы о роли ИИ в отборе контента:

Главной проблемой YouTube являются совсем маленькие дети, которые с самого рождения целенаправленно таргетируются контентом, который может травматизировать и смутить их, распространяясь в сетях, особенно уязвимые перед злоупотреблениями такого вида. Вопрос не в намерении, а в том насилии, которое неотъемлемо от цифровых систем, сочетающихся с капиталистическими мотивами. Система уличена в злоупотреблении, a YouTube и Google замешаны в системе[300].

Такие ремиксы подпитывают циническую игру опытов над детьми, в которых основным признаком успеха является то, что приносит больше рекламных доходов.

Обычная телекомпания, показывающая подобный мусор, была бы вынуждена поплатиться – падением просмотров или бойкотом со стороны спонсоров. Но когда журналисты и публика в целом считают «алгоритм» неким неподконтрольным монстром вроде Франкенштейна, YouTube может выдавать себя за всего лишь платформу, перекладывая вину за любые ошибки на суетливую толпу создателей контента, программистов и поисковых оптимизаторов. Его последовательная безответственность показывает, как технологические фирмы могут захватывать все более обширную область нашего опыта, считая своей заслугой удачи и отмахиваясь от вины за катастрофы.

В этом сценарии ИИ служит поводом для прощения, поскольку это настолько сложный способ создания и упорядочивания контента, что его не могут контролировать даже его собственники, по крайней мере, если верить им самим. Это очевидный способ увернуться от ответственности. Телестанции часто прерывают трансляцию, если что-то идет не так. В MySpace, одной из первых социальных сетей, был специальный работник, который проверял каждое изображение, опубликованное в Бразилии, чтобы остановить циркуляцию изображений издевательств над детьми. И YouTube, и Facebook нанимают специальных «чистильщиков», оценивающих постфактум изображения и видео, на которые жалуются другие пользователи или которые замечаются алгоритмами. Но они могут намного больше вкладываться в безопасность, когда речь идет о некоторых уязвимых группах (например, детях) или напряженных периодах (например, сразу после массовой стрельбы, мотивированной расовой ненавистью).

Несмотря на постоянный пиар и обещания «исправиться», не иссякает поток новостей, показывающих, насколько плохо технологические фирмы справляются с этими ролями. New York Times обнаружила, что YouTube иногда автоматически рекомендовал домашние видео детей в купальниках сразу после сексуально окрашенного контента, в чем отразились педофильские наклонности его ИИ[301]. Группа Reveal News выяснила, что Facebook таргетировал людей, имеющих склонность к азартным играм, все более привлекательными видеорекламами покера. Даже если бы таких историй стало сегодня намного меньше, было бы сложно сказать, в чем причина – в более ответственном поведении платформ или просто в сокращении таких репортажей из-за перенаправления потока рекламных доходов цифровыми посредниками.

Восстановление ответственности в сфере сетевых медиа

Если бы у компаний Google и Facebook были четкие и публично признанные идеологические программы, взрослые пользователи могли бы их освоить и выработать соответствующую защиту от них, относясь к выгодному этим компаниям контенту с определенным скепсисом. Но ИИ-платформы правильнее понимать как мощное средство, которым орудуют оптимизаторы поисковых машин, хорошо организованные экстремисты и другие маргиналы. Поиск в Google по запросу «здоровье Хилари Клинтон» в сентябре 2016 г. (после того как она теряла сознание) вел к многочисленным сомнительным видео и статьям, в которых безосновательно утверждалось, что у нее болезнь Паркинсона. В том военном сумбуре, который создают современные политические кампании, сам факт распространения подобных порочащих видео (какова бы ни была их правдивость) может стать важной темой публичных дискуссий. Манипуляторы знают, что создание бесконечного потока мнимых вопросов (и не важно, проверены они кем-то или просто сфабрикованы) способно подорвать шансы кандидата на определение публичной повестки[302].

Если нет людей-редакторов или менеджеров, которые бы брали на себя прямую ответственность за алгоритмические решения, сетевые платформы способны представить худшие социальные элементы в лучшем, убедительном и авторитетном свете. Так, поисковые результаты Google спровоцировали расиста Дилана Руфа, который убил девять человек в так называемой исторической черной церкви в Южной Каролине в 2015 г. Руф сказал, что, когда он погуглил «преступления черных против белых», то нашел посты организаций – сторонниц теории расового превосходства, в которых рассказывалось о «белом геноциде». «После этого я стал другим человеком», – сказал он[303]. Теория заговора ttPizzagate подтолкнула по крайней мере одного стрелка «изучить» безосновательные утверждения о сексуальных домогательствах в одной вашингтонской пиццерии, где он размахивал винтовкой AR-15. В горячечной топи автоматических поисковых результатов легко растет и распространяется поддержка отрицателей изменения климата, женоненавистников, этнонационалистов и террористов[304].

Автозаполнение в Google – автоматическое предугадывание запроса пользователя по одному или двум словам – также порой вызывало недовольство и споры[305]. Часто оно повторяет или подкрепляет расистские стереотипы[306]. В поиске изображений в Google некоторые фотографии черных людей были помечены как фотографии горилл, что было оскорбительным и в то же время абсурдным. За год Google «решил» эту проблему, отключив классификатор «горилла» для всех фотографий; соответственно, ни одно изображение не было им помечено, даже настоящие гориллы. Это решение на скорую руку не может на самом деле решить базовых проблем расистских или сексистских данных, которые используются сегодня для тренировки систем машинного обучения, или сократить уязвимость этих систем перед подобными атаками[307].

Многие представители элит, столкнувшись с подобными расистскими или сексистскими стереотипами, известными по поиску изображений в Google, могли бы посчитать их всего лишь трагическим отражением установок невежественных пользователей Google. Ведь, в конце концов, пользователи сами поставляют данные. Но такой перенос ответственности не убеждает. Как указывает Сафия Умоя Нобле в своей книге «Алгоритмы подавления», где она опирается на свой опыт академического ученого и бизнесвумен, когда цена высока, цифровые гиганты готовы вмешаться и поменять результаты (например, в коммерческих контекстах продажи рекламы). И они должны нести такую же ответственность в том случае, когда создается угроза общественным интересам.

Нобле также отстаивала идею замедления новых медиа. Из-за моментальной загрузки и распространения контента «платформа не в состоянии просмотреть каждый пост и определить, должен он быть опубликован или нет», – отмечает Нобле[308]. Киберлибертарианцы доказывают, что это означает лишь то, что человеческий контроль попросту устарел. Но Нобле с ними не согласна. Это системы, служащие людям, и их можно перестроить так, чтобы они служили целям человека. Новости на

1 ... 30 31 32 33 34 35 36 37 38 ... 107
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. В коментария нецензурная лексика и оскорбления ЗАПРЕЩЕНЫ! Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?