Книги онлайн и без регистрации » Психология » Вычислительное мышление. Метод решения сложных задач - Питер Макоуэн

Вычислительное мышление. Метод решения сложных задач - Питер Макоуэн

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 25 26 27 28 29 30 31 32 33 ... 53
Перейти на страницу:

Мы снова использовали декомпозицию. Каждая часть создавалась со своей целью, но с помощью некоторого обобщения отдельные модели можно свести вместе, чтобы создать нечто новое.

Этика и мировое господство

Создание ИИ, добро и зло

Этот пример показывает, как создать работающую систему ИИ, объединив различные компоненты: чат-бот с утверждениями Барнума, счетчик монет и игрока в цветной «Снап!». Вообще, каждый из этих элементов можно создать из обычных предметов, которые найдутся дома, — карт, бумаги, ручек и монет. Для создания ИИ необязательно пользоваться компьютером, ведь вычисления производят разными способами. Конечно же, можно закодировать различные компоненты, абстрактные понятия и алгоритмы в виде программы, которая будет работать на компьютере. Но стоит ли заполнять мир ИИ, которые вот так обманывают людей?

Мы использовали этот пример, чтобы объяснить, как работают вычислительные элементы, такие как сопоставление с образцом, обработка языка, нейронные системы и порождающие правила «ЕСЛИ–ТО», но специалисты по компьютерным наукам, которые создают реальные вычислительные системы, должны учитывать в своей работе этические моменты. Какие блага обеспечивают их системы и кому? Есть ли типы ИИ, которые не стоит создавать, и почему? Насколько допустимо манипулировать людьми, которые пользуются этими системами? Например, допустимо ли создавать системы, которые имитируют людей, чтобы обмануть, вызвать зависимость или каким-то образом навредить? Эти вопросы рассматриваются в этике, которая изучает, что плохо и что хорошо с точки зрения морали и нравственности. Разработчики ИИ должны соблюдать закон, однако некоторые явления законны, но в то же время приносят вред. Можно ли отнести ИИ-гадалку к такого рода явлениям? Что по этому поводу думаете вы и ваши друзья? Вычислительные системы существуют в обществе, и необходимо, чтобы они соответствовали его нормам, а будущие создатели ИИ должны это учитывать.

Главный вопрос… завладеют ли роботы миром?

С того момента, как в 1921 г. была напечатана пьеса R.U.R., о которой мы говорили несколько глав назад, и в языке возник термин «робот», непрерывно появляются фильмы и телесериалы о роботах или ИИ, которые пытаются завладеть миром. Но какое отношение злонамеренные ИИ из фильмов имеют к научной реальности? Может ли ИИ завладеть миром? Каким образом он это сделает? И зачем ему это? Все, кто придумывает кино­злодеев, должны продумать предпосылки, без которых не обходится ни один сюжет, — мотивы и возможности.

Ищем подходящий мотив

Давайте рассмотрим возможные мотивы. Вряд ли кто-нибудь считает, что интеллект как таковой обязательно ведет к желанию завоевать мир. Если вы сдали школьные экзамены, значит ли это, что вы автоматически встали на путь зла? Конечно, нет. В фильмах ИИ часто действуют из соображений самосохранения — они понимают, что испуганные люди могут их отключить. Но зачем создавать у наших инструментов ощущение, что они находятся под угрозой? Они обеспечивают нам разные блага, и, кроме того, зачем наделять самосознанием систему, которая, например, ищет в интернете ближайший итальянский ресторан?

Еще один популярный мотив для злодеяний искусственного интеллекта — рьяное следование логике. Например, такой сюжет: защитить Землю можно, только истребив все человечество. Это уничтожение из соображений логики напоминает представление, в соответствии с которым компьютер предпочтет остановившиеся часы опаздывающим на две секунды, потому что в первом случае часы показывают точное время два раза в день, а во втором — никогда. Такое обоснование сюжета, основанное на сомнительной логике в сочетании с пренебрежением к жизни, судя по всему, не согласуется с современными системами ИИ, которые в условиях неопределенности рассуждают математически и рассчитаны на безопасное взаимодействие с людьми. Айзек Азимов, один из классиков научной фантастики, продумал этот момент в сборнике рассказов о роботах «Я, робот». Там во всех роботов встроен неизменимый кодекс, «три закона роботехники», которые не дают им вредить человечеству.

Шанс стучится в дверь

Когда мы предполагаем, что ИИ теоретически может завоевать мир, для этого есть более веские основания. Известный тест Тьюринга для искусственного интеллекта был придуман, чтобы оценить конкретную способность — умение вести правдоподобную беседу. Предполагалось, что если нельзя увидеть разницу между собеседником-ИИ и человеком, то ИИ прошел тест и должен считаться таким же разумным, как человек.

Как же будет выглядеть тест Тьюринга, который обнаружит «способность» завоевать мир? Чтобы ответить на этот вопрос, нужно сравнить антисоциальные проявления ИИ с качествами потенциального властелина из числа людей. Завоевателям мира необходимо контролировать все важные сферы жизни — например, доступ к деньгам или возможность купить дом. ИИ делают это уже сейчас: например, решение о предоставлении кредита часто принимает ИИ, который просеивает горы информации, чтобы определить вашу платежеспособность. Кроме того, ИИ сейчас торгует на фондовом рынке.

Властелин мира будет отдавать приказы и ждать, чтобы их выполняли. Всякий, кто в беспомощности стоял у кассы самообслуживания, которая непрерывно требовала положить товар в пакет или убрать его оттуда, знает, что значит оказаться под властью ИИ.

Бинго «Мировое господство»

Давайте сыграем в тематическое бинго, чтобы узнать, насколько ИИ приблизился к завоеванию мира. Для этого нужно сделать собственные карточки. Нарисуйте на каждой сетку, например 3 на 3, и в каждой клетке напишите качество, необходимое для мирового господства. Например, вспомните, как действует ваш любимый суперзлодей. Что предпримет новый властелин мира? Может быть, возьмет интернет под контроль? Лишит людей свободы передвижения? Или даже займется сбором налогов? Заполните карточку, указав по одному из злодейских действий в каждой клетке. Поменяйтесь с другом.

Правила просты. Продвигаясь против часовой стрелки, ищите в интернете примеры того, что роботы или системы искусственного интеллекта делают то, что указано у вас в карточке. Найдите как можно больше вариантов. Когда найдете пример, запишите, на каком веб-сайте он описан, и вычеркните его. Постарайтесь отыскать подтверждения для примеров, которые заполнят сетку по вертикали или по горизонтали, как в обычном бинго.

Первый, кто заполнит строку или столбик, кричит «Бинго!» (конечно же, голосом злого робота) и выигрывает. Но прежде чем закончить, проверьте, какие действия вычеркнуты и какие примеры, описанные на веб-страницах, им соответствуют. Если время ограничено, победит игрок, который вычеркнет максимум действий, но опять-таки убедитесь, что эти примеры реальны и что они соответствуют действиям суперзлодеев на карточках.

Играя в эту игру, вы получите более полное представление о том, на что действительно способны сегодняшние роботы и ИИ. А потом можно либо начинать беспокоиться, либо почувствовать себя в безопасности.

Убить Билла?

Ни один голливудский робот с манией величия не обходится без хоть какого-то желания убивать. У нас уже есть дроны, созданные для убийства. Военные роботы могут определять цель без вмешательства людей. Сейчас команду атаковать дает управляющий ими человек, но вполне можно утверждать, что у этого ИИ есть потенциал убивать по своей воле. Но чтобы это стало возможно, придется изменить программный код. Впрочем, автономные роботы-убийцы уже существуют, хотя убивают и не людей. Пока мы пишем эти строки, в район Большого Барьерного рифа завозят роботов, которые будут выслеживать и убивать ядом морских звезд, разрушающих кораллы. Этим автоматам не потребуется приказ человека — оказавшись на свободе, они будут сами решать, кто умрет, а кто останется в живых.

1 ... 25 26 27 28 29 30 31 32 33 ... 53
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. В коментария нецензурная лексика и оскорбления ЗАПРЕЩЕНЫ! Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?