Книги онлайн и без регистрации » Разная литература » Искусственный интеллект – надежды и опасения - Джон Брокман

Искусственный интеллект – надежды и опасения - Джон Брокман

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 3 4 5 6 7 8 9 10 11 ... 84
Перейти на страницу:
обучению: компьютерные системы способны распознавать модели, недоступные людям, – и наоборот. Лучшие шахматисты мира – это не компьютеры и люди по отдельности, а люди, работающие вместе с компьютерами. Киберпространство действительно населено «злонамеренными» программами, но они в основном имеют форму вредоносных программ (malware) – вирусов, известных своей злобной бессмысленностью, а отнюдь не суперинтеллектом.

Винер и будущее

Винер отмечал, что экспоненциальный технический прогресс представляет собой относительно современное явление и несет благо не во всех своих проявлениях. Он рассматривал атомное оружие и создание ракет с ядерными боеголовками как стремление рода человеческого к самоубийству. Он сравнивал неудержимую эксплуатацию ресурсов планеты с безумным чаепитием из «Алисы в Стране чудес»: опустошая локальную среду, мы добиваемся прогресса и просто пересаживаемся дальше, принимаясь опустошать следующую. Оптимизм Винера в отношении разработки компьютеров и нейромеханических систем сдерживался пессимизмом по поводу применения этих инструментов авторитарными государствами, такими как Советский Союз, и стремления демократий, таких как Соединенные Штаты Америки, сделаться более авторитарными в противостоянии угрозе авторитаризма.

Что бы Винер подумал о нынешнем человеческом использовании человеческих существ? Его наверняка поразили бы мощность компьютеров и интернет. Он порадовался бы тому, что исходные нейронные сети, к созданию которых он был причастен, эволюционировали в мощные системы глубинного обучения, демонстрирующие те возможности восприятия, о каких когда-то мечтали (хотя, пожалуй, его вряд ли вдохновил бы тот факт, что одним из наиболее ярких примеров такого компьютеризированного гештальта сегодня является возможность распознавать фотографии котиков во Всемирной паутине). Вместо того чтобы расценивать машинный интеллект как угрозу, он, как я подозреваю, воспринял бы его как явление в своем праве, отличное от человеческого сознания, но развивающееся параллельно человеческому.

Нисколько не удивляясь глобальному потеплению, этому безумному чаепитию наших дней, Винер приветствовал бы экспоненциальное развитие технологий альтернативной энергии и наверняка использовал бы свой богатый кибернетический опыт для разработки сложных контуров обратной связи, необходимых для внедрения означенных технологий в будущую интеллектуальную электрическую сеть. Тем не менее, признавая, что решение проблем изменения климата зависит не только и не столько от технологий, сколько от политики, он, несомненно, испытывал бы пессимизм относительно наших шансов своевременно справиться с этой угрозой существованию цивилизации. Винер ненавидел торгашей – прежде всего торгашей от политики, – но сознавал, что нам от них никогда не избавиться.

Легко забыть, насколько страшным местом был мир эпохи Винера. Соединенные Штаты Америки и Советский Союз вели полномасштабную гонку вооружений, создавая водородные бомбы и ядерные боеголовки для межконтинентальных баллистических ракет, управляемых навигационными системами, которые отчасти разрабатывал сам Винер (чего он стыдился). Мне было четыре года, когда Винер умер. В 1964 году в начальной школе мы учились нырять под парты на случай ядерной атаки. Учитывая человеческое применение человеческих существ в ту эпоху, Винер, приведись ему увидеть нашу нынешнюю жизнь, в первую очередь порадовался бы тому, что мы до сих пор живы.

Глава 2

Ограничения «непрозрачных» обучаемых машин

Джуда Перл

профессор компьютерных наук и директор Лаборатории когнитивных систем в Калифорнийском университете (Лос-Анджелес). Последняя из опубликованных им книг, в соавторстве с Даной Маккензи, называется «Книга почему: новая наука причин и следствий».

В 1980-е годы Джуда Перл предложил новый подход к разработке искусственного интеллекта – на основании байесовских сетей. Эта вероятностная модель машинного мышления позволяла машинам функционировать – в сложном и неопределенном мире – в качестве «локомотивов доказательств», постоянно пересматривая свои убеждения в свете новых свидетельств.

Всего через несколько лет байесовские сети Перла целиком вытеснили предыдущие подходы к искусственному интеллекту, основанные на правилах. Появление методики глубинного обучения – когда компьютеры фактически самообучаются и становятся умнее, обрабатывая мириады данных, – поставило Джуду перед новым вызовом, ведь эта методика лишена прозрачности.

Признавая несомненные заслуги в области глубинного обучения таких коллег, как Майкл И. Джордан и Джеффри Хинтон[26], Перл не готов мириться с указанной непрозрачностью. Он намеревается изучить теоретические ограничения систем глубинного обучения и утверждает, что существуют базовые препятствия, которые не позволят этим системам уподобиться человеческому интеллекту, что бы мы ни делали. Используя вычислительные преимущества байесовских сетей, Джуда осознал, что комбинация простых графических моделей и данных также может применяться для репрезентации и выведения причинно-следственных связей. Значение этого открытия намного превосходит исходный контекст исследований в сфере искусственного интеллекта. Последняя книга Перла[27] объясняет широкой публике суть каузального мышления; можно сказать, что это своего рода учебник для начинающих, которые хотят научиться мыслить, будучи людьми.

Принципиально математический подход к причинности (каузальности) представляет собой значительный вклад Перла в сферу идей. Обращение к этому подходу уже принесло пользу практически во всех областях исследований, в первую очередь в сфере цифровой медицины (data-intensive health – букв. информационно емкого здравоохранения) и социальных наук.

Как бывший физик, я всегда интересовался кибернетикой. Пусть она не использовала в полной мере всю мощь машин Тьюринга, кибернетика – чрезвычайно прозрачная область знаний, возможно, потому, что она опирается на классическую теорию управления и теорию информации. Сегодня мы постепенно теряем эту прозрачность в связи с углублением процессов машинного обучения. По сути, налицо подгонка кривой, когда происходит корректировка значений в промежуточных слоях длинной цепочки ввода-вывода.

Мне встречались многие пользователи, сообщавшие, что «все работает хорошо, но мы не знаем, почему так». Стоит применить такой подход к большим наборам данных, и глубинное обучение приобретает собственную динамику, самостоятельно регулируется и оптимизируется – и в большинстве случаев дает правильные результаты. Но когда этого не случается, никто не понимает, где именно допущена ошибка и что именно следует исправлять. Важнее всего то, что невозможно узнать, имеется ошибка в программе или методике – или каким-то образом изменилась среда. Поэтому нам нужна иная прозрачность.

Кое-кто заявляет, что в прозрачности на самом деле нет необходимости. Мы не понимаем нейронную архитектуру человеческого мозга, но она исправно функционирует, а потому мы прощаем себе наше скудное понимание и охотно пользуемся таким удобным подспорьем. Точно так же, утверждают некоторые, нужно просто применять системы глубинного обучения и создавать машинный интеллект, даже если мы не понимаем, как все это работает. Что ж, до определенной степени я могу согласиться с этим доводом. Лично мне непрозрачность не нравится, поэтому я не стану тратить свое время на глубинное обучение, но я знаю, что оно занимает некое место в структуре интеллекта. Я знаю, что непрозрачные системы способны творить настоящие чудеса, и наш мозг является тому убедительным доказательством.

Но этот довод имеет свои ограничения. Причина, по которой мы прощаем себе наше скудное понимание принципов работы человеческого мозга, заключается

1 ... 3 4 5 6 7 8 9 10 11 ... 84
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. В коментария нецензурная лексика и оскорбления ЗАПРЕЩЕНЫ! Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?