Книги онлайн и без регистрации » Разная литература » Мышление через кино. Занимаясь философией, смотреть фильмы - Damian Cox

Мышление через кино. Занимаясь философией, смотреть фильмы - Damian Cox

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 26 27 28 29 30 31 32 33 34 ... 90
Перейти на страницу:
поместим вас в центр управления. Робот из Китайской комнаты наделен восприятием. Он может видеть, слышать и осязать окружающее пространство. Но это не значит, что вы можете делать эти вещи. Нельзя установить камеру снаружи робота Chinese Room и передавать вам изображение внешнего мира. Что вы будете делать с этими изображениями? Мы воспринимаем мир не потому, что у нас в голове сидит маленький человечек и смотрит телевизор, а потому, что это не робот, и не робот "Китайской комнаты". Изображения поступают в центр управления в виде информации, и эта информация должна быть представлена таким образом, чтобы вы могли следовать правилам, указывающим, что с ней делать. Но вот в чем загвоздка. Если информация поступает в комнату в таком виде, то нет никакой гарантии, что вы сможете ее расшифровать. Для вас она может выглядеть просто как еще большее количество неинтерпретированных загогулин. Это не мешает Вам отличать одни тильды от других. Вы способны идентифицировать уникальную форму каждого типа тильды-кваглы и узнавать ее заново всякий раз, когда она появляется, причем вы можете делать это, не зная, что представляют собой тильды-кваглы. Такую структуру информации философы называют "синтаксической структурой". Серл указывает на то, что информация будет поступать в центр управления робота в виде неинтерпретированного синтаксиса. Вы знаете, что делать с синтаксически структурированной информацией, благодаря всем правилам, спрятанным в картотеке. Но вы не знаете, как интерпретировать синтаксис. Вы не знаете, что он означает. Таким образом, мы можем легко представить себе (ну да, мы можем представить) робота из китайской комнаты, который эффективно выполняет свою работу, а вы, находясь в центре управления, помогаете ему, оставаясь в неведении.

 

Серл, похоже, прав. Превращение Китайской комнаты в робота Китайской комнаты не позволит нам избежать его аргументации. Конечно, это может помочь нам избежать его. Идея о том, что взаимодействие с окружающей средой необходимо для того, чтобы система искусственного интеллекта обрела понимание, весьма правдоподобна. Утверждение, которое мы делаем здесь от имени Серла, заключается лишь в том, что добавление функции робототехники в Китайскую комнату не обеспечит вам в центре управления понимания того, чем занимается робот в Китайской комнате. Если исходный аргумент "Китайская комната" работает, то соответствующий аргумент "робот Китайской комнаты" должен работать так же хорошо.

 

Системный ответ

 

Ответ робота не устроит, но есть ответ получше. Вы застряли в Китайской комнате (или в центре управления роботом Китайской комнаты) и не понимаете, что делает система в целом. В этом нет ничего удивительного. Вы - не Китайская комната. Вы - исполнитель программы в системе. Вы выполняете хакерскую работу. Вы слепо следуете инструкциям. Вы похожи на процессор обычного компьютера. Компьютер - это гораздо больше, чем процессор. Система в целом включает в себя жесткий диск, оперативную память, кэш, видеокарту, операционную систему, программное обеспечение, всевозможные периферийные устройства и т.д. Если вы похожи на процессор китайской комнаты, то это не китайская комната. Вы даже не самая важная часть китайской комнаты. Мы можем вынуть вас и подключить кого-то другого, и система почти ничего не заметит, при условии, что ваша замена сможет выполнять инструкции так же хорошо, как и вы. Поскольку вы являетесь лишь небольшой и заменяемой частью "Китайской комнаты", неудивительно, что вы не понимаете, что делает система в целом. Если кто-то и понимает китайский язык в нашем мысленном эксперименте, то это вся система в целом. А вы - не вся система. Это и есть ответ системы на аргумент Серла.

 

Серл не впечатлен. Каким образом добавление мебели (картотеки, корзины с тильдами и т.д.) может превратить то, что не понимает (т.е. вас), в то, что понимает (т.е. в систему "Китайская комната")? Заманчиво ответить: "Просто так". Сам по себе картотечный шкаф не может понять: он просто инертная информация. Вы не можете понять: вы просто слепо следуете инструкциям. Но если сложить эти две вещи вместе, то получится нечто большее, чем просто сумма частей. Мы получаем активную и способную обрабатывать информацию систему, и Серл не сказал нам ничего, что доказывало бы, что такая система не может понимать мандаринский язык.

 

Серл повторяет попытку. Представьте себе, что вы находитесь в китайской комнате так долго, что очень хорошо знаете инструкции в картотеке. Представьте, что у вас потрясающая память и в конце концов вы запомнили все инструкции. Теперь, когда через входной слот поступает "тильда-квагга", Вам не нужно искать инструкцию в картотеке, чтобы понять, что с ней делать. Достаточно обратиться к своей памяти. В этом новом мысленном эксперименте, говорит Серл, вы действительно являетесь системой "Китайская комната", а не только ее тупой частью - процессором. И все равно вы не поймете, о чем говорит система "Китайская комната". Для вас это все равно будут какие-то загогулины. Это показывает - не так ли? - что система "Китайской комнаты" не может понять, о чем она говорит. Теперь вы сами являетесь этой системой - вы интериоризировали всю систему - и все равно не понимаете. Так как же компьютер может понять?

 

Двухсистемный ответ

 

Только что мы рассмотрели ответ на аргумент Сёрла (системный ответ) и ответ Сёрла на него. Настало время для последнего (на данный момент) ответа - ответа на две системы. Сёрл просит вас представить, что вы запомнили весь список инструкций китайской комнаты. Это невероятный подвиг - но в философских мысленных экспериментах допускаются невероятные вещи. Назовем человека с невероятной памятью "Пузырьком". На первый взгляд, Bubblehead - это просто вы с небольшим запасом памяти. Но внешность бывает обманчива. Может показаться, что запоминание программы "Китайская комната" не так уж сильно отличается от запоминания других вещей, например, расписания железных дорог в Северной Америке, но на самом деле это совсем другое. Отличие заключается в том, что Bubblehead использует память о программе Chinese Room совершенно особым образом. Когда вы используете свою память о железнодорожном расписании, чтобы успеть на поезд, вы используете связи между расписанием и остальными вашими знаниями. Вы знаете, как определить время и сколько осталось до 13:00. Вы знаете, что если вы придете в 14:00 к поезду, который должен был отправиться в 13:00, то, скорее всего, опоздаете. И так далее. Когда Bubblehead запоминает инструкции Chinese Room, такой интеграции не происходит. Компонент "Китайская комната" в Bubblehead не полностью интегрирован в остальную когнитивную систему Bubblehead. Более того, он вообще почти не интегрирован.

 

Похоже, что Bubblehead состоит из двух когнитивных систем. Одна из них - обычная система, позволяющая вовремя успевать на

1 ... 26 27 28 29 30 31 32 33 34 ... 90
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. В коментария нецензурная лексика и оскорбления ЗАПРЕЩЕНЫ! Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?