Книги онлайн и без регистрации » Разная литература » Мышление через кино. Занимаясь философией, смотреть фильмы - Damian Cox

Мышление через кино. Занимаясь философией, смотреть фильмы - Damian Cox

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 25 26 27 28 29 30 31 32 33 ... 90
Перейти на страницу:
Джордж просто следует правилам. Он ищет информацию в базе данных, но не знает, к чему относится та или иная запись в базе. Он строит ответы, но не знает, что они означают. Изменится ли ситуация, если Джордж - или один из его потомков-болтунов - станет настолько хорош в конструировании ответов, что пройдет тест Тьюринга? Трудно сказать. Американский философ Джон Серл разработал очень известный мысленный эксперимент, направленный на решение этого вопроса. Он называется "Китайская комната" (Searle 1980; 1984).

 

Китайская комната

 

Представьте, что вы очнулись от наркотического сна и обнаружили, что находитесь в комнате. В комнате находится очень большой картотечный шкаф, корзина, наполненная блоками в форме странных символов, стол, карандаши и бумага, папка с надписью "Мастер-инструкции". В комнате также есть два отверстия, через которые предметы могут входить и выходить из комнаты. Они зловеще обозначены как "Вход" и "Выход". Через входной слот один за другим проскальзывают блоки. По форме они напоминают символы. На самом деле они очень похожи на символы в вашей корзине. Они выглядят как "тильды-кваглы" (так их называет Серл). На самом деле, они похожи на символы мандаринского языка, но вы не умеете читать по-мандарински (предположим). Что же вы должны делать с этими символами? Вы делаете очевидную вещь - после безрезультатных криков о помощи обращаетесь к Инструкции Мастера. Мастер-инструкции подскажут, с чего начать. К счастью, они написаны на английском языке. Ваша задача - записывать порядок поступления символов и искать их в этом порядке в картотеке. В результате появляются новые наборы инструкций. Инструкции ужасно сложны, но изложены на отличном английском языке и очень точны. В них точно указано, что и в каком порядке нужно делать. Самая последняя инструкция предписывает выбрать из корзины определенный символ и просунуть его в выходной слот. Вы следуете инструкциям изо дня в день. Вы даже научились их выполнять.

 

Это "Китайская комната" Серла. (Для удобства изложения мы изменили некоторые незначительные детали.) Он представил себе компьютер изнутри. В комнате вы следите за вычислительным процессом манипулирования символами. Это все, что делают компьютеры, говорит Серл. Это все, что они могут делать. Китайская комната" - это как суперпрограмма "Чаттербот". Она специализируется на ведении бесед на китайском языке. Входные символы представляют собой вопросы и комментарии дознавателей, а выходные - ответы Китайской комнаты. Конечно, все это происходит в ужасно медленном темпе. Но если учесть это, то грамотные носители китайского языка очень впечатлены разговорными навыками "Китайской комнаты". Они задают вопросы. Они делают замечания. Вы генерируете ответы. Китайская комната проходит тест Тьюринга; или прошла бы, если бы вы не выдавали игру своей чертовской медлительностью. Серл не считает, что скорость вообще является проблемой. Важно отметить, что, даже если Китайская комната пройдет тест Тьюринга на мандаринском языке, вы не поймете ни слова из ее разговоров. Вы не поймете, о чем они. Вы не знаете, что они означают. И тем не менее, вы выполняете все операции компьютера. Вы узнаете символы по их форме и следуете инструкциям о том, что с ними делать. Но это именно то, что делает компьютер. Если вы не понимаете разговор в китайской комнате, то никакой компьютер не сможет понять этот разговор. Более того, компьютер будет понимать даже меньше, чем вы. Вы, по крайней мере, понимаете инструкции, поскольку они написаны на английском языке и вы следуете им намеренно и вдумчиво. Компьютер же следует инструкциям вслепую, механически, без какого-либо понимания вообще.

 

Сёрл придумал мысленный эксперимент "Китайская комната", чтобы раз и навсегда решить вопрос об искусственном интеллекте. Системы искусственного интеллекта могут быть способны имитировать человеческие мысли и разговоры, заключает он, но они не способны иметь эти мысли или понимать эти разговоры. Конечно, мысленный эксперимент Сёрла ничего не решает. Философов так просто не убедить. На аргументы Сёрла существует множество ответов.7 Мы вкратце рассмотрим три из них: ответ робота, ответ системы и то, что мы будем называть двухсистемным ответом. (На самом деле, последний ответ - это ответ на ответ на ответ. Не паникуйте. Вам будет несложно разобраться).

 

Ответ робота

 

Этот ответ на аргумент Сёрла на самом деле является своего рода обратной уступкой. Мы признаем, что "Китайская комната" ничего не понимает, но возлагаем вину не на то, что она просто выполняет компьютерную программу, а на то, что она просто сидит на месте. Китайская комната, которую представляет себе Серл, не имеет эквивалента ног, рук, глаз и ушей. Если кто-то постучит в дверь, он не сможет встать и посмотреть, кто там. Ему приходится полагаться на таинственные символы, поступающие в его входной слот. Эти символы могут передавать информацию о человеке, стоящем за дверью, но "Китайская комната" не взаимодействует с человеком, стоящим за дверью, напрямую. Она оторвана от окружающей среды. Одним словом, "Китайская комната" - это не робот. Возможно, это было бы полезно. В фильме Спилберга понимание и интеллект Дэвида проявляются прежде всего в его взаимодействии с окружающей средой, в повседневных действиях, а также в реализации долгосрочных планов и стратегий, например, в попытках осуществить свою мечту - стать настоящим мальчиком. Способность Дэвида вести беседу впечатляет, но мы уверены, что он знает, о чем говорит, благодаря тому, как он взаимодействует с окружающей средой. Мы уверены, что Дэвид знает, что означает слово "Тедди", отчасти потому, что он может позвать Тедди, а затем погнаться за ним и подобрать его.

 

Итак, возвращаясь к истории Серла, давайте представим себе робота Chinese Room. Вы втиснуты в его центр управления, выполняющий все вычисления, необходимые для работы робота. Поскольку робот взаимодействует с окружающей средой, он может понимать мысли о ней. Возможно, он может знать, кто находится за дверью, потому что видит, кто находится за дверью. Таким образом, проблема с мысленным экспериментом Серла может заключаться в том, что оригинальная китайская комната просто не приспособлена для того, чтобы быть настоящим понимателем вещей. Понимание требует тщательного каузального взаимодействия с окружающей средой, а Китайская комната имеет только вербальное взаимодействие с носителями мандаринского языка, которые кормят ее письменными разговорными гамбитами. Китайская комната не имеет каузального интерактивного фона, необходимого для понимания любого из этих гамбитов. Это ответ робота на аргумент Серла. В нем есть определенный смысл. Дэвид, в конце концов, не Китайская комната. Он может понять, что с ним происходит, потому что он робот, а не болтун.

 

Но у Серла есть убедительный ответ на ответ робота. Допустим, мы превратим Китайскую комнату в робота и

1 ... 25 26 27 28 29 30 31 32 33 ... 90
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. В коментария нецензурная лексика и оскорбления ЗАПРЕЩЕНЫ! Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?