В 1950 году Алан Тьюринг опубликовал основополагающую статью о машинном интеллекте. Тьюринг размышляет, могут ли машины думать. Однако он почти сразу же отбрасывает этот первоначальный вопрос как безнадежно метафизический и заменяет его другим вопросом, к которому можно подойти с научной точки зрения: сможет ли машина когда-нибудь убедить нас в том, что она думает? Может ли ИИ иметь сознание?
Тьюринг предлагает тест, разновидность так называемой игры в имитацию. Идея состоит в том, что люди взаимодействуют с системой через интерфейс чата. (Телетайпы во времена Тьюринга; окна чата в современных системах.) Если люди не могут определить, разговаривают ли они с машиной или с другим человеком, то эта машина выдерживает испытание.
Тьюринг не устанавливает временных ограничений для теста или каких-либо требований к людям, участвующим в разговоре, хотя в одноразовом замечании он предсказывает, что к 2000 году будет существовать система, которая сможет обмануть 30% участников за пять минут. разговора, стандарта, на котором многие зациклились. Это довольно слабая версия теста, но ни одна система не смогла его пройти.
Мы далеки от того, чтобы создать систему, которая могла бы пройти надежную версию теста, требующую хотя бы часа разговора, которая обманет как минимум 50% большой выборки участников-людей.
Я думаю, что основная мысль Тьюринга — это философская проблема других умов. У нас всегда есть доступ только к нашему собственному сознанию. Хотя физические или систематические сходства могут дать нам подсказки, в конечном итоге мы можем сделать вывод о существовании других разумов только на основании поведения рассматриваемых систем. Тест Тьюринга, по сути, является признанием этого факта.
Парадокс китайской комнаты
Аргумент, наиболее часто приводимый в противовес идее теста Тьюринга, — это философский мысленный эксперимент, выдвинутый Джоном Сирлом в 1980 году: аргумент/парадокс китайской комнаты.
Сирл представляет себя запертым в комнате с прорезью для вопросов на китайском языке, которые можно задать на бумаге. У Сирла, не знающего китайского языка, есть набор инструкций по тому, как брать полученные символы и с помощью карандаша и бумаги давать ответы на китайском языке. Он может следовать инструкциям в точности и давать ответы, которые он вытаскивает обратно в щель.
По мнению Сирла, китайская комната может пройти тест Тьюринга. Кажется, он понимает и может ответить на китайские вопросы. Но сам Сирл не понимает ни слова по-китайски, и, как он утверждает, больше ничего в комнате не понимает. Похоже, это тот случай, когда у нас есть сущность, которая может пройти тест Тьюринга, но не имеет никакого реального понимания.
Предполагается, что вывод из этого аргумента заключается в том, что Сирл делает то же самое, что и компьютерный процессор, получая символы и манипулируя ими, но не понимая, что происходит. Следовательно, тест Тьюринга недействителен, а вычислительная техника в целом ошибочна.
Существует ряд распространённых критических замечаний по поводу этого аргумента, на которые Сирл отвечает в статье, к одному из которых я вернусь чуть позже. Но то, что я считаю наиболее вредной критикой, редко обсуждается: описанный сценарий если и не невозможен в принципе, то совершенно неосуществим.
Нас просят предположить, что Сирл сделает все, что сделает вычислительная система, способная пройти тест Тьюринга. Но никто на самом деле не представляет, что он это сделает. Обычно мы представляем себе некую процедуру, состоящую, возможно, из нескольких десятков, а может быть, даже из нескольких сотен шагов. Сирлу может потребоваться некоторое время, чтобы ответить, но в этом нет ничего запредельного.
За исключением того, что нам нужно подумать о том, что должна уметь система, способная пройти надежный тест Тьюринга. В мозгу есть миллиарды нейронов, которые могут генерировать импульсы от десятков до сотен раз в секунду, а общение в мозгу имеет тенденцию быть повторяющимся и постоянным. То есть мозг, получая вопрос, анализируя его, рассматривая его и отвечая на него, будет участвовать по меньшей мере в сотнях миллиардов событий, то есть в сотнях миллиардов инструкций. Машина, проходящая тест Тьюринга, может делать это не совсем так, но мы должны ожидать такой же сложности.
И Сирл собирается делать это вручную? Предположим, что он особенно продуктивен и может вручную выполнять одну инструкцию в секунду. Если он не делает перерывов в туалете, еде и сне, он должен выполнить свой первый миллиард инструкций примерно за 30 лет. Ответ на любой достаточно сложный вопрос занял бы столетия, если не тысячелетия.
Мысленный эксперимент
Может быть, поскольку Сирл сам по себе довольно сложная система, мы можем предоставить инструкции более высокого уровня? Поступив так, мы, возможно, сможем сократить количество шагов в 10, а может быть, даже в 100 раз. Но даже при таком шаге ответ будет ждать от нескольких лет до десятилетий. И этот шаг увеличивает объем человеческого познания, что, я думаю, ставит под угрозу интуицию мысленного эксперимента.
Мы можем сделать мысленный эксперимент более практичным, предоставив Сирлу… компьютер. Даже мобильный телефон сегодня работает со скоростью десятков тысяч MIPS, то есть десятков миллиардов инструкций в секунду. Но, конечно, затем мы возвращаемся к тому, с чего начали, и интуитивная привлекательность мысленного эксперимента исчезает.
Хорошо, вы можете подумать, но, представляя всю эту практичность , не перестаю ли я серьезно относиться к этому философскому мысленному эксперименту? Я бы сказал, что отношусь к этому серьезно, даже более серьезно, чем его сторонники. Но в духе философской аргументации я на мгновение вынесу эти практические аспекты за скобки.
Другой ответ на аргумент, который, по моему мнению, остается сильным, — это первый ответ, который Серл рассматривает в статье, — ответ системы. Идея состоит в том, что, хотя Сирл, возможно, и не понимает китайского языка, вся система комнаты, включая его самого и инструкции, понимает. Если комната может разумно отвечать на китайском языке, в том числе на незапланированные вопросы о доме и деревне, в которой она выросла в Китае, за какие спортивные команды она болела, в какие школы ходила, в ресторанах ела и т. д., то в какой-то момент Мы должны учитывать, что в этой системе похоронена сущность, которая на самом деле думает, что выросла в Китае, или, по крайней мере, та, которая может концептуализировать себя, делая это.
Ответ Сирла (сделанный с пренебрежением, но тогда вся статья носит полемический оттенок) состоит в том, чтобы просто утверждать, что он запоминает все инструкции и выполняет их мысленно. При такой модификации сценария Сирл по-прежнему не понимает китайского языка, и, по его мнению, ответ системы становится недействительным.
Хорошо, я знаю, что сказал, что вынесу практические аспекты за скобки, но если первоначальный сценарий был неосуществим, то этот просто настолько нелеп, что должен быть самоопровержимым. Сирл собирается запомнить сотни миллиардов инструкций, необходимых для получения убедительных ответов?
Но если еще раз вынести эту проблему за скобки, ничего не изменилось. Система по-прежнему понимает китайский язык, даже если части Searle, следующие инструкциям, не понимают. Если Сирл каким-то образом достаточно сверхчеловек, чтобы запоминать и мысленно следовать кодексу китайской системы, то он, возможно, достаточно сверхчеловек, чтобы держать в своей голове другое мыслящее существо.
И контраргументом здесь является то, как я, как носитель английского языка, понимаю английский язык. Если бы кто-то серьезно повредил область Вернике в моем мозгу, это разрушило бы мою способность понимать английский (или любой другой язык). Другими словами, остальная часть моего мозга понимает английский не больше, чем неинструктирующая часть Сирла понимает китайский. Только со всей системой, со всеми необходимыми функциональными компонентами я понимаю английский. То, что верно для меня, верно и для этой комнаты, и для ее заученной версии Сирлом.
Сирл обращается к ряду других ответов, на которые я не буду вдаваться, потому что этот пост и так слишком длинный, и я думаю, что приведенных выше пунктов достаточно, чтобы отклонить этот аргумент.
Если бы Сирл ограничился рассмотрением возможности прохождения простой системой слабой версии теста Тьюринга, указав, что в такой системе отсутствовали бы ментальные представления, необходимые для истинного понимания, и полная неспособность компьютерных технологий c. В 1980 году, чтобы поддержать эти заявления, он мог бы занять более твердую позицию. Но он выдвигает гораздо более сильный тезис: ментальное содержание вычислений невозможно даже в принципе. Откуда он это знает? Он считает, что это очевидный вывод из мысленного эксперимента.
Любой смысл в компьютерной системе, утверждает Сирл, исходит от пользователей и дизайнеров. Чего он либо не понимает, либо не может принять, так это того, что то же самое справедливо и для мозга. Сами по себе нет ничего значимого в активации отдельных нейронов или даже в таких подсистемах, как миндалевидное тело или зрительная кора. Сигналы в этих системах получают свое значение только в результате эволюции и связи этого содержания с окружающей средой, которая для мозга включает в себя его тело.
Компьютерная система получает свое значение от своих дизайнеров и окружающей среды, включая пользователей-людей, но принцип тот же, особенно если мы установим этот компьютер в качестве системы управления в роботизированном теле. Да, человеческий мозг включает в себя представления о самом себе, но то же самое происходит и с большинством компьютерных систем. Все, что вам нужно сделать, это открыть диспетчер задач в системе Windows, чтобы увидеть представления системы о себе.
Так что я не думаю, что китайская комната оправдывает себя. Он пытается продемонстрировать неосуществимость компьютерализма на надуманном примере, который сам по себе гораздо более очевиден, и отвечает на одну из самых резких критических замечаний в его адрес, доводя эту неосуществимость до абсурдного уровня. Лучшее, что можно сказать о нем, это то, что он проясняет интуицию некоторых антикомпьютерологов. Хуже всего то, что, демонстрируя необходимость прибегать к таким абсурдным контрпримерам, он, возможно, усиливает то, на что нападает.
Если я, конечно, чего-то не упускаю? Есть ли слабые стороны в аргументации Тьюринга или сильные стороны в аргументации Сирла, которые я упускаю?
+ Пока нет комментариев
Добавьте ваш