Иной разум. Как «думает» искусственный интеллект? - Андрей Владимирович Курпатов
Джон Гуд
Давайте на мгновение перенесёмся назад. Представьте себе 70-е годы прошлого века. Компьютеры — это ещё огромные, гудящие шкафы, занимающие целые комнаты, а воздух в университетских лабораториях буквально наэлектризован предчувствием революции.
Пророки новой эры — Алан Тьюринг, расшифровавший фашистскую «Энигму», будущий лауреат Нобелевской премии Герберт Саймон, Аллен Ньюэлл, привнесший в область информатики когнитивные архитектуры, — уже заложили фундамент для невероятной идеи, которая поначалу казалась абсолютной ересью.
По сути, они заявили, что наш разум — это просто программа. Да, возможно, программа сложная, запутанная, но, в любом случае, всего лишь код, записанный на «мокром железе» мозга. Звучит почти кощунственно: человек — это биологический компьютер, который проигрывает записанную в него программу.
Но, с другой стороны, они же математики — что с них возьмёшь?
Так или иначе, уже на этой — первой — волне безудержного оптимизма в отношении искусственного разума, возникло предположение, что в уже обозримой перспективе мы сможем запустить ту же самую «программу», какой является наш разум, на электронной машине.
Этой машине нужно будет лишь пройти «тест Тьюринга»[68], то есть суметь вести диалог так, что вы не отличите её от человека, и она будет не просто имитировать мышление, но и обладать им, не притворяться, что она понимает, а понимать, не симулировать сознание, а иметь сознание.
Китайская комната
И вот тут на сцену выходит наш герой-скептик — философ по имени Джон Сёрл. Человек, который посмотрел на этот парад технооптимизма и, подобно ребёнку из сказки Андерсена, громко выкрикнул: «Стоп, вы все сошли с ума! Ваш машинный король — голый!»
При этом Джон Сёрл вовсе не был луддитом и не призывал крушить компьютеры. Он ощущал свою миссию совсем иначе — ему казалось, что под угрозой технооптимистов оказался последний бастион, который определяет особое место человека во Вселенной: фундаментальный, базовый для нас рубеж — подлинное, живое понимание.
Поэтому он жёстко провёл черту между двумя фундаментально разными вещами:
• с одной стороны — синтаксис, то есть механическое манипулирование символами по заданным правилам, в чём и в самом деле могут преуспеть компьютеры;
• с другой стороны — семантика, то есть понимание внутреннего смысла, самой сути того, о чём идёт речь, будь то это рассуждения о той же «математике» или «любви».
Джон Сёрл однозначно заявил, что синтаксис никогда не станет семантикой: никакое, даже самое изощрённое, манипулирование символами никогда не породит искру подлинного смысла. И чтобы доказать это с предельной ясностью, он придумал по-своему гениальную и дьявольски убедительную ментальную ловушку, которая получила название «Китайская комната»[69].
Джон Сёрл предлагает элегантный мысленный эксперимент. Представим, что вы сидите в закрытой комнате в полном одиночестве. При этом вы не знаете ни единого слова на китайском. Для вас китайские иероглифы — это просто замысловатые, красивые, но абсолютно бессмысленные закорючки.
Через маленькую щель в двери вам начинают подавать карточки, испещрённые этими самыми иероглифами. На карточках записаны вопросы, смысл которых вам, разумеется, непонятен. Но к счастью, в комнате есть стол с толстенной книгой-инструкцией.
Её текст написан на понятном вам языке и принцип элементарный: «Найдите в книге текст с представленным набором символов (например, 自以为是) и верните в ответ карточку с символами, которые будет указаны напротив неё (допустим, 人无完人)».
Итак, всё просто — получаем карточку, находим в книге соответствующий узор и понимаем, какую карточку нам надо отправить обратно — и так снова и снова. Работа, как мы видим, монотонная и почти бессмысленная. Но какой эффект она произведёт на носителя китайского языка, который находится снаружи и не знает, что в ней происходит?
Система получает осмысленные, сложные, даже философские вопросы на китайском языке, и выдаёт глубокие, местами даже остроумные, а что самое главное — абсолютно уместные ответы.
Диалог вроде бы развивается блестяще! С такой системой можно обсуждать поэзию династии Тан, тонкости пекинской кухни, спорить о футуристических проектах. И для человека снаружи — тот, кто сидит внутри, несомненно, блестящий знаток китайского, мудрый и интересный собеседник.
Что ж, нас можно поздравить, мы, вооружившись книгой-программой, с блеском прошли тест Тьюринга. Впрочем, мы с вами знаем правду — никакого общения на самом деле не было, потому что, будучи внутри комнаты, мы и близко не понимали, о чём идёт речь, когда обменивали одну карточку на другую.
Китайского мы как не понимали, так и не понимаем. Поэтому самое время признаться: «Я не понял ни слова, я просто следовал правилам».
Может быть, тогда «понимает» та самая книга? Эта огромная стопка бумаги с инструкциями? Очевидный абсурд — это просто книга! Она «понимает» китайский не больше, чем кулинарный рецепт — вкус борща. Но может быть, дело в самой комнате? В стенах, столе, ящиках с карточками? Очевидно, что нет.
Так что Джон Сёрл ставит жирный крест на искусственном разуме: синтаксис (механическое манипулирование символами) никогда не породит семантику (подлинное понимание смысла). Каким бы сложным ни был компьютер, он всегда будет лишь железякой, которая выполняет команды, не имея ни малейшего представления о смысле того, что она делает.
Этот аргумент и в самом деле произвёл эффект разорвавшейся бомбы. В конце концов, Джон Сёрл апеллирует не к сложным формулам, а к нашему с вами личному, внутреннему опыту. Ведь все мы знаем, что значит «понимать». Мы знаем это чувство, эту вспышку озарения, когда разрозненные кусочки пазла вдруг складываются в единую картину. И мы точно знаем, что это чувство не имеет ничего общего с механическим следованием инструкциям.
Кажется, дело закрыто — окончательно и бесповоротно: аргумент Джона Сёрла выглядит не просто убедительным — он буквально ощущается как нечто самоочевидное. Но мир идей не то место, где можно, сделав мощный ход, счастливо почивать на лаврах.
Трещины в стенах
Не успели чернила высохнуть на его знаменитой статье, как по безупречным стенам «Китайской комнаты» пошли первые трещины. Критики не заставили себя ждать, и каждый их удар был нацелен в уязвимое место его метафоры.
Первыми на сцену поднялись логики-функционалисты, которые сформулировали самый частый контраргумент в отношении «Китайской комнаты». Они обвиняют Джона Сёрла в элементарной логической ошибке: спрашивать, понимает ли человек внутри комнаты китайский, — это такая же нелепость, как спрашивать отдельный нейрон в вашем мозге, понимает ли он русский язык[70].
Разумеется, нейроны ничего не понимают ни в русском, ни в китайском! Человек в комнате — не тот, кто




