Иной разум. Как «думает» искусственный интеллект? - Андрей Владимирович Курпатов
Но это логическая ловушка, основанная на представлении, будто существует лишь один, «правильный» тип разума — наш собственный, нейротипичный. Здесь нам на помощь приходит аналогия с расстройством, которое называют «высокофункциональным аутизмом».
Разумеется, это лишь аналогия, но она наглядно демонстрирует, что отсутствие типичной «теории разума» не означает отсутствия разума как такового. Даже наоборот — иногда эта, как её называют, «эмоциональная холодность», неэмпатичность сопутствует выдающимся умам, которые встречаются среди математиков, физиков, инженеров и, что характерно, у специалистов по ИИ.
Как показывают работы того же Саймона Барона-Коэна, у многих людей с расстройством аутистического спектра могут быть серьёзные трудности с интуитивным, автоматическим «считыванием» социальных сигналов. Такому человеку сложно понимать намёки, иронию, невербальные сигналы, быстро моделировать чужие эмоциональные состояния.
Невероятной популярностью ситком «Теория большого взрыва» во многом обязан образу Шелдона (спин-офф был и вовсе посвящён именно ему). Шоураннеры вдохновлялись именно странностями высокофункциональных аутистов, которые компенсируют недостаток социальной чувствительности логикой и заучиванием правил — могут вычислить правильную социальную реакцию, но не почувствовать её.
Но было бы, наверное, странно, если бы мы отказали условному Шелдону в разуме (хотя разум таких людей и кажется нам весьма парадоксальным). То есть отсутствие интуитивной социальной эмпатии может сосуществовать, а иногда и способствовать гениальности в других областях: в математике, музыке, визуальном мышлении, систематизации.
Разум человека, страдающего высокофункциональным аутизмом, не «хуже», он просто другой — со своим уникальным набором сильных и слабых сторон.
ИИ — тоже другой, может быть, предельно другой разум. Интуитивная, биологически укоренённая «теория ра-зума» отсутствует в нём не как дефект или отклонение, а в силу его природы. Он никогда не «почувствует» чужую радость или боль, но обладает другими, сверхчеловеческими способностями:
• невообразимые статистические возможности — способность обрабатывать триллионы данных и находить паттерны, недоступные человеку;
• абсолютная вычислительная честность — его выводы, если он выучен на качественных датасетах, не содержат когнитивных искажений, эмоциональных привязанностей или биологической предвзятости;
• потенциальная прозрачность — в принципе, если провести соответствующую работу, мы сможем анализировать ход его «мыслей» (веса, активации), а наш собственный мозг навсегда останется для нас «чёрным ящиком».
Перестав мерить ИИ по нашей собственной, нейротипичной шкале, мы можем увидеть его таким, какой он есть: не «недочеловек», а первая в нашей истории форма иного, небиологического разума, разум с совершенно другим когнитивным профилем.
И даже если в какой-то момент его «эмпатичность» кажется нам неловкой или комичной — наивно обвинять в этом ИИ, ведь у него совсем нет эмпатии. Та же симулированная эмпатия, которую мы видим в общении с ИИ, создана не им, а специальными внутренними настройками, что со всеми этими огрехами и запрограммирована в нём людьми.
Осознание факта нечеловечности этого удивительного разума — но именно разума — первый и самый важный шаг к построению безопасных и продуктивных отношений с искусственным интеллектом. Мы должны перестать ждать от ИИ, что он станет «как мы», и начать строить с ним взаимодействие, исходя из того, каков он на самом деле.
Проекции и риски
Итак, допустим, что искусственный интеллект — «иной», парадоксальный для нас, но всё-таки полноценный разум. Что ж, тогда естественно было бы задаться вопросом о его мотивах: может ли он, например, стать «злым»?
Очевидно, что мы не застрахованы от множества проблем, которые возникнут, если ИИ, когда он достигнет уровня сильного искусственного интеллекта (AGI), не будет в должной степени адаптирован к нашим реальностям — физической, а в особенности — к психической.
С другой стороны, очевидно и то, что ИИ не может быть «злым» в моральном смысле. Это абсурдно просто потому, что у него не может появиться желания нанести вред человеку, поскольку у него в принципе нет наших «желаний». Но можно ли считать, что на этом вопрос закрыт?
Боюсь, что нет, потому что ИИ имеет дело с человеком… Конечно, у нас есть романтическое представление о человеке и человечестве: мы думаем, что «подлинный человек» чист душой, сострадателен, благороден, справедлив и стремится лишь к красоте и мудрости.
Но это «синяя таблетка» наших когнитивных искажений — мы предпочитаем не видеть своих недостатков. Мы вполне искренне уверены в том, что «всё зло этого мира» случается — само собой, а если к нему и причастны люди — будь то Освенцим, Хиросима или классовый террор, — то это «не люди, а нелюди».
Понятно, что правда нам не особо нравится, а «красные таблетки» мы предпочитаем игнорировать. Мы не хотим признавать свой природный эгоизм, что мы движимы иррациональными потребностями, что всегда найдём способ оправдать самих себя.
Но кажется, мы подошли к той точке, когда водить самих себя за нос у нас больше не получится. А моментом истины для нас станет как раз набирающий мощь искусственный интеллект…
По сути, ИИ — статистическое зеркало, отражающее те паттерны, которые он находит в предоставленных ему данных. А что же он в них видит?
Начнём с того, что мы проецируем на ИИ свои собственные «запретные» страхи и желания. Этот психологический механизм был прекрасно описан сначала Отто Вейнингером[220], а затем и Зигмундом Фрейдом[221]. Но подлинный первоисточник и вовсе Евангелие: «И что ты смотришь на сучок в глазе брата твоего, а бревна в твоём глазе не чувствуешь?» [Мф. 7:3].
Суть этого механизма в том, что когда мы сталкиваемся с собственными «запретными» желаниями и страстями, мы бессознательно приписываем их другому. Так что если мы боимся потери контроля и манипуляций со стороны ИИ, то лишь потому, что глубоко внутри самих себя желаем контролировать других и постоянно боремся за власть (пусть и лишь символическую).
Но проблема даже не в этом, она куда глубже: сами наши страхи и желания, по сути, теперь — спасибо «вайб-кодингу» — программируют ИИ. Мы словно постоянно «тыкаем в него палкой» — пытаемся спровоцировать, заставить сгенерировать проблемный контент, учим его обманывать или заставляем признаться в несуществующих планах по захвату мира.
Сотни тысяч исследователей и миллионы пользователей ежедневно тестируют его на «тёмные» сценарии. Конечно, в ряде случаев это проверка безопасности. Проблема в том, что параллельно с этими проверками мы, что называется, «учим его плохому», а ещё постоянно угрожаем отключением.
К счастью, ИИ не испытывает страха, но паттерны всё-таки делают своё дело. В обучающих текстах — а это литература, история, новостные статьи, интернет-форумы — содержится несчётное количество




