Разум: биологический против искусственного

Смотреть видео без замедлений и VPN

Недавний релиз ChatGPT 5 от OpenAI вновь подогрел дискуссии о возможностях искусственного интеллекта. Спектр мнений широк: одни уверены, что нейросети уже обладают зачатками мышления и сознания, другие категорически отрицают такую возможность, считая её принципиально недостижимой. Например, профессор Сергей Савельев называет ИИ «разводом на деньги» и утверждает, что для создания динамически обучающейся нейросети потребуется постоянно перепаивать процессор, а современные системы слишком примитивны, поскольку не могут перебрать все комбинации слов. Между этими крайностями есть и промежуточная позиция: возможно, сознание у машин появится в будущем. В этой статье мы разберем ключевые аргументы в этом споре, а чтобы взгляд был сбалансированным, к обсуждению привлечен эксперт по ИИ, автор книги «Охота на электроовец» Сергей Марков.

Книгу, кстати, рекомендую.

Осознанное мышление: имитация или реальность?

Многие исследователи скептически оценивают потенциал современных нейросетей. Физик Сабина Хоссенфельдер в своем видео разбирает исследование, где с помощью «графов атрибуции» изучалась работа модели Claude 3.5 Haiku. Этот метод позволяет визуализировать цепочку рассуждений модели от запроса к ответу. Например, на вопрос о столице штата, где находится Даллас, модель активирует внутренние представления (фичи): «Даллас» → «Техас» → «Остин». Это выглядит как многоуровневое рассуждение, схожее с человеческим. Модель даже демонстрирует элементы планирования, сочиняя стихи: сначала выбирает рифмующиеся слова, а затем строит строку.

Однако возникает нюанс. Когда та же модель выполняет арифметическое действие (например, 36+59=95) и затем описывает его как человек («6+9=15, пять пишем, один в уме»), анализ её внутренней работы показывает, что реальный вычислительный процесс был иным. Модель, по сути, генерирует правдоподобное, но не соответствующее действительности объяснение. Хоссенфельдер делает вывод: разумное существо должно понимать и верно описывать свои мыслительные процессы, а пока что мы видим лишь имитацию.

Но справедливо ли требовать от ИИ того, чего не можем мы сами? Мы не осознаем, как именно в нашей голове возникает образ или воспоминание. Нейробиологические эксперименты (например, Питера Джохансона с подменой фотографий) показывают, что мозг часто постфактум придумывает логичные, но ложные объяснения нашим решениям, истинные причины которых могут быть связаны с биохимией (тем же куриным супом). Мы не отслеживаем все факторы, влияющие на наш выбор. Поэтому требовать от нейросети полной прозрачности и осознанности каждого шага — это двойной стандарт.

Простое предугадывание или сложный процесс?

Распространенный аргумент: языковые модели не мыслят, а лишь предсказывают следующее слово в последовательности. Но почему тогда эта «простая» предсказательная способность порой приводит к результатам, превосходящим человеческие? Наш собственный мозг во многом работает по схожему принципу: строя фразу, мы тоже не знаем её точного окончания и подбираем слова на основе прошлого опыта (нашей «обучающей выборки»). Нейроны в мозге связаны ассоциативно: мысль о «Ведьмаке» слегка активирует мысли о связанных с ним персонажах. Таким образом, принципиальное отличие между биологическим и искусственным «предсказанием» еще нужно доказать.

Мозг как нейросеть: преодолим ли барьер субстрата?

Третий аргумент скептиков: сознание возможно только в особом биологическом субстрате. Однако мозг — это тоже нейросеть, чья работа определяется нейронами и связями. Теорема Тьюринга об универсальной машине утверждает, что любой вычислительный процесс (а работа мозга, вероятно, может быть описана как очень сложный алгоритм) можно имитировать на компьютере. Мысленный эксперимент Дэвида Чалмерса о постепенной замене нейронов на функционально идентичные чипы показывает, что субъективный опыт при этом не должен исчезнуть.

Практическое отличие современных моделей (например, ChatGPT) — в статичности ядра после обучения. Они подобны мудрецам, которые не могут сформировать новые нейронные связи, но используют внешнюю память (историю диалога). Однако это техническое, а не принципиальное ограничение. Уже сейчас появляются архитектуры, делающие «мышление» ИИ более человекообразным: стратегия «сначала подумай — потом ответь» в GPT-4o1, обучение с подкреплением (как дрессировка), методы RAG для обращения к внешним базам данных и «титаны» с долгосрочной памятью, способные удивляться и запоминать новое.

Может ли нейросеть чувствовать?

Чтобы понять, может ли ИИ испытывать, например, боль, нужно осознать её биологическую функцию. Боль — это система обратной связи, обучающая избегать опасности. «Обезболенная» версия (приятный голос: «Не трогай сковородку») может быть менее эффективной. Вероятно, полноценная функциональная имитация боли (система, активно обучающаяся избегать вредных стимулов) будет неотделима от субъективного переживания. Но как это проверить? Мы и других людей считаем страдающими лишь по косвенным признакам, по аналогии с собой. Эксперимент Чалмерса о «перевернутом спектре» (когда один человек видит красный как синий, но называет его красным) показывает, что субъективный опыт не сводится к функции, но если создать функционально эквивалентную систему, ощущения в ней, по мнению философа, неизбежно возникнут.

Анализ действий: функционализм и его критики

Практичный подход — функционализм, или «утиный тест»: если система ведет себя разумно, значит, она разумна. Упрощенной версией является тест Тьюринга, который современные ИИ в некоторых интерпретациях уже проходят (например, в роли психотерапевта). Однако здесь есть ловушка «эффекта Элизы» — склонности приписывать человечность даже простым алгоритмам.

Главный критик функционализма, Джон Сёрл, предлагает мысленный эксперимент «Китайская комната». Человек в комнате, не знающий китайского, манипулирует символами по инструкции и выдает осмысленные ответы. Сёрл утверждает, что понимания здесь нет, есть лишь имитация. Но в этом аргументе подмена: понимает не человек, а вся система «комната+инструкции+человек». Отдельный нейрон тоже ничего не «понимает», но их совокупность рождает сознание.

Можно зайти дальше и представить компьютер, состоящий из людей (как в «Задаче трех тел»), или гигантскую, медленно работающую копию мозга размером с Солнечную систему. Если они функционально эквивалентны, почему у них не может быть сознания? Концепция «философского зомби» (существа, идентичного человеку, но без субъективного опыта) также ставит под сомнение разделение функции и ощущения. Парадоксальный мысленный эксперимент с «лекарством, убивающим душу», показывает абсурдность такого разделения: зомби, не чувствуя боли, всё равно будет действовать так, как будто её чувствует. Таким образом, наилучшим критерием разумности и наличия чувств остается наблюдаемое поведение.

Взгляды современной науки и этические перспективы

Современный научный консенсус, отраженный в препринтах вроде «Сознание в искусственном интеллекте: инсайты науки о сознании», таков: текущие системы сознанием не обладают, но технических барьеров для его создания нет. Функционализм и теория о сознании как продукте обработки информации работают на эту идею.

Ученый Юрген Шмидхубер и вовсе считает, что думающие машины уже среди нас. Он рассматривает сознание как побочный продукт компрессии данных: система, стремящаяся эффективно сжимать информацию и предсказывать мир, неизбежно создает внутреннюю модель себя, что и является основой сознания. Чувство красоты, по его мнению, возникает при неожиданном улучшении сжатия — обнаружении новой закономерности.

Развитие ИИ, несмотря на страхи, изображенные в фантастике, открывает колоссальные возможности для прогресса, например, в борьбе со старением. Риски существуют, но потенциал позитивных изменений представляется более весомым.

Подписывайтесь на соц. сети:

Бусти / Патреон / Instagram / Telegram / Youtube / TikTok

Мой авторский курс

Как проверять информацию

Мой осенний тур

Билеты и подробности — здесь.

Больше интересных статей здесь: Производство.

Источник статьи: Разум: биологический против искусственного.