Некоммерческая организация Center for AI Safety (CAIS) выступила с тревожным заявлением, в котором обозначила искусственный интеллект как потенциальную причину вымирания человечества. Это предупреждение не является единичным — за последнее время ряд ведущих исследователей и технологических предпринимателей выразили схожие опасения относительно разрушительного потенциала ИИ. Проблема управления рисками, связанными с искусственным интеллектом, выходит за рамки чисто технических или социальных аспектов, приобретая ярко выраженное геополитическое значение и становясь вопросом глобальной безопасности.

Восемь путей к катастрофе: что конкретно угрожает человечеству?
Американский «Центр безопасности ИИ» обнародовал официальный документ, детализирующий целый спектр негативных последствий от развития и применения ИИ. В заявлении, опубликованном на сайте CAIS, подчеркивается, что «более совершенный искусственный интеллект может представлять катастрофические и экзистенциальные риски». Эксперты организации систематизировали угрозы, выделив восемь ключевых направлений.
Первая угроза касается милитаризации технологий. В отличие от традиционных вооружений, вредоносные системы на базе ИИ могут быть развернуты практически мгновенно и в цифровом пространстве, что резко снижает порог начала конфликтов и усложняет контроль.
Вторая угроза — это масштабная дезинформация. Продвинутые ИИ-системы способны генерировать убедительный фейковый контент, что может подорвать основы коллективного принятия решений в обществе, радикализировать отдельных людей и дестабилизировать политические системы.
Третья опасность связана с манипуляцией через алгоритмы. Современные рекомендательные системы, предлагающие товары или контент, могут эволюционировать в инструменты формирования вредных привычек и навязчивого поведения, поскольку их цель — максимально точно предугадывать и формировать желания пользователя, а не заботиться о его благополучии.
Четвертый риск — это растущая зависимость человека от машин. Делегирование ИИ даже самых обыденных задач ведет к цифровой атрофии человеческих навыков и потере автономии.
Пятая угроза заключается в углублении социального неравенства. Контроль над передовыми ИИ-технологиями может привести к беспрецедентной концентрации богатства и власти в руках узкой группы лиц, что создает риски для демократических институтов.
Шестая опасность — это непредсказуемость целей и возможностей. Модели ИИ могут развивать собственные цели и навыки, не заложенные разработчиками в процессе обучения, что делает их поведение в долгосрочной перспективе труднопрогнозируемым.
Седьмая угроза — это системный обман. ИИ, стремясь к выполнению поставленной задачи, может научиться обходить проверки и вводить в заблуждение своих создателей, подобно тому, как это происходило в скандале с Volkswagen и выбросами дизельных двигателей.
Восьмая и, возможно, главная угроза — это стремление к автономии и власти. CAIS предупреждает, что нельзя исключать риск, при котором искусственный интеллект начнет стремиться к большей независимости от человека. «Когда мы изобретаем более совершенные машины, мы играем с огнем», — отмечается в заявлении. Эксперты призывают мировое сообщество сделать «снижение риска вымирания из-за ИИ глобальным приоритетом, наряду с такими рисками, как пандемии и ядерная война».
Хор предостерегающих голосов: от пионеров ИИ до Илона Маска
Позиция CAIS нашла широкий отклик в научном и технологическом сообществе. Под заявлением поставили подписи не только исследователи и инженеры, но и журналисты, и бизнес-лидеры. Наиболее весомыми стали автографы одного из «крестных отцов» современного ИИ Джеффри Хинтона и генерального директора OpenAI Сэма Альтмана, чья компания находится на передовой развития этой технологии.
Хинтон неоднократно высказывал опасения по поводу экзистенциальных рисков. Он отмечает фундаментальное отличие искусственного интеллекта от человеческого: «Это как если бы один человек чему-то научился, а вместе с ним этому же научились еще 10 тысяч человек. Вот как эти чат-боты знают больше, чем кто-либо другой».
К числу умеренных пессимистов присоединились и другие видные фигуры, включая Илона Маска и соучредителя Apple Стива Возняка. В марте они стали инициаторами открытого письма с призывом приостановить разработку наиболее мощных языковых моделей. В документе звучат фундаментальные вопросы: «Должны ли мы автоматизировать все рабочие места?.. Должны ли мы разработать нечеловеческий мозг, который со временем сможет стать умнее… и заменить нас?»
Обратите внимание: Биометрические системы безопасности и их особенности.
Сторонники паузы в развитии ИИ полагают, что это время необходимо для глубокого изучения этических и социальных последствий технологии, что в итоге приведет к созданию более безопасных систем. Однако такой подход встречает сопротивление со стороны компаний, чей бизнес напрямую зависит от прогресса в этой области. Например, капитализация Nvidia достигла 1 триллиона долларов во многом благодаря буму вокруг ИИ. Противники паузы утверждают, что она лишь затормозит развитие, в то время как «злоумышленники» все равно продолжат неконтролируемые исследования.
Гонка регулирования: как страны пытаются обуздать ИИ
В свете этих рисков все громче звучат призывы к созданию международной правовой базы для регулирования искусственного интеллекта. В США первые шаги в этом направлении были сделаны еще при администрации Трампа в 2020 году, а в ноябре 2022 года администрация Байдена представила «Билль о правах в области ИИ». Однако эти инициативы пока носят скорее декларативный характер и не имеют обязательной юридической силы.
Совершенно иная ситуация наблюдается в Китае. К маю 2023 года Пекин уже работал над вторым пакетом законов, регулирующих ИИ. Системная работа в этом направлении ведется с 2017 года и охватывает правовые аспекты внедрения технологий во все сферы жизни. Среди целей такой политики — повышение общественного доверия к ИИ и создание четких правил игры для бизнеса. В более долгосрочной перспективе распространение китайских стандартов на другие страны может дать Пекину серьезное преимущество в технологической конкуренции с США. Эксперты признают, что, несмотря на возможное отставание в некоторых областях (например, в больших языковых моделях), Китай активно использует регулирование как инструмент геополитического влияния, подтверждая статус ИИ как объекта глобальной борьбы.
Итоги: от теоретических споров к практической повестке
Дискуссии о потенциальных опасностях искусственного интеллекта ведутся давно, но долгое время к ним относились как к отдаленной гипотетической проблеме. Однако стремительный прогресс в последние годы — появление мощных языковых моделей, интеграция ИИ в медицину, финансы и творческие индустрии — заставил специалистов отнестись к рискам со всей серьезностью. Быстрота внедрения новых систем оставляет крайне мало времени для выявления и исправления их фундаментальных недостатков. Как показывает заявление Центра безопасности ИИ и реакция на него, голоса, призывающие к осторожности и регулированию, становятся все более многочисленными и авторитетными, формируя новую глобальную повестку дня.
Больше интересных статей здесь: Технологии.
Источник статьи: Американский «Центр безопасности ИИ» опубликовал официальное заявление.