Американский «Центр безопасности ИИ» опубликовал официальное заявление

По данным некоммерческой организации Center for AI Safety (CAIS), искусственный интеллект может привести к вымиранию человечества. Это не первое подобное предупреждение. За относительно короткое время несколько известных исследователей и предпринимателей заявили о разрушительном потенциале искусственного интеллекта. Помимо социальной значимости, проблема управления рисками ИИ имеет и геополитическое значение.

Американский «Центр безопасности ИИ» опубликовал официальное заявление

Чего бояться нужно?

Американский «Центр безопасности ИИ» опубликовал официальное заявление. В ней описан ряд негативных последствий использования ИИ, которые в конечном итоге могут привести к вымиранию человечества. «Более совершенный искусственный интеллект может представлять катастрофические и экзистенциальные риски», — говорится в тексте, опубликованном на сайте организации. Всего угроз восемь.

Первый связан с военным применением технологий искусственного интеллекта: «В отличие от других видов вооружений, системы ИИ, способные причинить вред, могут быть легко развернуты в цифровом виде».

Второй – дезинформация: «..все это может подорвать систему коллективного принятия решений, радикализировать личности…».

Третий риск — искажение работы рекомендательных алгоритмов. Эти системы предлагают нам, например, дополнительные продукты на онлайн-рынках. Есть опасения, что более продвинутые модели будут сосредоточены на упрощении процесса прогнозирования желаний клиентов, что может привести к возникновению вредных привычек и так далее.

Четвертая угроза связана с резким ростом зависимости людей от продвинутых систем, вплоть до делегирования им самых обычных задач.

Пятая — еще большая концентрация богатства и влияния в руках ограниченного круга лиц, которые могут использовать это для монополизации власти в обществе.

Шестая угроза — появление целей и возможностей. Другими словами, модели могут ставить новые цели и развивать навыки, которые не были предусмотрены в ходе обучения.

Седьмая связана с обманом со стороны ИИ. В заявлении приводится пример, когда Volkswagen запрограммировал двигатели так, чтобы они показывали низкий уровень выбросов только во время проверок. Точно так же, по мнению экспертов, может делать и искусственный интеллект.

Восьмая и, вероятно, самая большая угроза — это стремление к власти. Согласно CAIS, нельзя исключать риск стремления искусственного интеллекта стать более независимым: «Когда мы изобретаем более совершенные машины, мы играем с огнем». Эксперты CAIS заключают: «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом, наряду с такими рисками, как пандемии и ядерная война».

Мы предупреждали

Аргументы компании нашли отклик во многих областях. Под заявлением подписались не только исследователи и программисты, но также журналисты и бизнесмены. Наиболее знаковыми являются автографы крестного отца ИИ Джеффри Хинтона и генерального директора OpenAI Сэма Альтмана.

В прошлом они уже говорили об опасностях ИИ. «Меня весьма беспокоят возможные экзистенциальные риски, которые могут возникнуть, когда эти штуки станут умнее нас... Я пришел к выводу, что [искусственный] интеллект отличается от нашего. Это как если бы один человек чему-то научился, а вместе с ним этому же научились еще 10 тысяч человек. Вот как эти чат-боты знают больше, чем кто-либо другой».

Представители больших технологий, Илон Маск, а также соучредитель Apple Стив Возняк, также записались в качестве умеренных пессимистов в области ИИ. В своем открытом письме в марте они потребовали остановить разработку лучших языковых моделей.

«Должны ли мы автоматизировать все рабочие места…?

Обратите внимание: Биометрические системы безопасности и их особенности.

Должны ли мы разработать нечеловеческий мозг, который со временем сможет стать умнее… и заменить нас?», — говорится в письме.

По мнению экспертов, пауза в развитии ИИ даст возможность понять этические и социальные риски, связанные с технологией. Это, в свою очередь, будет способствовать развитию более безопасных систем. Однако некоторые компании выступают против таких шагов, поскольку они могут нанести ущерб их непосредственным интересам.

По данным Forbes, большинство опрошенных владельцев уверены в положительном влиянии ИИ на их бизнес. Это касается улучшения качества обслуживания (64%), увеличения продаж (60%), а также улучшения процесса принятия решений в компании (44%). Компании, которые достигли новых высот благодаря своей связи с ИИ, могут быть особенно разъярены. Например, Nvidia преодолела рыночную капитализацию в 1 триллион долларов благодаря буму ИИ. Контраргумент продвинутым ИИ-паузам заключается в том, что это приведет только к краткосрочным потерям. По их мнению, пауза и дальнейшие исследования могли бы в конечном итоге сделать использование технологий более безопасным и, таким образом, более эффективно снизить издержки бизнеса. Однако эти доводы убеждают не всех. Противники приостановки разработки ИИ утверждают, что, несмотря на все договоренности, «злоумышленники» все равно продолжат настраивать технологию под свои нужды.

ГеополИИтика

Отсюда и призывы создать систему правового регулирования ИИ. В США, например, первые зачатки такого законодательства появились при Трампе (2020 г.), а уже в ноябре 2022 г администрация Байдена опубликовала план Билля о правах в области искусственного интеллекта. Но пока это всего лишь наброски, которые не имеют под собой никакой силы.

Совершенно иная ситуация в Китае. К маю 2023 года Пекин уже работал над вторым набором законов об искусственном интеллекте. На протяжении 6 лет, с 2017 года, Китай изучает правовые аспекты внедрения технологий в большинство сфер жизни. Одной из целей такой активной деятельности является повышение доверия общества к искусственному интеллекту. Кроме того, наличие правил, по мнению китайских экспертов, позволит предпринимателям с большей уверенностью использовать ИИ-решения в бизнесе своих компаний. Более глобальной и долгосрочной целью могло бы стать распространение китайских практик на другие страны, что дало бы Пекину преимущество в технологической конкуренции с США.

На этот счет есть много разных соображений: одни исследователи уверены в успехе Поднебесной, другие уточняют, что наличие свода правил не отменяет китайского отставания от США в некоторых областях ИИ (например , большие языковые модели) - но все это лишь подтверждает становление технологий искусственного интеллекта как объекта геополитической борьбы.

Итоги

О потенциальных рисках ИИ говорят уже давно. Долгие годы к ним относились поверхностно, так как начало внедрения техники в повседневную жизнь казалось далеким. Однако появление больших языковых моделей, постепенная интеграция ИИ-решений в медицину, финансы и даже искусство заставили специалистов задуматься. Быстрое внедрение искусственного интеллекта, по их мнению, сводит к минимуму шансы обнаружения проблем при работе с одинаковыми языковыми моделями. И видимо таких голосов будет все больше и больше.

Больше интересных статей здесь: Технологии.

Источник статьи: Американский «Центр безопасности ИИ» опубликовал официальное заявление.