В поисках баланса: Конгресс США обсуждает подходы к регулированию искусственного интеллекта

Американские законодатели продолжают сложные дебаты о том, как установить эффективные ограничения для стремительно развивающегося искусственного интеллекта. Несмотря на то, что с момента широкого общественного резонанса вокруг нейросети ChatGPT прошло несколько месяцев, консенсус в Конгрессе США по этому вопросу до сих пор не достигнут, как сообщает агентство Reuters.

Ключевые направления предлагаемых ограничений

В центре дискуссии находятся предложения, направленные на контроль над ИИ в сферах, где ошибки системы могут напрямую угрожать жизни или благосостоянию граждан. Речь идет, в первую очередь, о медицине и финансовом секторе. Параллельно обсуждаются нормы, призванные предотвратить использование технологий для дискриминации или ущемления гражданских прав. Важным пунктом разногласий остается вопрос о том, на кого именно должны быть направлены регуляторные меры: на разработчиков алгоритмов или на компании, которые применяют их при работе с клиентами.

Подход, основанный на оценке рисков

Пока неясно, какая из позиций возобладает. Часть бизнес-сообщества, включая компанию IBM и Торговую палату США, выступает за так называемый риск-ориентированный подход. Его суть заключается в том, чтобы регулировать только критические области применения ИИ, такие как постановка медицинских диагнозов. По мнению представителя Торговой палаты Джордана Креншоу, решения, влияющие на здоровье и экономику людей, требуют гораздо большего внимания, чем, например, контроль над рекламными алгоритмами.

Опасения, связанные с генеративным ИИ

Бурный рост генеративного искусственного интеллекта, способного создавать новый контент на основе данных, вызвал серьезную озабоченность. Эксперты предупреждают, что эти технологии могут использоваться для обмана на экзаменах, распространения дезинформации и создания новых схем мошенничества. Яркий пример — ChatGPT, который генерирует тексты, практически неотличимые от человеческих.

Позиция индустрии и вызовы для Конгресса

Несмотря на встречи руководителей ведущих компаний, таких как OpenAI и Alphabet, с администрацией президента Байдена, конкретных решений пока не принято. Конгрессу предстоит создать правила для практически новой отрасли. Как отмечает Джек Кларк из Anthropic, законодатели проявляют бдительность и стремятся разобраться в теме, отчасти из-за ощущения, что они упустили момент с регулированием социальных сетей. В то же время, как подчеркивает Адам Ковачевич из Палаты прогресса, технологические гиганты стремятся не допустить излишне поспешной и жесткой реакции государства, которая может затормозить инновации.

Сегодня такие законодатели, как сенатор-демократ Чак Шумер, настроены решать проблемы ИИ, однако Конгресс сильно отвлечен другими вопросами — от поляризующих политических событий до обсуждения потолка госдолга.

Обратите внимание: В Федеральной службе по интеллектуальной собственности уверены, что российская экономика сможет преодолеть негативные последствия, связанные с уходом из страны западных технологий в силу антироссийских санкций. Как рассказал «Эксперту» глава ведомства Юри.

Тем не менее, Шумер предложил план, согласно которому независимые эксперты должны тестировать новые ИИ-технологии перед их выпуском на рынок. Он также призывает отрасль к большей прозрачности и предоставлению властям данных для предотвращения потенциальных угроз.

Альтернативные взгляды и предложения

Риск-ориентированный подход, предполагающий, например, регулирование медицинского ИИ через FDA, а нерегулирование развлекательного контента, находит поддержку и за океаном — аналогичные правила разрабатывает Европейский Союз. Однако у этого подхода есть критики. Сенатор-демократ Майкл Беннетт, представивший законопроект о создании правительственной целевой группы по ИИ, считает его недостаточным. Он выступает за «ценностно-ориентированный» подход, который ставит во главу угла приватность, гражданские свободы и права. Его помощники указывают, что фокусировка только на очевидных рисках может упустить из виду такие опасности, как алгоритмы, рекомендующие расистский контент.

Идеи о более широком надзоре звучат и внутри самой индустрии. Исследователь OpenAI Каллен О'Киф предложил создать специальное агентство — Управление безопасности и инфраструктуры искусственного интеллекта, которое выдавало бы лицензии на обучение мощных моделей ИИ. Технический директор OpenAI Мира Мурати поддержала идею ответственного органа, но подчеркнула, что ключевым этапом является четкое определение всех норм и рисков, которые необходимо снизить.

Политические препятствия

Создание нового регулятора — сложная задача. Последним крупным ведомством, учрежденным в США, стало Бюро финансовой защиты потребителей после кризиса 2007-2008 годов. Сегодня же некоторые республиканцы могут выступить против любого регулирования ИИ. Как заявил Reuters анонимный источник в партии, важно не допустить, чтобы регулирование искусственного интеллекта превратилось в государственный микроконтроль над компьютерным кодом, поисковыми системами и алгоритмами.

Больше интересных статей здесь: Технологии.

Источник статьи: Часть предложений участников дискуссии в Конгрессе сосредоточены на ограничении ИИ, который может поставить под угрозу жизнь людей или их средства к существованию, например, если он будет действовать в медицине и финансовом секторе.