Американские законодатели ломают голову над тем, какие ограничения можно ввести, чтобы сдержать безудержный рост искусственного интеллекта (ИИ). Но даже спустя несколько месяцев после того, как одна из самых известных нейронных сетей, ChatGPT, привлекла внимание общественности и Вашингтона, никакого соглашения по этому вопросу до сих пор не достигнуто, сообщает Reuters.
Некоторые предложения членов комиссии Конгресса направлены на ограничение использования ИИ, который может поставить под угрозу жизнь или средства к существованию людей, например, в медицине и финансовом секторе. Другие предложения включают правила, гарантирующие, что искусственный интеллект не будет использоваться для дискриминации или нарушения чьих-либо гражданских прав. Противоречие также поднимает вопрос о том, должно ли государство регулировать разработчиков ИИ или компанию, которая использует его для взаимодействия с потребителями.
Неясно, какая точка зрения в конечном итоге победит, но некоторые представители бизнеса, включая крупнейшую ИТ-компанию США IBM и некоммерческую торговую палату США, выступают за регулирование только критических областей, таких как медицинская диагностика, называя это рискованным основанный подход. Представитель Центра взаимодействия с технологиями Торговой палаты Джордан Креншоу считает, что решения о влиянии ИИ на здоровье и экономику гораздо важнее, чем, например, регулирование видеорекламы.
Растущая популярность так называемого генеративного искусственного интеллекта, который использует данные для создания нового контента, вызвала опасения, что быстро развивающиеся технологии могут обманывать студентов на экзаменах, подпитывать дезинформацию и в конечном итоге привести к появлению нового поколения мошенников. Так, например, нейросеть ChatGPT может создавать тексты, которые трудно отличить от написанного человеком контента.
По этому поводу встречались руководители OpenAI, спонсор Microsoft, а также президент Alphabet Джо Байден, но пока никаких важных решений принято не было. Поэтому Конгресс разрабатывает правила для почти новой отрасли. Джек Кларк, соучредитель известного стартапа в области искусственного интеллекта Anthropic (генеральный директор которого также присутствовал на встрече в Белом доме), сказал: «В целом сотрудники Палаты представителей и Сената бдительны, и всех просят разобраться в этом. Люди хотят получить впереди искусственного интеллекта отчасти потому, что они чувствуют, что не опередили социальные сети». Глава бизнес-ассоциации Палаты прогресса Адам Ковачевич отметил, что основным приоритетом крупнейших технологических компаний является противодействие слишком быстрой и чрезмерной реакции государства на инновации.
Сегодня законодатели, такие как сенатор-демократ Чак Шумер, полны решимости решать проблемы искусственного интеллекта, но факт в том, что Конгресс сильно поляризуется другими текущими событиями. Президентские выборы состоятся в следующем году, и сейчас законодатели решают другие важные вопросы, такие как повышение потолка государственного долга.
Тем не менее, Шумер все же разработал план, согласно которому независимые эксперты должны были протестировать новые технологии, связанные с ИИ, перед их запуском. Политик также призывает отрасль повышать прозрачность и предоставлять властям данные, необходимые государству для предотвращения потенциальных опасностей.
Один из самых популярных в контексте этого спора подход, основанный на оценке риска, предполагает, что ИИ, используемый в медицине, будет тщательно изучаться Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA), в то время как искусственный интеллект в сфере развлечений не будет регулироваться. Европейский Союз также пошел вперед, чтобы принять аналогичные правила.
Против этого подхода выступает сенатор-демократ Майкл Беннетт, который представил законопроект, призывающий к созданию правительственной целевой группы по искусственному интеллекту. Политик считает, что риск-ориентированный подход не решит совершенно новые проблемы. Беннетт выступает за «подход, основанный на ценностях», в котором приоритет отдается неприкосновенности частной жизни, гражданским свободам и правам. Помощник Беннета добавил, что правила, основанные на подходе, основанном на оценке риска, могут быть слишком односторонними и не учитывать такие опасности, как использование искусственного интеллекта для рекомендации видео, пропагандирующих расизм.
Сотрудники OpenAI также подумали о более широком надзоре за областью, в которой они сами работают. В своем выступлении в Стэнфордском университете в апреле Каллен О'Киф, исследователь компании, предложил создать агентство, которое потребовало бы от компаний получения лицензий перед обучением мощным моделям ИИ или эксплуатацией поддерживающих их центров обработки данных. Агентство, по словам О'Киф, можно было бы назвать Управлением безопасности и инфраструктуры искусственного интеллекта. Отвечая на вопрос о предложении, технический директор OpenAI Мира Мурати сказала, что авторитетный орган может привлечь разработчиков ИИ к ответственности за соблюдение стандартов безопасности. Но важнее, по ее мнению, точно определить все нормы и риски, которые государство и бизнес пытаются снизить.
Последним крупным регулятором, созданным в США, было Бюро финансовой защиты потребителей, организованное после финансового кризиса 2007-2008 гг. Однако теперь некоторые республиканцы могут выступать против любого регулирования искусственного интеллекта. Анонимный источник в партии сказал Рейтер: «Мы должны быть осторожны, чтобы предложения по регулированию искусственного интеллекта не превратились в правительственное микроуправление компьютерным кодом, включая поисковые системы и алгоритмы».
Больше интересных статей здесь: Технологии.