
Исследовательская группа Google провела анализ, который демонстрирует парадоксальную ситуацию: технология искусственного интеллекта, активно развиваемая самой компанией, стала мощным инструментом для подрыва достоверности информации в интернете. Высокое качество и доступность контента, созданного ИИ, открывают возможности для новых форм манипуляций и усиливают уже существующие угрозы, что приводит к размыванию границ между фактами и фальсификациями.
С 2022 года, с началом широкого распространения генеративного ИИ, эта технология принесла значительный прогресс во многие сферы. Современные ИИ-инструменты способны на многое: от анализа аудио и видео с пониманием контекста до решения сложных математических задач и создания изображений, неотличимых от реальных фотографий. Благодаря такой универсальности ИИ интегрирован в критически важные области, включая медицину, государственное управление и научные изыскания.
Обратная сторона прогресса: растущие риски
Однако параллельно с развитием возможностей растут и риски их злонамеренного применения. Особую тревогу вызывает проблема дезинформации, которая уже наводнила цифровое пространство. Согласно данным Google, искусственный интеллект стал основным источником фейковых изображений. Ситуация усугубляется тем, что современные инструменты настолько просты в использовании, что для создания убедительного ложного контента больше не требуются специальные технические навыки.
Предыдущие исследования хотя и обозначали общие угрозы, но не давали детального понимания конкретных тактик, которые используют распространители дезинформации. По мере роста мощности технологий становится критически важным разобраться в механизмах этих злоупотреблений.
Новое исследование Google как раз направлено на то, чтобы пролить свет на различные стратегии распространения ИИ-дезинформации в сети. «Наш анализ позволяет выявить ключевые и новые модели злоупотреблений, включая возможные мотивы, методы, а также то, как злоумышленники используют и обходят функциональные ограничения систем», — отмечается в работе, опубликованной на платформе arXiv.
Тактика злоупотреблений: доступность и обход ограничений
Учёные проанализировали 200 сообщений в СМИ о случаях неправомерного использования ИИ за период с января 2023 по март 2024 года. Это позволило выявить основные тенденции, в том числе понять, как и зачем люди применяют эти инструменты в реальных, неконтролируемых условиях.
Обратите внимание: Новое исследование может в конечном итоге подтвердить или отклонить теорию Большого взрыва.
Анализ охватывал контент всех форматов: изображения, текст, аудио и видео.Результаты показали, что наиболее часто встречаются поддельные изображения и сфабрикованные доказательства. Основные цели распространения такого контента — влияние на общественное мнение, мошенничество и извлечение финансовой выгоды. Примечательно, что в 90% случаев для этого не требуются глубокие технические знания — злоумышленники полагаются на простоту и удобство самих инструментов.
Исследователи отмечают, что многие из этих злоупотреблений не выглядят откровенно злонамеренными, но тем не менее несут в себе серьёзную опасность. «Повышение сложности, доступности и повсеместности генеративных ИИ-инструментов, по-видимому, приводит к новым формам низкоуровневых злоупотреблений. Они не являются прямыми нарушениями правил использования, но имеют тревожные этические последствия», — поясняют эксперты.
Это указывает на проблему: несмотря на встроенные в большинство ИИ-платформ этические ограничения и меры безопасности, пользователи находят способы их обойти с помощью тщательно составленных текстовых запросов (промптов). По мнению авторов исследования, формируется новый, развивающийся язык общения с ИИ, цель которого — стереть грань между правдой и ложью. Часто такая дезинформация служит целям политической пропаганды или саморекламы, что может подорвать доверие общества к цифровой информации в целом и перегрузить пользователей необходимостью постоянной проверки фактов.
Обход защитных мер возможен и другими путями. Например, если система запрещает создание контента с участием знаменитости по имени, пользователь может загрузить её фотографию из поисковика по ссылке и затем отредактировать изображение с помощью ИИ по своему усмотрению.
Ограничения исследования и выводы
Авторы признают, что опора исключительно на данные СМИ ограничивает масштаб исследования. Медиа-организации часто фокусируются на информации, интересной их аудитории, что может внести определённую предвзятость. Также любопытно, что в исследовании не упоминаются случаи злоупотреблений инструментами ИИ, разработанными непосредственно Google.
Тем не менее, полученные результаты дают ценное понимание того, как современные технологии влияют на качество информации в цифровой среде. Исследователи подчёркивают, что для снижения рисков злонамеренного использования ИИ необходим комплексный, многосторонний подход, выходящий за рамки простых технических ограничений.
Больше интересных статей здесь: Новости науки и техники.