Команда исследователей Google опубликовала исследование, в котором показано, как искусственный интеллект может разрушить Интернет, распространяя дезинформацию, что почти иронично, учитывая, что компания участвовала в разработке технологии. Доступность и литературное или визуальное качество контента, созданного ИИ, открывают двери для новых форм злоупотреблений или способствуют распространению существующих практик, еще больше стирая границы между правдой и ложью.
С момента своего запуска в 2022 году генеративный искусственный интеллект открыл множество возможностей для ускорения развития во многих областях. Сегодня инструменты искусственного интеллекта обладают широким спектром возможностей: от сложного аудиовизуального анализа (через понимание естественного языка) до математических рассуждений и создания фотореалистичных изображений. Такая универсальность позволила внедрить эту технологию в важные отрасли, такие как здравоохранение, государственные услуги и научные исследования.
Однако по мере развития технологий риск неправильного использования становится все более тревожным. Одним из примеров является распространение дезинформации, которой сегодня изобилует Интернет. Недавний анализ Google показал, что искусственный интеллект в настоящее время является ведущим источником дезинформации на основе изображений. Это явление усугубляется возросшей доступностью инструментов, которые позволяют любому человеку создавать любой контент с минимальными техническими знаниями.
Однако, хотя предыдущие исследования предоставили ценную информацию об угрозах, связанных со злоупотреблением искусственным интеллектом, они не показали четко различные стратегии, которые можно использовать для этой цели. Другими словами, мы не знаем, какую тактику используют злоумышленники для распространения дезинформации. Поскольку технологии становятся все более мощными, важно понимать, как происходят злоупотребления.
Новое исследование команды Google освещает различные тактики, используемые для распространения в Интернете дезинформации, созданной искусственным интеллектом. «Благодаря этому анализу мы выявляем ключевые и возникающие модели злоупотреблений, включая потенциальные мотивы, стратегии, а также то, как злоумышленники используют и злоупотребляют функциями системы», — ранее было опубликовано на платформе
Злоупотребления, не требующие глубоких технических знаний
Исследователи проанализировали 200 сообщений СМИ о неправомерном использовании искусственного интеллекта в период с января 2023 года по март 2024 года. На основе этого анализа были выявлены ключевые тенденции такого использования, в том числе то, как и почему пользователи используют инструмент в неконтролируемой среде (т е в реальной жизни).
Обратите внимание: Новое исследование может в конечном итоге подтвердить или отклонить теорию Большого взрыва.
В анализ включается изображение, текст, аудио и видеоконтент.Исследователи обнаружили, что наиболее распространенные случаи злоупотреблений включают ложные изображения и сфабрикованные доказательства. Большая часть этого ложного контента распространяется с очевидным намерением повлиять на общественное мнение, способствовать мошенничеству (или мошенничеству) и получению прибыли. С другой стороны, в большинстве случаев (девять случаев из десяти) не требуются глубокие технические знания, а больше полагаются на (простоту в использовании) функциональность инструмента.
Интересно, что эти злоупотребления не являются явно злонамеренными, но все же потенциально опасны. «Повышение сложности, доступности и повсеместного распространения инструментов генеративного ИИ, похоже, приводит к новым формам злоупотреблений на низком уровне, которые не являются ни явно вредными, ни прямыми нарушениями условий использования инструмента, но, тем не менее, имеют тревожные этические последствия», — говорят эксперты.
Этот вывод говорит о том, что, хотя большинство инструментов ИИ имеют положения об этической безопасности, пользователи находят способы обойти их с помощью грамотно сформулированных подсказок. По мнению команды, это новая и развивающаяся форма коммуникации, призванная стереть грань между реальной информацией и дезинформацией. Последнее в основном предназначено для политической осведомленности и саморекламы. Это может усилить недоверие общества к цифровой информации и обременить пользователей чрезмерными задачами по проверке.
С другой стороны, пользователи могут обойти эти меры безопасности и другими способами. Например, если невозможно ввести приглашение, содержащее имя знаменитости, пользователи могут загрузить фотографию из поисковой системы и вставить ее как ссылку в инструмент AI, чтобы изменить ее по своему вкусу.
Однако исследователи говорят, что опора исключительно на данные СМИ ограничивает масштаб исследования. В конце концов, эти организации склонны концентрироваться только на конкретной информации, которая может представлять интерес для их целевой аудитории, что может внести предвзятость в анализ. Также, что любопытно, в документе не упоминаются случаи неправомерного использования инструментов искусственного интеллекта, разработанных Google...
Тем не менее полученные результаты позволяют понять, в какой степени технологии влияют на качество цифровой информации. Исследователи говорят, что это подчеркивает необходимость многогранного подхода для снижения риска злонамеренного использования технологии.
Больше интересных статей здесь: Новости науки и техники.