Представьте себе обычный вечер на Pikabu: вы устроились поудобнее, чтобы почитать любимые статьи. Но что, если в вашей ленте скрывается текст, созданный не человеком, а искусственным интеллектом? Согласно некоторым данным, значительная часть читателей может не заметить подмены. Чтобы помочь вам сохранить бдительность, Научный отдел Pikabu подготовил руководство по выявлению машинных текстов. Помните, защита человеческого контента — это наша общая задача!

1. Слишком идеальная структура
Нейросети часто выдают себя чрезмерной методичностью. Тексты, созданные ИИ, обычно отличаются выверенным синтаксисом, правильной речью и минимальным количеством ошибок. Предложения в таком тексте часто имеют примерно одинаковую длину, поскольку алгоритмы считают это оптимальным. Машины избегают как слишком коротких фраз, так и чрезмерно длинных абзацев. Эта предсказуемая точность — их ахиллесова пята. Если вы видите текст, состоящий из однородных по структуре предложений, это повод насторожиться.
2. Соблюдение этических норм и отсутствие неформальной лексики
Большинство современных ИИ запрограммированы на соблюдение строгих этических протоколов. Они избегают использования нецензурной лексики, сленга или намеренно искаженных слов. Наличие такой лексики может указывать на человеческое авторство. Однако будьте осторожны: некоторые пользователи могут специально использовать промпты (команды), чтобы заставить нейросеть имитировать неформальный стиль, обходя встроенные ограничения. Поэтому одно лишь отсутствие мата — не гарантия.
3. Ограничения по объему и потеря связности
У многих языковых моделей есть негласные ограничения на объем генерируемого текста за один раз. Попытка создать очень длинный материал может привести к потере смысловой связности: тема может "поплыть", аргументы станут противоречивыми.
Обратите внимание: От молекулы к текстильной ленте.
Хотя продвинутые модели способны на длинные тексты, они все равно могут выдавать себя неестественными переходами или повторениями.4. Неуместный стиль и странный выбор слов
Стилистика — слабое место многих ИИ. Машина может выбирать слова, которые формально подходят по смыслу, но выглядят неуместно в контексте. Часто встречаются лишние, "водянистые" предложения, которые не несут новой информации. Кроме того, ИИ плохо чувствует эмоциональную составляющую текста (так называемый "пафос") и может использовать её в неподходящих моментах, что создает комичный или неловкий эффект.
5. Неудачные попытки юмора
Юмор — сложная для алгоритмов область. Попытки ИИ создать шутку, анекдот или ироничное высказывание часто выглядят плоскими, шаблонными или просто не смешными. Поэтому в чисто машинных текстах юмора обычно мало. Если же пост заставляет вас искренне смеяться, вероятно, его автор — человек. В противном случае, возможно, стоит задуматься о природе собственного восприятия.
Перечисленные признаки — лишь базовые методы обнаружения. Существуют и более сложные техники, например, анализ перевода имен собственных. Помните: не все признаки должны проявляться одновременно. Даже одного-двух достаточно, чтобы усомниться в происхождении текста. Бдительность — главное оружие в защите человеческого контента. Спасибо за внимание. Привет, Пикабу!
Автор — Дмитрий Михайлов
Эта статья была написана для Catscience Public.
Подпишитесь, чтобы быть в курсе новых публикаций!
[Мой] Популяризация науки об искусственном интеллекте ITE Юмористическая наука о кошках Длинный пост 26Больше интересных статей здесь: Новости науки и техники.
Источник статьи: Как распознать сгенерированный нейросетью текст?.