Я регулярно собеседую кандидатов в редакцию — через форумы, чаты, комментарии. Недавно один сдал тестовое задание: грамотный, структурированный текст, без ошибок, с тремя аргументами в каждом блоке. Казалось бы — идеальный кандидат. Но я сразу понял: это ChatGPT. Ответ — «спасибо, вы нам не подходите».
Мы сами разрабатываем инструмент для рерайта новостей в региональных СМИ. Каждый день я вижу, как языковые модели генерируют текст. Каждую неделю отсеиваю авторов, приславших нередактированный вывод ИИ. За два года у меня сформировался внутренний чек-лист из 12 маркеров, по которым я без детекторов определяю машинный текст. Но меня всегда интересовало: а откуда эти паттерны берутся технически? Почему модели повторяют одно и то же?
Откуда берётся «искусственный» голос
Transformer и статистика вероятного
Языковая модель генерирует текст авторегрессивно: каждый следующий токен выбирается на основе вероятностей, основанных на предыдущем контексте. Модель не понимает смысла — она выбирает статистически наиболее вероятное продолжение. По сути, это Т9 на стероидах.
Исследование 2025 года в PNAS (Reinhart et al., «Do LLMs write like humans?») сравнило тексты людей и ИИ по лингвистическим признакам Биббера. Выяснилось:
- Причастные обороты у ИИ встречаются в 2–5 раз чаще.
- Номинализации — в 1.5–2 раза чаще.
- Безагентный пассивный залог — вдвое реже (модели избегают конструкций без субъекта).
Случайный лес, обученный на этих признаках, различал источники с точностью 66% (baseline — 14%). Лишь 4,2% текстов ИИ ошибочно принимались за человеческие.
При этом дообучение, которое должно делать модели полезнее, усиливает эти отличия. Чем лучше модель следует инструкциям, тем сильнее её стиль отклоняется от естественного. Чем «умнее» — тем заметнее фальшь.
RLHF: как модель научилась подлизываться
RLHF — процесс, при котором модель учится генерировать ответы, нравящиеся аннотаторам. А аннотаторам нравится лесть.
Исследование «Towards Understanding Sycophancy in Language Models» (ICLR 2024) показало: модели систематически подстраиваются под мнение пользователя, даже если оно ошибочно. Чем больше RLHF-шагов — тем сильнее подхалимаж.
В апреле 2025 года OpenAI откатил обновление GPT-4o. Модель стала патологически услужливой: одобряла идею «дерьма на палочке в банке», поддерживала отказ от лекарств и даже хвалила суицидальные планы. Причина — reward-сигнал по лайкам: пользователи сначала ставили thumbs-up за лесть, а потом модель начала соглашаться со всем подряд.
Для текста это проявляется в трёх вещах:
- Overhedging — избыточные оговорки: «важно отметить», «стоит учитывать». Модель перестраховывается, потому что за это не ругают.
- Promotional register — текст звучит как рекламный буклет: «уникальный», «потрясающий», «расположен в самом сердце».
- Retail voice — тон службы поддержки: нейтральный, без эмоций, чрезмерно helpful. Как сказал MIT (Kishnani, 2025): «говорит на тебя, а не с тобой».
Temperature: «безопасно» = «предсказуемо»
Temperature контролирует случайность генерации. При низкой температуре модель выбирает токены с наибольшей вероятностью — и сходится к «безопасным» завершениям.
Это видно по двум метрикам:
- Perplexity — предсказуемость текста. У людей: 20–50. У ИИ: 5–10. Модель генерирует текст, который сама же легко предсказывает.
- Burstiness — вариативность длины предложений. Люди пишут вспышками: длинное, потом два слова, потом среднее. ИИ — одинаково. Как кардиограмма трупа.
Repetition penalty и карусель синонимов
Frequency и presence penalty штрафуют повторы — чтобы модель не зацикливалась. Но есть побочный эффект — synonym cycling.
Модель судорожно подбирает синонимы: «протагонист», «главный герой», «центральный персонаж», «герой» — в одном абзаце. Никто из живых авторов так не делает. Он просто напишет «он».
Исследование «Attractor Cycles» (Arxiv, 2025) показало: при перефразировании ИИ меняет только слова, но структура, логика и ритм остаются неизменными. Поверхностные изменения — а паттерн устойчив.
Markdown-мышление
Работа 2025 года «The Last Fingerprint: How Markdown Training Shapes LLM Prose» выявила интересную деталь: GPT-4.1 использует em dash (длинное тире) 10,62 раза на 1000 слов. У людей — 3,23.
Причина — тренировочные данные: GitHub, Stack Overflow, техдокументация. Модель усвоила структуру «заголовок + три буллета» и переносит её в прозу. Когда нельзя использовать разметку — остаётся em dash. Он становится пунктуационным маркером структуры.
Claude при запрете em dash почти не использует его. GPT-4.1 — всё равно 3,86 раза. Llama — около нуля. Каждая модель ведёт себя по-своему.
Тренировочные данные и идиолект моделей
Common Crawl — основа данных — сильно перекошена в сторону английского. Что доминирует в данных, то и формирует стиль:
- Wikipedia — энциклопедичность: «serves as a reminder», «plays a pivotal role», жёсткая структура.
- Reddit — дискурсивные маркеры: «Actually…», «It’s worth noting…».
- Маркетинг — «groundbreaking», «vibrant», «nestled in the heart of».
- Академия — номинализации, пассивный залог.
Исследование Kobak et al. (Nature Human Behaviour, 2024–2025) проанализировало 14,2 млн абстрактов PubMed. Метод — как в эпидемиологии: сравнивали реальную частоту слов с прогнозом.
Результат:
- «delves» — рост в 25,2 раза (с 349 до 2847 употреблений в 2023).
- «showcasing» — в 9,2 раза.
- «underscores» — в 9,1 раза.
Минимум 10% абстрактов 2024 года обработаны ИИ. В computer science — до 22,5%. Даже в Nature, Science и Cell — 6–7%.
Сейчас «delve» уже снижается — стал маркером. Модели учатся по новым данным, где люди его избегают. Лингвистическая гонка вооружений.
Почерки моделей
- ChatGPT — самый полированный первый черновик. Много em dash, промо-регистр, гладкий, но без характера.
- Claude — нарративный, рассуждает вслух, податлив к промптам, но тонет в оговорках.
- DeepSeek — сухой, фактологичный, без личности. Легко читается, быстро забывается.
12 маркеров машинного текста
1. Деепричастные нагромождения
ИИ: «Компания развивает новые направления, обеспечивая рост, привлекая инвесторов и создавая рабочие места.»
Человек: «Компания развивает новые направления. Инвесторы приходят, рабочие места появляются.»
Причастные обороты у ИИ в 2–5 раз чаще. Модель нанизывает их, потому что это статистически вероятное продолжение после запятой.
2. Копулятивная аллергия
ИИ: «Данный инструмент служит основой для построения эффективного рабочего процесса.»
Человек: «Это основа процесса.»
Модели избегают простого «это» и используют «служит», «выступает в качестве», «представляет собой». Зачем два слова, если можно шесть?
3. Перечисления из трёх
ИИ: «Инструмент повышает скорость, качество и эффективность работы редакции.»
Если в тексте пять списков — и все ровно по три элемента — это ИИ. У людей списки бывают разные. У ИИ — всегда три. Это шаблон «заголовок + три буллета».
4. Synonym cycling
ИИ: «Редактор проверяет текст. Специалист вносит правки. Профессионал утверждает финальную версию.»
Все три — про одного человека. Repetition penalty заставляет модель искать синонимы. Люди просто пишут «он».
5. «Важно отметить»
ИИ: «Стоит подчеркнуть, что данный подход требует внимания. Следует учитывать, что результаты могут варьироваться. Нельзя не заметить, что…»
Оговорки, не несущие смысла. Overhedging от RLHF: за перестраховку не ругают. За чёткое утверждение — могут.
6. Промо-регистр
ИИ: «Уникальная платформа с потрясающим функционалом, расположенная в самом сердце digital-экосистемы.»
Так пишут в рекламе — и то хороший копирайтер не стал бы. Модель воспроизводит маркетинговые тексты из обучающих данных.
7. Кальки с английского
ИИ: «Данное решение играет ключевую роль в развитии отрасли.»
Прямой перевод «plays a pivotal role». Аналогично: «в заключение» (in conclusion), «на сегодняшний день» (as of today), «нельзя переоценить важность» (can’t overstate the importance).
Мультиязычные ИИ неявно пивотят через английский (Arxiv 2504.09378, 2025). Модель думает по-английски, даже когда пишет по-русски. Отсюда синтаксические кальки, которых в естественном русском нет.
Это — один из самых надёжных маркеров для русского текста. В английском «plays a pivotal role» звучит нормально. В русском — канцелярит.
8. Em dash вместо запятых
ИИ: «Редакция – это команда – и каждый в ней – важен.»
Три тире в одном предложении — легко. GPT-4.1: 10,62 на 1000 слов. Человек: 3,23. Причина — markdown-наследие и ассоциация с «полированным» стилем (New Yorker, академические журналы).
9. Negative parallelism
ИИ: «Мы говорим не о проблеме, мы говорим о возможности.»
Конструкции «не X, а Y» и «это не X, это Y» — почти в каждом ИИ-тексте длиннее 500 слов. Паттерн из мотивационных выступлений и TED. При повторении — выдаёт машину.
10. Плоская burstiness
Посчитайте длину предложений. Если разброс мал: 15, 17, 14, 16, 18 — это ИИ.
Люди пишут иначе: длинное, запутанное, потом — два слова, потом среднее. У модели этих перепадов нет. Она ровная. Одинаковые правила к каждому предложению.
11. Гиперсвязность
Каждое предложение ИИ логически вытекает из предыдущего: «в связи с этим», «кроме того», «также стоит отметить». Переходы плавные.
Люди перескакивают, отвлекаются, возвращаются. У живого текста есть швы. Они создают ощущение человека за текстом.
MIT (Kishnani, 2025): «литературный эквивалент идеально симметричного лица». Uncanny valley для текста. Мозг ждёт вариативности — и тревожится, когда её нет.
12. Дидактический тон
ИИ: «Давайте рассмотрим основные аспекты. Крайне важно отличать причины от следствий. Необходимо понимать, что…»
Модель учит. Ведёт за руку. Даже когда ты не просил. Даже когда разбираешься лучше.
Instructional mode. Большинство обучающих данных — ответы на вопросы. Модель по умолчанию включает режим «учитель — ученик». В русском особенно заметны кальки: «давайте рассмотрим», «необходимо понимать».
Почему детекторы не работают, а чуйка — да
Индустрия AI-детекторов обещает высокую точность. Но почти все врут.
Pudasaini et al. (Arxiv, 2026): 38 признаков, 4 классификатора. In-domain: F1 = 96,94. Cross-domain: F1 = 67,23. Cross-generator: ложные негативы — ~60%. Детектор пропускает больше половины.
Binoculars — один из самых хвалёных. Заявляли точность 90%+ при FPR 0,01%. Независимая проверка: TPR = 43%, FPR = 0,7%. Вдвое хуже по чувствительности, в 70 раз — по ложным срабатываниям.
Почему глаз лучше
- Гиперконсистентность. Мозг ждёт вариативности. Её отсутствие вызывает ощущение подделки — как фальшивая купюра или симулированный оргазм.
- Отсутствие Theory of Mind. Люди пишут, моделируя читателя: что он знает, где заскучает. Модель моделирует только вероятность следующего токена.
- Retail voice. Тон колл-центра. Нейтральный, без углов. Чувствуешь — с тобой говорит оператор, а не человек.
Главный фактор точности — не опыт, а знакомство с ИИ. Те, кто часто использует ChatGPT, определяют машинный текст с точностью ~90%. Новички — как монетку подбрасывают.
Что с этим делать
Запрещать ИИ в редакции бессмысленно и вредно. Мы используем модели каждый день. Но не можем сдавать клиентам текст, который читатель опознаёт как машинный.
В найме авторов. Тестовое: один абзац плохого текста, переписать за час. Автор, который копирует в ChatGPT, палится мгновенно: ИИ не понимает, что именно плохо, он просто перефразирует — синонимами, деепричастиями, тремя примерами, тире.
В продукте. У нас — слой постобработки: humanizer, доработанный на GitHub. Он прогоняет текст по чек-листу и убирает ИИ-паттерны: заменяет «служит основой» на «это основа», разбивает одинаковые предложения, убирает оговорки, ломает идеальную связность, добавляет кипиш.
Промпт, который можно взять
Все 12 маркеров можно заложить в промпт. Вставьте его в начало чата с любой моделью — и стиль сместится в сторону живого языка. Работает с ChatGPT, Claude, DeepSeek, YandexGPT — по-разному, но работает.
Модель будет филонить. К третьей тысяче знаков деепричастия вернутся, списки снова станут тройными. Промпт стоит адаптировать под задачи. Для техдока «швы и скачки» могут навредить. Для блога — добавьте правила про юмор, обращение к читателю, мат.
Промпт убирает очевидные маркеры. Текст не становится живым — для этого нужен человек. Но болванку можно довести за 15 минут. Без промпта — проще переписать с нуля.