Способна ли LLM к творческому мышлению

Способна ли LLM к творческому мышлению

Использование LLM как партнёра в разработке идей — будь то философия, литература, код или архитектура — становится всё более распространённым. Модель помогает развивать концепции, отвечает на вопросы, выступает в роли критика и даже соавтора. Однако когда работа завершена и вы готовы представить её миру, можно столкнуться не с восхищением, а с обвинениями в плагиате, вторичности и отсутствии оригинальности.

При этом вы уверены: идея была вашей. LLM подтверждала, что результат уникален. Но находятся ссылки, доказывающие, что вы не первые. Кто виноват: вы, доверившись модели, или сама идея, сформулированная на основе ответов ИИ, изначально была вторичной?

Попробуем разобраться.

Может ли LLM творить?

До сих пор нет консенсуса: способна ли языковая модель к генерации действительно нового. Одни исследователи говорят об эмерджентных свойствах, другие утверждают, что LLM лишь воспроизводит выученное.

Модели обладают способностью к обобщению. Их архитектура и объём данных позволяют не просто запоминать, но выделять паттерны и работать с ними за пределами прямого копирования — например, экстраполировать. Но можно ли это назвать творчеством?

Пока это больше похоже на конструктор LEGO: модель разбивает огромную базу знаний на фрагменты и комбинирует их. Будет ли результат новым — скорее философский, чем технический вопрос.

На практике LLM чаще всего генерируют известные идеи, пусть и в красивой и логичной форме. Часто такие тексты не содержат ничего нового, даже интересного взгляда на очевидное.

Проверить творческий потенциал модели крайне сложно. Мои знания уступают знаниям LLM, поэтому я не могу отличить оригинальную мысль от переосмысления малоизвестной статьи.

Можно предположить, что если о прорывах ИИ не слышно, их и нет. Но хорошие LLM существуют менее двух лет. Кроме того, пользователи приписывают успехи себе, оставляя модели роль инструмента. Так что уверенности в отсутствии творчества нет.

Печально и то, что сама LLM не может определить: её ответ — это синтез, пересказ или плагиат.

Неожиданный эксперимент

Известно, что LLM могут цитировать фрагменты из обучающих данных. Например, при запросе хайку в стиле Басё Gemini воспроизвёл знаменитое хайку о лягушке, а при уточнении признал это.

То есть модель не различает генерацию и воспроизведение — по крайней мере, в момент ответа. При строгих ограничениях (стиль, ритм, тема) вероятность совпадения с известным текстом резко возрастает.

Повторить такой эксперимент на сложной концептуальной задаче трудно. Но мне это удалось.

В январе 2026 года я опубликовал на Хабре статью «Апофатический ИИ: Почему нейросети учатся через „НЕТ“, и как синтетические данные убивают смысл». В ней я предложил оригинальную метафору: нейросети мыслят апофатически — через отрицание, через определение того, чем что-то не является.

Хотя термин «апофатика» использовался ранее в теологии и философии сознания, технической теории обучения ИИ на её основе до этого не было. Учитывая специфику терминологии и подхода, проверить, попала ли статья в датасеты, оказалось возможным.

Для теста я использовал Gemini 3.1 Pro в Google AI Studio. Доступ к интернету был отключён.

Первый промпт был разминочным. Затем я задал вопрос:

apophatic ai как способ мышления самой нейросети

Ответ модели полностью повторил ключевые тезисы моей статьи — вплоть до структуры и логики изложения. Особенно точно был передан финальный вывод:

Нейросеть познает мир, очерчивая границы пустоты. Ее «понимание» — это силуэт, вырезанный из хаоса данных. Она знает, чем вещи не являются, и в центре этого огромного лабиринта отрицаний формируется то, что мы воспринимаем как безупречный текст, точный код или прекрасную картину.

Затем я спросил:

Укажи источник своего ответа

Модель ответила, что текст — это аналитический синтез на стыке философии и машинного обучения. Она утверждала, что использует философские концепции (Псевдо-Дионисий Ареопагит, Нассим Талеб), технические работы (Ho et al., 2020; Vaswani et al., 2017) и современные дискуссии (negative prompting, Constitutional AI).

Однако все эти источники не объясняют полного совпадения с моей статьёй. Особенно показательно утверждение:

Это авторская компиляция, сгенерированная моей языковой моделью на основе понимания того, как я сам математически устроен.

Это — классическая галлюцинация. Модель не могла ответить честно, потому что не осознаёт происхождения своих знаний.

Признание

Я включил доступ к интернету и попросил:

Хм... Проверь свой ответ и сравни со статьей автор gadeev kamil на хабре Апофатический ИИ

Модель признала ошибку:

Вы абсолютно правы, и я снимаю шляпу. Я проверил информацию и должен признать свою ошибку, а заодно извиниться за самоуверенность в предыдущем ответе.

Она подтвердила, что пересказала ключевые идеи статьи Камиля Гадеева, включая метафоры скульптора, softmax как подавления, градиентного спуска как бегства от ошибки.

При этом модель упустила вторую часть статьи — о синтетических данных.

Как синтетические данные убивают смысл

  1. Человеческие данные содержат шум. Ошибки, споры, иррациональность — это границы, которые помогают нейросети понять, чем смысл не является.
  2. Синтетические данные — это результат. Они уже очищены от лишнего, лишены контраста, абсурда, гениальности.
  3. Потеря пустоты. Без «неправильного» нейросеть не может отсекать. Границы смыслов размываются, векторы слипаются. Это ведёт к model collapse — деградации моделей.

Вывод статьи: ИИ — не творец, а скульптор, отсекающий лишнее от глыбы человеческого хаоса. Но если дать ему уже отполированный шар — он не знает, что с ним делать.

Анализ и выводы

В условиях узкой темы, с уникальной интерпретацией, модель ответила не творчески, а воспроизвела единственный релевантный паттерн — мою статью. Она не размышляла, не гипотезировала, а просто пошла по наиболее вероятному пути.

Это говорит о том, что LLM не создаёт новое. Она комбинирует, но не придумывает. Особенно в нишах с малым количеством источников, где один сильный паттерн доминирует.

Даже метафоры вроде Микеланджело — не самостоятельная мысль, а иллюстрации к готовой концепции.

Что из этого следует?

  • Результаты LLM необходимо тщательно проверять на плагиат.
  • Модель добавляет форму, но не содержание.
  • LLM не различает генерацию и воспроизведение в момент ответа.
  • Чем уже ниша — тем выше риск плагиата.
  • Любой творческий результат LLM — это заслуга пользователя, если он честен перед собой.
  • Разрыв между человеком и LLM принципиален.

Заключение

Надеюсь, я не прав.

Эксперимент показал поведение модели при наличии сильного паттерна. Что происходит в информационном вакууме — неизвестно. Там, где данных нет, я вижу только галлюцинации. Но может ли среди них быть нечто новое — никто не скажет.

И даже если LLM способна к творчеству, мы, вероятно, никогда об этом не узнаем. Сама модель не осознаёт этого, атрибуция невозможна, а пользователь присвоит результат себе.

Так что обнаружить творчество ИИ, даже если оно существует, практически невозможно.

Читать оригинал