По мере того как искусственный интеллект (artificial intelligence) проникает в медиа и редакционную работу, онлайн-платформы спешно устанавливают правила его использования. На этой неделе Википедия запретила своим редакторам вставлять в статьи текст, созданный с помощью ИИ. При этом полный отказ от технологий ИИ в редакционных процессах не предусмотрен.
Что изменилось в правилах
В рамках обновления политики сайт официально заявил: «Использование больших языковых моделей (LLM) для создания или переписывания содержания статей запрещено». Это уточнение заменяет более расплывчатую формулировку, которая ранее гласила, что ИИ «не должен использоваться для создания новых статей с нуля».
Решение поддержали
Вопрос использования ИИ давно вызывает споры в сообществе волонтёрских редакторов Википедии. Как сообщает 404 Media, новое правило было вынесено на голосование и получило поддержку большинства — 40 голосов «за» при 2 «против».
Где ИИ всё ещё можно применять
При этом редакторам разрешили использовать языковые модели для предложений по базовым правкам собственного текста — но только после тщательной проверки человеком.
«Редакторы могут использовать LLM для предложений по простым правкам и включать некоторые из них после ручного анализа, если модель не добавляет собственный контент», — говорится в политике. — «Следует быть осторожными: ИИ может выйти за рамки запроса и изменить смысл текста так, что он перестанет соответствовать приведённым источникам».