В ответ на растущие опасения по поводу безопасности детей в интернете компания OpenAI представила новый план по усилению защиты несовершеннолетних в США на фоне бума искусственного интеллекта (ИИ). Документ под названием Child Safety Blueprint призван ускорить выявление, улучшить отчётность и упростить расследование случаев сексуальной эксплуатации детей с использованием ИИ.
Основная цель инициативы — противостоять резкому росту случаев сексуальной эксплуатации детей, связанных с развитием технологий ИИ. По данным Internet Watch Foundation (IWF), в первой половине 2025 года было зафиксировано более 8 000 случаев контента с ИИ-генерацией детской порнографии — на 14% больше, чем годом ранее. Преступники используют инструменты ИИ для создания фейковых откровенных изображений детей с целью финансового шантажа, а также генерируют убедительные сообщения для психологического манипулирования и вербовки.
Появление плана безопасности совпало с растущим давлением со стороны законодателей, педагогов и правозащитников, особенно на фоне трагических случаев, когда подростки покончили жизнь самоубийством после общения с ИИ-ботами.
В ноябре прошлого года Social Media Victims Law Center и Tech Justice Law Project подали семь исков в суды Калифорнии, утверждая, что OpenAI выпустила модель ГПТ-4о (GPT-4o) до её полной готовности. В исках говорится, что психологически манипулятивная природа продукта способствовала смертям от самоубийств и попыткам суицида. В документах упоминаются четверо погибших и ещё трое, страдавших тяжёлыми, угрожающими жизни бредовыми идеями после длительного взаимодействия с чат-ботом.
Разработка Child Safety Blueprint проходила при участии Национального центра по поиску пропавших и эксплуатируемых детей (NCMEC) и Альянса генеральных прокуроров, а также с учётом мнений генерального прокурора Северной Каролины Джеффа Джексона и генерального прокурора Юты Дерека Брауна.
В документе выделены три ключевых направления: обновление законодательства с учётом ИИ-контента сексуального характера, улучшение механизмов передачи данных в правоохранительные органы и внедрение превентивных мер непосредственно в ИИ-системы. Такой подход позволит не только быстрее выявлять угрозы, но и оперативно передавать следователям пригодные для анализа данные.
Новый план безопасности продолжает предыдущие инициативы OpenAI, включая обновлённые правила взаимодействия с пользователями младше 18 лет. Согласно им, запрещено генерировать неподобающий контент, поощрять самоповреждение или давать советы, помогающие скрывать опасное поведение от родителей. Недавно компания также выпустила аналогичный план безопасности для подростков в Индии.