По данным Google, злоумышленники более 100 тысяч раз пытались склонировать Gemini

По данным Google, злоумышленники более 100 тысяч раз пытались склонировать Gemini

В четверг Google объявил, что «коммерчески мотивированные» субъекты попытались клонировать знания из своего чат-бота Gemini AI, просто подсказывая ему. Сообщается, что в ходе одного состязательного сеанса модель была использована более 100 000 раз на разных языках, кроме английского, при этом собирались ответы якобы для обучения более дешевого подражателя.

Google опубликовала результаты ежеквартальной самооценки угроз своим собственным продуктам, в которой компания представлена ​​как жертва и герой, что не является чем-то необычным в этих самостоятельных оценках. Google называет незаконную деятельность «извлечением модели» и считает это кражей интеллектуальной собственности, что является несколько напряжённой позицией, учитывая, что LLM Google была построена на материалах, без разрешения почерпнутых из Интернета.

Google также не новичок в практике подражания. В 2023 году издание The Information сообщило, что команду Google Bard обвинили в использовании результатов ChatGPT с ShareGPT, общедоступного сайта, на котором пользователи делятся разговорами в чат-ботах, для обучения своего собственного чат-бота. Старший исследователь искусственного интеллекта Google Джейкоб Девлин, создавший влиятельную языковую модель BERT, предупредил руководство, что это нарушает условия обслуживания OpenAI, затем ушел в отставку и присоединился к OpenAI. Google опроверг это утверждение, но, как сообщается, прекратил использовать данные.

Несмотря на это, условия обслуживания Google запрещают людям извлекать данные из своих моделей ИИ таким образом, и отчет представляет собой окно в мир несколько теневой тактики клонирования моделей ИИ. Компания считает, что виновниками являются в основном частные компании и исследователи, ищущие конкурентного преимущества, и заявляет, что атаки происходят со всего мира. Google отказался назвать имена подозреваемых.

Сделка с дистилляцией

Обычно в отрасли практику обучения новой модели на результатах предыдущей модели называют «дистилляцией», и она работает следующим образом: если вы хотите создать свою собственную модель большого языка (LLM), но вам не хватает миллиардов долларов и лет работы, которые Google потратил на обучение Gemini, вы можете использовать ранее обученный LLM в качестве ярлыка.

Читать оригинал