Дообучение модели для задач российских учителей

Мы дообучили модель Qwen3.5-27B для задач российских учителей и достигли результата, сравнимого с GPT-5.4.

Зачем дообучать модели

Российские модели плохи, потому что в их обучающей выборке мало российских школьных задач. GPT-5.4 также не идеален, так как не знает, как правильно оформить урок по российскому стандарту.

Выбор базовой модели

Мы выбрали Qwen3.5-27B — открытую модель от Alibaba. Она была выбрана из-за своей архитектуры и возможности дообучения на одной GPU.

Дообучение модели

Мы использовали метод QLoRA для дообучения модели. Дообучение заняло около 6 часов на одной GPU.

Результаты

Наша модель заняла 9 место из 30 моделей с баллом 3.21 из 4. Мы вышли на один уровень с GPT-5.4, но нашу модель можно развернуть локально и она стоила 30 000 рублей.

Читать оригинал