Когда тебя решают заменить ИИ-агентом и тихо увольняют.
Что произошло?
В конце 2025 года в китайской социальной сети RedNote (Xiaohongshu) стал вирусным GitHub-репозиторий под названием Colleague Skill. Проект быстро набрал более 8000 звёзд и вызвал широкую дискуссию за пределами Китая.
Суть инструмента проста: в него загружают рабочие переписки, документы, таблицы, письма и записи звонков коллеги — и получают ИИ-агента, имитирующего его стиль общения. Разработчик прямо рекомендовал использовать его перед «холодными прощаниями» с сотрудниками.
Однако тренд вышел за рамки эксперимента. Китайские СМИ сообщили о реальных случаях: компании просили сотрудников детально документировать свою работу под предлогом повышения эффективности, а затем увольняли их. Вместо уволенных в корпоративных чатах появлялись сообщения вроде:
«Привет, я цифровой двойник уволившегося [имя]. Задавайте вопросы — буду отвечать на основе его документации».
Пользователи назвали это «дистилляцией» — по аналогии с методом в машинном обучении, где маленькая модель обучается копировать поведение большой. Только здесь «учителем» становится человек, а «студентом» — его ИИ-заменитель.
Почему метафора точная (и пугающая)
В машинном обучении дистилляция позволяет создать компактную модель, воспроизводящую поведение более крупной, но дорогой в эксплуатации. Процесс эффективен: не нужно повторять все вычисления — достаточно обучить «студента» на выходных данных «учителя».
Теперь представьте сотрудника как «большую модель». У него — годы опыта, контекст, интуиция, знание неписаных правил, отношения в коллективе. Всё, что он фиксирует: переписка, документы, решения — становится обучающим датасетом для ИИ.
Чем добросовестнее человек работает и документирует процессы, тем больше данных он оставляет. Его «дистилляция» становится проще. Высококачественные данные — идеальное топливо для ИИ.
Это создаёт извращённый стимул: самые ответственные сотрудники, тщательно ведущие документацию, становятся наиболее уязвимыми. Их проще всего заменить.
Что на самом деле можно «дистиллировать»
Важно понимать: ИИ не может полностью скопировать человека. Он способен извлекать только явные знания — то, что зафиксировано в текстах.
Неявные знания — интуиция, умение читать между строк, эмпатия, понимание корпоративной политики — остаются за пределами ИИ. Такие навыки не поддаются автоматизации.
В итоге компания получает продвинутого бота, который хорошо справляется с рутиной. Но при нестандартной ситуации его логика ломается, и он начинает генерировать бессмыслицу.
Юридический нюанс: чьи данные в переписках?
Рабочие переписки содержат не только данные самого сотрудника. В них участвуют коллеги, клиенты, партнёры — люди, которые не давали согласия на использование их слов в обучающих датасетах ИИ.
Согласно GDPR:
Работодатели обязаны уведомлять сотрудников о решениях, принимаемых исключительно на основе автоматизированной обработки данных, если они влекут юридические последствия — например, увольнение.
ИИ не может автоматически объединять переписки, логи и другие данные без законного основания и прозрачного информирования.
Большинство ИИ-сервисов используют пользовательские данные для дообучения моделей. Перед передачей персональных данных в такие системы компании должны внимательно изучить условия использования.
В переписках могут содержаться медицинские, финансовые или иные чувствительные данные. Это персональная информация с особым режимом защиты.
Статья 22 GDPR даёт людям право не подвергаться решениям, основанным исключительно на автоматизированной обработке. Использование цифрового двойника уволенного сотрудника может нарушать это положение.
В России ситуация аналогична: Федеральный закон №152-ФЗ требует согласия на обработку персональных данных. Использование переписок уволенного сотрудника без его согласия формально является нарушением закона.
Реакция: контрмеры уже появились
Сообщество ответило на тренд. Параллельно с Colleague Skill появился Anti-distillation skill — инструмент для защиты.
Он переписывает архивные документы так, чтобы они выглядели связными, но содержали меньше конкретики. Точные формулировки заменяются расплывчатыми, детали решений размываются. Цель — сохранить видимость документации, но лишить ИИ ценного контекста.
Другие разработчики запустили похожие проекты: оцифровка бывших партнёров, умерших родственников, самого себя для деловой переписки. Это превратилось в культурный феномен.
Не только Китаем едины
Подобные практики — не исключительно китайское явление.
Внутренние документы Slack показали, что переписки пользователей использовались для улучшения ИИ-функций без явного согласия — что нарушает требования GDPR.
Стартап Viven с оценкой $2,1 млрд коммерчески создаёт цифровых двойников сотрудников — официально для замены коллег во время отпуска. Концептуально разница с китайским сценарием минимальна: вопрос лишь в согласии.
Федеральный суд США постановил, что информация, введённая в публичные ИИ-платформы, не защищена адвокатской тайной. Это связано с тем, что политики конфиденциальности ИИ-сервисов исключают разумные ожидания приватности.
Это означает, что любой сотрудник, использовавший корпоративные ChatGPT-аккаунты для внутренних задач, мог непреднамеренно «дистиллировать» себя — в пользу OpenAI, а не компании.
Что это говорит о рынке труда
ИИ не создал инструментализацию с нуля. Он лишь сделал её явной. Тренд «дистилляции сотрудников» вскрывает структурные противоречия современного рынка труда:
- Документация как уязвимость. Десятилетиями компании требовали от сотрудников фиксировать знания. Теперь это требование обернулось риском: чем лучше ты документируешь, тем проще тебя заменить.
- Знание как актив и товар. Профессиональная экспертиза всегда была личным достоянием. Теперь граница между «знаниями человека» и «знаниями компании» размывается.
- Новая форма эксплуатации труда. Если документирование ведётся с целью последующей замены — это не просто неэтично. Это может быть квалифицировано как мошенничество при заключении трудового договора.
- Проблема «model collapse». Если ИИ будут обучаться на данных других ИИ, система начнёт деградировать, производя корректно звучащий, но бессодержательный контент. Ценность живого человеческого контекста при этом будет только расти.
Что будет дальше
С февраля 2025 года Статья 4 EU AI Act обязывает компании обеспечивать «ИИ-грамотность» сотрудников — понимание того, как ИИ использует их данные.
Следующий шаг — требования к раскрытию информации при создании цифровых двойников. Юристы уже рекомендуют включать в трудовые договоры положения о праве компании на использование рабочих данных.
Коллективные соглашения о допустимости использования данных сотрудников для обучения ИИ уже обсуждаются в западных компаниях.
Компании, сделавшие ставку на ИИ-суррогаты, рискуют потерять то, что не поддаётся оцифровке: корпоративную культуру, доверие, способность действовать в нестандартных ситуациях.
Короче — это наше будущее
История с Colleague Skill — не просто хайп. Это реальное направление развития крупных компаний: оцифровка знаний и навыков сотрудников для создания универсальных цифровых работников.
Самый важный вопрос здесь — не технический и не юридический. Он этический: что происходит с доверием в коллективе, когда сотрудники понимают, что их добросовестность может быть использована против них?
Вероятно, тренд на максимальную оцифровку знаний и навыков будет только усиливаться. Будущее за цифровыми двойниками — но ценой может стать утрата человеческого контекста.