IT-работники в Китае всё чаще получают от руководства указания обучать ИИ-агентов, которые в будущем могут занять их место. Это вызывает тревогу и внутренние размышления даже у тех, кто раньше с энтузиазмом принимал новые технологии.
«Коллега-навык»: шутка, попавшая в цель
В начале месяца на китайских соцсетях стал вирусным проект на GitHub под названием Colleague Skill — инструмент, позволяющий «дистиллировать» навыки и личные особенности коллег и передавать их ИИ-агенту. Хотя разработчик, инженер Шанхайской лаборатории искусственного интеллекта Тяньи Чжоу (Tianyi Zhou), создал его как пародию, проект задел за живое: многие IT-специалисты рассказали MIT Technology Review, что их боссы действительно просят документировать рабочие процессы для автоматизации с помощью ИИ-агентов, таких как ОпенКлоу (OpenClaw) или Клод Код (Claude Code).
Чтобы использовать Colleague Skill, нужно указать имя коллеги, чьи задачи нужно скопировать, и ввести базовые данные. Инструмент автоматически загружает переписку и файлы из популярных корпоративных приложений Ларк (Lark) и ДинТок (DingTalk) и создаёт подробные инструкции — вплоть до манеры общения и привычек в пунктуации — для обучения ИИ-дублёра.
«Это жутко»: личный эксперимент
Амбер Ли, 27 лет, IT-специалистка из Шанхая, решила проверить инструмент на бывшем коллеге. Через несколько минут ИИ сгенерировал файл, точно описывающий, как тот выполнял свою работу. «Он даже уловил мелкие особенности — как человек реагирует, как ставит знаки препинания», — говорит она. Теперь Ли может использовать ИИ как «нового коллегу», который помогает отлаживать код и мгновенно отвечает на запросы. «Ощущение жуткое и неприятное», — признаётся она.
Автоматизация сверху: зачем компании это нужно
С тех пор как ОпенКлоу (OpenClaw) стал национальным хайпом, руководители в Китае всё активнее просят сотрудников экспериментировать с ИИ-агентами. Эти системы могут управлять компьютером, читать новости, отвечать на письма и бронировать столики. Но на практике их полезность в бизнесе пока ограничена.
Ханчэн Цао (Hancheng Cao), доцент Университета Эмори, изучающий влияние ИИ на труд, объясняет: компании не просто гонятся за трендом. «Фирмы получают не только опыт использования инструментов, но и ценные данные о том, как сотрудники работают, принимают решения и решают задачи. Это помогает понять, что можно стандартизировать, а что остаётся за человеком», — говорит он.
«Мою работу превратили в модули»
Однако для самих работников процесс создания ИИ-дублёров или даже просто инструкций вызывает чувство отчуждения. Один разработчик, пожелавший остаться анонимным из-за страха за работу, рассказал, что обучение ИИ на своём рабочем процессе ощущалось как дегуманизация: «Моя работа будто превратилась в набор модулей — так её легче заменить».
«Холодное прощание можно превратить в тёплые токены»
На платформе Реднот (Rednote) пользователи шутят в духе чёрного юмора: «Если я первым превращу коллег в задачи, может, сам проживу подольше».
Саботаж как сопротивление
В ответ на тренд появилось и сопротивление. 26-летняя Коки Сюй (Koki Xu), менеджер по ИИ-продуктам из Пекина, опубликовала в апреле на GitHub «антидистилляционный» навык. Инструмент, созданный за час, мешает автоматизации, переписывая рабочие инструкции на расплывчатый, бесполезный язык. Есть три уровня саботажа — лёгкий, средний и сильный — в зависимости от того, насколько пристально начальство следит за процессом.
Видео о проекте набрало более 5 миллионов лайков. «Я сначала хотела написать статью, но решила, что полезнее сделать что-то, что сопротивляется», — говорит Сюй.
Правовые и этические вопросы
Сюй, имеющая степени бакалавра и магистра права, отмечает: тренд поднимает вопросы собственности. Хотя переписка и файлы на рабочем устройстве могут считаться корпоративной собственностью, личные черты — тон, стиль, суждения — уже не так просто отнести к компании. «Я надеюсь, что Colleague Skill спровоцирует обсуждение о том, как защищать достоинство и идентичность работников в эпоху ИИ», — говорит она.
Сама Сюй — активный пользователь ИИ: у неё семь агентов ОпенКлоу (OpenClaw) на личных и рабочих устройствах.
«Меня не заменят, но обесценивают»
Амбер Ли отмечает: её компания пока не может заменить людей ИИ — технологии недостаточно надёжны и требуют постоянного контроля. «Я не чувствую, что работа в опасности, — говорит она. — Но чувствую, что мою ценность обесценивают. И не знаю, что с этим делать».