Деквалификация через ИИ: нас предупреждали. Теперь это реальность

Деквалификация через ИИ: нас предупреждали. Теперь это реальность

Мы давно слышим о вреде ИИ для мозга — от «ИИ-деградации» до «ИИ-психоза». Но куда серьёзнее его влияние на профессиональные навыки. Растущая зависимость от искусственного интеллекта на рабочем месте приводит к реальной потере квалификации. Это не гипотеза — это уже происходит.

История из практики: опыт Джоша Андерсона

Business Insider опубликовала историю Джоша Андерсона, опытного софтверного консультанта, который попытался с помощью ИИ написать приложение Road Trip Ninja целиком. Поначалу всё шло гладко, но по мере роста кодовой базы до 100 000 строк процесс превратился в рутину.

Объём кода, сгенерированного ИИ, оказался почти невозможно отлаживать без подробных комментариев. Хотя Андерсон мог вмешаться и переписать всё сам, разобраться в чужом, пусть и машинном, коде было крайне сложно.

Его случай вскрыл серьёзную проблему: использование генеративного ИИ снижает навыки программистов в отладке и понимании кода. Anthropic подтвердила это — такие инструменты ведут к утрате критических компетенций.

Возникает вопрос: а сможет ли специалист вообще взять на себя задачу, если ИИ не справится?

Не только один случай

Проблема не ограничивается одним экспериментом. Во время сбоя Claude разработчики отметили, что без ИИ-ассистента задачи стали значительно сложнее. Это свидетельствует о глубокой зависимости от технологий.

Такая зависимость — не просто неудобство. Это опасность системного характера.

«Эффект отскока ИИ»

Джош Носта назвал это «эффектом отскока ИИ» — когда рост производительности маскирует утрату навыков.

«Когда автоматизация берёт на себя детали, ситуационная осведомлённость притупляется. Мы меньше сканируем, меньше предвидим и делаем меньше микрокорректировок. Ментальные модели, на которые мы полагаемся в сложных ситуациях, сжимаются. Со временем это не просто приостановка навыка — это эрозия. И когда технология отступает, навык может вернуться ниже исходного уровня».

Навыки — это мышцы. Без тренировки они атрофируются. ИИ, беря на себя когнитивную нагрузку, лишает специалистов этой тренировки.

«Когнитивный долг»

Доктор Ребекка Хиндс называет это «когнитивным долгом». Когда ИИ используется как ярлык, работники перестают тренировать критическое мышление и экспертизу.

В результате развивается ложная уверенность. Люди перестают замечать ошибки — потому что привыкли полагаться на систему.

Хиндс предлагает использовать ИИ в связке с экспертами: пусть предлагает варианты, но решения остаются за человеком. Однако на практике так редко происходит.

ИИ-деквалификация: не гипотеза, а реальность

ИИ-деквалификация — это процесс, при котором автоматизация смещает когнитивную нагрузку с человека на машину. Но именно эта нагрузка формирует и поддерживает навыки. Убрав её, мы теряем экспертизу.

Это не теория. Есть данные:

  • Исследование 2023 года (JYX) показало, что автоматизация в бухгалтерии привела к эрозии навыков и снижению критического мышления.
  • Исследование Carnegie Mellon (2025, при поддержке Microsoft) опросило 319 работников умственного труда и выявило серьёзную утрату критических навыков из-за ИИ.
  • Недавнее исследование в медицине показало: ИИ-усиление размывает навыки врачей. Без ИИ их производительность падает ниже прежнего уровня.

Почему это важно?

Даже если ИИ повышает эффективность, утрата навыков всё равно критична. Вот почему.

Во-первых: нельзя полагаться на ИИ

Системы вроде Claude и ChatGPT могут выходить из строя. Представьте, что врач не может поставить диагноз, потому что ИИ оффлайн.

Кроме того, обновления могут менять поведение ИИ, нарушая привычные рабочие процессы. В такие моменты критические навыки становятся незаменимы.

Во-вторых: откуда брать данные для обучения?

ИИ обучается на данных, которые генерируют квалифицированные специалисты. Если эти специалисты деквалифицируются, качество данных падает. В итоге — хуже работает и сам ИИ.

В-третьих: ИИ-компании могут исчезнуть

Многие ИИ-компании не прибыльны. Их банкротство — вопрос времени. Зависимость от таких технологий — рискованная стратегия.

В-четвёртых: ИИ — не полное решение

ИИ не заменяет навыки — он лишь временно их маскирует. Как в случае с Джошем Андерсоном: ИИ не смог завершить задачу, и требовался человек, способный понять, отладить и собрать код воедино.

Деквалификация остаётся незамеченной — до тех пор, пока не возникнет критическая ситуация, которую некому будет решать.

Пример Amazon

Amazon уволил часть инженеров, пытаясь заменить их ИИ-усилением оставшихся. Но уволенные обладали экспертизой в предотвращении сбоев. Без них — волна масштабных, дорогих сбоев.

Технологии не компенсировали утрату знаний.

И всё это — напрасно?

Возможно, да. Исследование Anthropic показало: прирост производительности от ИИ-инструментов в кодировании не достиг статистической значимости.

Получается проигрыш-проигрыш: ИИ не ускоряет работу, но при этом разрушает навыки, которые всё ещё необходимы.

Это проблема всей отрасли?

Да. Опрос METR в 2025 году показал: ИИ-инструменты замедляют опытных программистов на 20%. Время на исправление ошибок ИИ превышает сэкономленное.

Но опрос 2026 года признали «ненадёжным» — слишком мало программистов готовы работать без ИИ. При этом прироста производительности нет. Почему?

Потому что многие уже прошли через деквалификацию. Без ИИ они просто не могут работать.

Вторичная проблема

Около 84% программистов используют ИИ-ассистенты. Это значит, что найти контрольную группу для исследований — всё труднее. Будущие данные могут быть искажены.

Что всё это значит?

Без ограничений ИИ — это угроза коллективной квалификации. Он размывает навыки не у отдельных людей, а у целых отраслей.

Проблема масштабная. И она коснётся всех нас.

Как её решать — вопрос отдельного разговора. Регулирование, расширение прав работников, корпоративная ответственность — возможные пути. Но главное — осознать: нас предупреждали. И мы не послушали.

Читать оригинал