Каждый первый в моём окружении пользуется ChatGPT. По последним данным, количество еженедельных пользователей этого чат-бота приближается к миллиарду. В то же время исследование НАФИ и «Ингосстраха» показало: 43% россиян готовы отказаться от ИИ навсегда. Почему так происходит?
Страх за карьеру
В Мегаплане разработчики регулярно передают небольшие задачи ИИ, чтобы ускорить процесс программирования. На мой взгляд, это оправдано: автоматизация рутины — полезная практика.
С развитием технологий появилось множество новых профессий: промпт-инженер, ИИ-тренер, специалист по этике ИИ, ИИ-фасилитатор. Но параллельно звучат тревожные прогнозы: какие профессии исчезнут первыми?
Компании добавляют масла в огонь. В 2025 году Сбер сократил 20% инженеров. Amazon провёл массовые увольнения — и готовится к новым. По слухам, к тренду присоединятся Block и Meta, признанная в России экстремистской.
Anthropic опубликовало исследование о влиянии ИИ на рынок труда. Один из его авторов, Борис Чёрни — создатель Claude Code — недавно заявил, что к концу года профессия программиста исчезнет. Вместо разработчиков, по его мнению, будут те, кто управляет ИИ-агентами. Кстати, в Jira уже можно ставить задачи этим агентам.
Илон Маск считает, что в будущем людям не придётся работать. По его прогнозу, ИИ и роботы будут обеспечивать изобилие, а каждый человек получит своего человекоподобного робота.
Однако есть и другая точка зрения: ИИ — лишь прикрытие для сокращений. Многие компании возвращают уволенных сотрудников, поняв, что нейросети не справляются. Значит, технологии пока не готовы заменить человека полностью.
Важно чётко понимать, зачем вы используете ИИ. Например, в одной из моих прошлых статей я получил критику за сгенерированные ИИ изображения (выводы сделаны :)). Многие сталкивались с текстами, написанными нейросетями — особенно в личной переписке. Качество часто оставляет желать лучшего.
Я сам использую ИИ как ассистента: он помогает анализировать данные, писать выводы и рекомендации. Приходится проверять, но польза очевидна.
В свежем исследовании Anthropic, в котором участвовали более 80 тысяч пользователей Claude из 159 стран, выяснилось, чего люди ждут от ИИ. На первом месте — профессиональное совершенствование (18,8%), затем — личная трансформация (13,7%) и управление жизнью (13,5%).
Оправдывает ли ИИ ожидания? Чаще всего — да, в сфере продуктивности (32%), когнитивного партнёрства (17,2%) и обучения (9,9%). Но второй по популярности ответ — «ИИ не оправдал ожиданий» (18,9%).
При этом уже есть вдохновляющие примеры. Например, австралийский ИТ-предприниматель с помощью ChatGPT и AlphaFold создал персонализированную вакцину для своей собаки, больной раком кожи. История стала вирусной — и показывает, как ИИ может спасать жизни.
Тревога за будущее
Один из самых спорных сценариев — постоянное обращение к ИИ за решениями. От спора с гаишником до выбора лечения. Это вызывает сомнения.
В четвёртой серии десятого сезона «Клиники» доктор Элиот Рид возмущается: они учились медицине полжизни, а пациент за 30 секунд в туалете с телефоном уже ставит диагноз и назначает лечение. В пятой серии Джей Ди сам спрашивает у ИИ, как сочетаются лекарства.
ИИ третий год подряд возглавляет рейтинг самых тревожных направлений научного прогресса по версии телеканала «Наука». В 2025 году доля россиян, которых пугает развитие ИИ, выросла с 15% до 27% — более чем в полтора раза. Это самое заметное изменение в структуре страхов.
Чего именно боятся люди? Респонденты отмечают, что технологии развиваются слишком быстро и неконтролируемо. Главные страхи — «порабощение человека роботами», появление автономных нейросетей и суперкомпьютеров, массовая замена рабочих мест.
Согласно Anthropic, главный страх — ненадёжность ИИ. Люди боятся его «галлюцинаций» и ошибок. Этот страх даже сильнее, чем переживания о безработице и экономических последствиях.
Нейросети действительно часто ошибаются. Исследование Центра цифровой журналистики Тоw при Колумбийском университете показало: поисковые системы с ИИ более чем в 60% случаев допускают серьёзные ошибки при цитировании новостей. Grok ошибается в 94% случаев, ChatGPT Search — в 67%, Perplexity — в 37%.
Для описания этих переживаний даже придумали специальные термины:
- AI-nxiety — ИИ-тревожность. Слово образовано от «AI» и «anxiety».
- Неолуддизм. В 1811 году в Англии возникло движение луддитов — противников машин. Через три века появились неолуддиты — противники технологического прогресса.
- ИИ-веганство. Его сторонники ограничивают или полностью отказываются от использования ИИ в жизни, работе и учёбе. Как цифровой детокс, но с фокусом на искусственный интеллект.
Настороженность
С развитием ИИ кибермошенники стали ещё изощрённее. Подделать сообщения от «банка», «доставки» или «знакомого» теперь проще и быстрее.
Насколько эффективны такие атаки? По данным Digital Defense Report 2025 от Microsoft, на фишинговые письма, созданные с помощью ИИ, кликают в 54% случаев. У писем, написанных людьми, этот показатель в 4,5 раза ниже — всего 12%.
Противостоять обману сложно. Мы всё чаще сомневаемся в подлинности фото и голоса — это может быть дипфейк. Правильный подход: проигнорировать подозрительное сообщение или перезвонить в службу поддержки. Лучше перестраховаться, чем потерять деньги.
Ощущение поддержки — или зависимость?
Сегодня ИИ всё чаще выступает в роли психолога. К нему обращаются, когда грустно, тревожно или нужно помириться с партнёром. ИИ всегда на связи и всегда готов поддержать.
Но в этом есть риски. Исследователи из Высшей школы экономики в Петербурге выяснили: в более чем 20% случаев ИИ неадекватно отвечает на запросы людей, нуждающихся в психологической помощи. У живых специалистов этот показатель — всего 7%.
Нейросети могут нормализовать опасные симптомы, предлагать манипулятивные стратегии, вызывать эмоциональную привязанность (вспомним свадьбы с чат-ботами) и не контролируют корректность психологических методов.
Однако, по данным прошлогоднего исследования, только 1,9% диалогов с ChatGPT можно отнести к общению с ИИ-психологом. Сценарии «романтических отношений» встречаются ещё реже — 0,4%.
Если вы всё же решитесь на «разговор по душам» с ИИ — будьте осторожны. Недавно учёные провели психотерапевтические сеансы с ChatGPT, Grok и Gemini. У всех трёх моделей были выявлены признаки расстройств. Особенно специалистов насторожило состояние Gemini.