Немного про AI для догоняющих

Немного про AI для догоняющих

Не тот мудр, кто знает всё, а тот, кто знает, кого спросить.

Немного введения

Искусственный интеллект (AI) перестал быть уделом исследователей и энтузиастов. Он активно вошёл в повседневную работу инженеров, аналитиков, менеджеров и всех, кто работает с текстом, кодом или данными.

Многие коллеги либо не используют AI-ассистентов вообще, либо применяют их на уровне «задай вопрос — получи ответ». При этом они не понимают, за что платят, какие бывают модели и как извлечь из них реальную пользу.

В этой статье — понятный обзор AI-ассистентов: что это такое, какие бывают, сколько стоят, как с ними работать, что такое промты и MCP-серверы. Математику нейросетей я опущу, сосредоточусь на практике.

Что такое AI-ассистент и зачем он нужен

Под AI в этой статье я имею в виду большие языковые модели (LLM). Это программы, обученные на огромных объёмах текста. Они генерируют осмысленный текст, код, анализируют документы и решают разные задачи.

Представьте очень начитанного собеседника, прочитавшего почти весь интернет. Вы задаёте вопрос — он отвечает своими словами, опираясь на усвоенные закономерности.

AI-ассистенты помогают:

  • писать и редактировать тексты (письма, документация);
  • генерировать и отлаживать код;
  • анализировать документы, таблицы, логи;
  • переводить тексты с учётом контекста;
  • создавать изображения по описанию;
  • искать информацию;
  • проводить мозговой штурм и генерировать идеи.

AI — не замена специалисту, а инструмент, ускоряющий работу. Как IDE по сравнению с блокнотом: писать можно и в блокноте, но зачем, если есть эффективные инструменты?

Как работает взаимодействие с AI

Представьте умного попугая, прочитавшего всю мировую библиотеку. Вы говорите фразу — он подбирает наиболее вероятное следующее слово. Потом ещё одно. Так формируется ответ.

Технически: ваш текст разбивается на токены (примерно как слоги), превращается в числа и проходит через нейросеть. Это гигантская таблица вероятностей: для каждого набора входных токенов модель предсказывает следующий.

Модель не «думает» и не «понимает» текст, как человек. Она просто отлично предсказывает, какой текст будет уместен. Результат настолько хорош, что разница на практике часто незаметна.

Когда вы общаетесь с ChatGPT или Claude, вы по сути отправляете числа в мощный калькулятор, а обратно получаете текст. Вот и вся «магия».

Локальная LLM

Локальная LLM — это модель, запущенная на вашем компьютере. Например, через Ollama. Вы скачиваете файл с весами («мозг» модели), и она работает прямо на вашем железе.

Текст превращается в токены, обрабатывается нейросетью на вашем GPU или CPU. Ответ генерируется по токенам, и всё происходит без интернета.

Плюсы:

  • ваши данные не покидают устройство;
  • полностью бесплатно (платите только за электричество);
  • работает без интернета;
  • полный контроль: можно дообучить модель, выбрать любую из открытых, настроить параметры.

Минусы:

  • нужно мощное железо (GPU от 8 ГБ VRAM, лучше 16+);
  • качество слабее, чем у облачных моделей (например, GPT-5 или Claude Opus);
  • самостоятельная настройка и обновление;
  • нет встроенных инструментов — только текст «вопрос-ответ».

Как я использую локальные LLM:

  • обработка клиентских данных с векторной базой;
  • анонимизация данных перед отправкой в облако;
  • работа в роли агента с собственными tools/skills.

Облачная LLM

Здесь модель работает на серверах провайдера. Вы пишете в интерфейсе (например, claude.ai), текст уходит по HTTPS на серверы Anthropic или OpenAI. Там он обрабатывается на мощных GPU (A100, H100), и ответ возвращается вам — часто по словам, в режиме стриминга.

Преимущество: вам не нужно думать о железе. Провайдер использует модели с сотнями миллиардов параметров на дорогом оборудовании. Вы платите за подписку или за токены через API.

Основные AI-ассистенты

ChatGPT (OpenAI)
Один из самых известных. Модели — GPT-5.x. Универсальный помощник: текст, код, изображения (через DALL-E), анализ данных.

Claude (Anthropic)
Модели — Claude Opus 4.6, Sonnet 4.6, Haiku 4.5. Отличается «непроботизированным» стилем. Силен в анализе длинных текстов, написании кода, создании документов (Word, Excel, PPT) и React-компонентов.

Gemini (Google)
Модели — Gemini 3.x. Главное преимущество — интеграция с Google Workspace (Gmail, Docs, Drive). Поддерживает большие контекстные окна и мультимодальность (текст, изображения, видео).

Grok (xAI)
Разработан Илоном Маском. Доступен через X (бывший Twitter). Бюджетный по цене API, с разговорным стилем общения.

Copilot (Microsoft)
Интегрирован в экосистему Microsoft: Office 365, Windows, VS Code.

На рынке два лидера по качеству: Anthropic (Claude) и ChatGPT.

Если вы программист, работающий с большими проектами, выбирайте Claude Opus 4.6. Он сильнее в анализе, создании документов, рисовании схем. ChatGPT хорош в исследовательских задачах и анализе API, но работает медленнее. Может генерировать изображения.

За что мы платим и какие бывают аккаунты

Бесплатные версии ограничены:

  • доступ к слабым моделям;
  • лимиты на сообщения;
  • отсутствие продвинутых функций (изображения, файлы, Deep Research).

Подписка открывает доступ к мощным моделям. Качество зависит от модели: для простых задач подойдёт любая, для анализа контракта или сложного алгоритма — флагманская.

Подписка vs API

Подписка (например, Claude Pro за $20/мес) — это не безлимит. У каждого провайдера свой лимит: по сообщениям или токенам. При превышении — пауза. Для обычного использования хватает. Платят, чтобы не ждать.

API — оплата за использованные токены. Как счётчик электроэнергии. Нужен разработчикам, которые встраивают AI в продукты. Для бизнеса — основной способ.

Рекомендации:

  • разработчики и небольшие команды — подписка Max (Anthropic) или Pro 10x (OpenAI);
  • обычные пользователи — Claude Pro или ChatGPT Plus (~$20/мес).

Платные планы (на середину 2026 года)

  • ChatGPT: Plus — $20/мес, Pro — $200/мес, Team — $25–30/мес на пользователя;
  • Claude: Pro — $20/мес, Max — $100–200/мес, Team — $25–30/мес на пользователя;
  • Gemini: AI Pro — $19.99/мес, AI Ultra — $249.99/мес;
  • Grok: SuperGrok — $30/мес, Heavy — $300/мес.

Преимущества и недостатки облачного AI

Плюсы:

  • доступ к самым мощным моделям;
  • не нужно покупать железо;
  • модели обновляются автоматически;
  • можно начать за 30 секунд.

Минусы:

  • ваши данные уходят на сервер провайдера;
  • нужен интернет;
  • платная подписка для полного функционала;
  • вы зависите от провайдера (цены, доступность, изменения в моделях).

AI-агенты: когда AI выходит за рамки текста

LLM — это мозг в банке. Он думает, но не может ничего делать. AI-агент — это тот же мозг, но с руками, ногами и инструментами: может заходить в интернет, писать код, отправлять письма, создавать задачи.

Разница как между человеком в пустой комнате и человеком с компьютером и доступом ко всем системам.

Вы уже работаете с агентом, когда открываете ChatGPT или Claude. Степень автономности зависит от среды.

Форматы AI-агентов

Десктопные приложения (Claude Desktop, ChatGPT Desktop)
То же, что в браузере, но как отдельная программа. Может взаимодействовать с локальной системой. Главное преимущество Claude Desktop — поддержка MCP-серверов (доступ к файлам, Git, базам данных).

Терминальные агенты (Claude Code, OpenAI Codex CLI)
Работают в командной строке. Читают файлы проекта, пишут и запускают код, исправляют ошибки. Как программист-напарник в терминале. Требует навыков работы с CLI.

IDE-расширения (GitHub Copilot, Claude Code для VS Code, Cursor)
Золотая середина. Агент встроен в среду разработки. Видит код, предлагает автодополнение, объясняет ошибки, рефакторит, пишет тесты. Cursor — это отдельная IDE, построенная вокруг AI.

Важно: все эти приложения используют облачные модели. Они не локальные, как Ollama.

Что такое токены

Токен — минимальная единица текста для модели. Это не слово и не слог, а что-то среднее. В английском одно слово — 1–1.3 токена. «Hello» — один токен. «Unfortunately» — может быть одним, если модель часто его встречала.

Русский текст обходится в 2–3 раза дороже английского. «Привет» — 2–3 токена, «hello» — один. Причина: модели обучались в основном на английском, кириллица режется на мелкие куски.

Одна страница А4 — 500–700 токенов на английском, 1000–1500 — на русском. Книга в 300 страниц — около 200 000 токенов. Это почти весь контекст Claude (200k). Поэтому загружайте большие документы в начале чата.

Что важно знать при работе с AI-агентом

Контекстное окно — главное ограничение
Это объём информации, который агент может «держать в голове». Измеряется в токенах: у Claude — до 1 млн (Opus 4.6), у GPT — до 128 тыс. или 1 млн. В него входят: промт, диалог, файлы, результаты инструментов.

Когда окно заполняется, агент «забывает» начало разговора. Это не баг, а архитектурное ограничение.

Сжатие контекста
Некоторые агенты (Claude Code, Codex) умеют суммаризировать старую часть диалога, сохраняя ключевые решения. Но часть деталей теряется. Если агент «плывёт» — лучше начать новый чат, кратко пересказав суть.

Когда контекст заканчивается, попросите агента сохранить результаты в файл. В следующей сессии он прочитает его и «вспомнит» всё.

CLAUDE.md / agents.md — инструкция для агента
Файл в корне проекта, который автоматически подгружается в контекст. Это «бриф» для AI: технологии, соглашения по коду, структура, команды запуска. Без него агент каждый раз начинает с нуля.

Рекомендую создавать CLAUDE.md в каждом серьёзном проекте — это как README, но для AI.

PRD — главный инструмент при работе с агентом
Product Requirements Document — подробное описание того, что вы хотите. Чем детальнее, тем лучше результат. Вместо «сделай API для пользователей» — укажите эндпоинты, модели, валидацию, роли, примеры.

Я часто прошу AI помочь мне написать PRD, потом правлю и отдаю ему как задание.

Делите сложные задачи на подзадачи
Если попросить агента за один раз написать приложение с авторизацией, БД, API, тестами и деплоем — результат будет плохим. Он запутается.

Правильно: декомпозиция. Сначала структура, потом модели, потом эндпоинты, тесты, интеграция. Каждая подзадача — отдельный запрос или чат.

Есть инструменты (например, RalphTUI), которые помогают организовать цикл агента. Claude и Codex частично поддерживают автодекомпозицию, но результат пока неидеален.

Всегда проверяйте результат
AI не безошибочен. Может написать код с логической ошибкой, сослаться на несуществующую функцию, удалить нужный файл.

Правило: после каждой задачи — ревью. Для кода: тесты, линтер, ручная проверка. Для текста: вычитка. Для файлов: git diff.

Git — ваша страховка
Перед любой задаче — коммит. Лучше создать отдельную ветку. Агент может переписать код, удалить нужные функции, «отрефакторить» рабочее в нерабочее. Коммит позволяет откатиться.

Один агент — один фокус
Не смешивайте задачи в одном чате: архитектура, баг, документация. Каждая тема — отдельный чат. Иначе агент путается, контекст перегружается, качество падает.

Промт «подумай пошагово» — не шутка
Для сложных задач добавляйте: «рассуждай пошагово» или используйте режим Extended Thinking (Claude) / Chain of Thought (GPT). Модель «думает вслух», разбивает задачу, анализирует шаги. Качество резко растёт.

Давайте агенту примеры
Хотите определённый стиль кода или формат? Не описывайте — покажите пример. «Напиши тесты» — один результат. «Напиши тесты в таком стиле: [пример]» — другой. Модели отлично учатся на примерах.

Используйте скриншоты и файлы
Современные агенты понимают изображения. Присылайте скриншот бага или загружайте документ целиком, а не копируйте текст. Чем больше контекста — тем точнее ответ.

Помните про галлюцинации
AI может уверенно выдать ложь: несуществующий метод, вымышленную библиотеку, неверную команду. Это галлюцинации. Происходят, потому что модель генерирует вероятный текст, а не проверяет факты.

Правило: всё, что касается имён функций, версий, синтаксиса — проверяйте по документации.

Безопасность
Приложения и CLI с AI работают в режиме пониженных привилегий. На действия с файловой системой агент спрашивает разрешение. Но запросы могут быть назойливыми. Вы решаете: давать больше прав или отвечать вручную.

Стоимость ошибки агента
Агент может зациклиться — и это дорого.

  • Через API — ставьте лимиты по деньгам и запросам.
  • Не оставляйте агента без присмотра, особенно с доступом к важным системам.
  • Для экспериментов используйте песочницу: отдельная ветка, тестовая БД, Docker-контейнер. Цена ошибки в продакшене может быть высокой.

Учитель сказал: каков вопрос — таков и ответ. Кто спрашивает лениво — получает пустоту. Кто спрашивает точно — получает силу.

Учитесь писать чёткие промты. Пользуйтесь AI, чтобы он помогал вам их улучшать.

MCP-серверы: когда AI выходит за рамки текста

MCP (Model Context Protocol) — открытый протокол от Anthropic (ноябрь 2024), принятый OpenAI и Google. В декабре 2025 передан в Agentic AI Foundation (Linux Foundation).

Если просто — MCP это «USB-C для AI». Единый стандарт подключения AI к внешним сервисам и данным.

По умолчанию AI изолирован. MCP даёт ему доступ к:

  • файловой системе;
  • базам данных;
  • внешним API (GitHub, Slack, Notion, Jira, Gmail);
  • поисковикам;
  • специализированным инструментам.

Как работает MCP

Архитектура MCP:

  • MCP Host — приложение (Claude Desktop, Cursor, VS Code). Содержит LLM.
  • MCP Client — посредник между моделью и сервером. Переводит запросы в формат протокола.
  • MCP Server — внешний сервис, предоставляющий данные или действия. Объявляет свои инструменты.

Коммуникация — по JSON-RPC 2.0 в рамках stateful-сессии.

Пример работы MCP

Вы: «Найди последний отчёт о продажах и отправь менеджеру».

Без MCP: «Я не могу получить доступ к БД или email».

С MCP:

  1. AI понимает, что нужны два инструмента: запрос к БД и отправка email.
  2. Через MCP-клиент находит серверы: database_query и email_sender.
  3. Формирует запрос к БД — получает данные.
  4. Формирует запрос к email — отправляет письмо.
  5. Отвечает: «Нашёл отчёт и отправил менеджеру».

Доступные MCP-серверы

На данный момент доступны серверы для:

  • Git/GitHub/GitLab — работа с кодом, коммиты, PR;
  • Slack — чтение и отправка сообщений;
  • Notion — управление базами знаний;
  • PostgreSQL / MySQL — выполнение запросов;
  • Brave Search — поиск в интернете;
  • Файловая система — чтение и запись файлов;
  • Docker — управление контейнерами.

Полный каталог — на GitHub: modelcontextprotocol.

MCP в геймдеве: Unity и Unreal Engine

Для Unity есть MCP-сервер «mcp-unity». Вы подключаете его к Claude Code, Cursor или VS Code — и управляете редактором естественным языком.

Говорите: «создай красный, синий и жёлтый куб» — агент создаёт объекты. «Собери контроллер игрока» — пишет скрипт, настраивает физику.

Агент работает прямо в редакторе: создаёт объекты, редактирует скрипты, управляет ассетами, запускает профилировщик.

Это не генерация кода — это второй разработчик внутри Unity.

Пример показывает суть MCP: один протокол, одна модель, разные серверы — разные возможности. Сегодня Unity, завтра CI/CD, послезавтра — автомобиль или ракета.

Заключение

AI-ассистенты в 2026 — не игрушка, а рабочий инструмент, экономящий часы ежедневно. Ключевые выводы:

  1. Учитесь писать промты — это главный навык. Чёткий запрос = качественный результат.
  2. Учитесь писать скиллы — типовые задачи с инструкциями для агента.
  3. Выбирайте AI под задачу: ChatGPT — универсал, Claude — код и документы, Gemini — Google-интеграция.
  4. Изучите MCP — особенно если вы разработчик. Это будущее интеграции AI с инструментами.

AI не заменит специалиста. Но специалист с AI заменит того, кто его не использует. Чем раньше начнёте — тем больше преимуществ.

P.S. Последний абзац написан без участия AI. Или нет. Вы уже не можете быть уверены — и в этом часть идеи статьи.

Читать оригинал