Я расскажу, как настроить локального агента на базе LLM, который будет генерировать код, писать тесты и вставлять результат прямо в ваш проект — полностью оффлайн.
⚠️ Важно: это не полноценный «агент» в современном понимании (с планированием, памятью и т.д.). Но плагин Continue именно так его называет, и я буду придерживаться этой терминологии.
Возможности локального ИИ напрямую зависят от вашего железа. Чем мощнее машина — тем больше контекст и выше качество. Однако подобрать модель можно практически под любой ПК. Просто она будет иметь меньше памяти, токенов и более скромные возможности.
Никаких «это только для избранных» — я покажу, как всё настроить. Вы сами выберете модель под свои ресурсы.
Что потребуется
- Ollama (или LM Studio — настройка LM Studio описана в другой статье).
- IntelliJ IDEA (Community или Ultimate — без разницы).
- Плагин Continue для IDE.
Это весь необходимый инструментарий. Теперь разберём каждый шаг подробно.
Шаг 1: Установка Ollama
- Скачайте установщик с официального сайта.
- Запустите и установите — все настройки по умолчанию подойдут.
Проверка установки
- Нажмите Win + R, введите powershell, нажмите Enter.
- В открывшемся окне выполните:
Если отображается версия — Ollama установлена успешно.
Шаг 2: Загрузка моделей
Нам понадобятся две модели:
- Генеративная LLM — будет писать код и отвечать на вопросы.
- Embedding-модель — будет индексировать проект, разбивать его на чанки и искать контекст.
Embedding-модель нужна для функции Index — она делает код проекта доступным для поиска по смыслу.
В PowerShell введите команды по очереди:
Пример из жизни автора: на скриншоте использовался qwen2.5-coder:14b, потому что версия 30b уже была скачана.
Системные требования (пример автора)
- 32 ГБ DDR5
- Intel 12900K
- NVIDIA RTX 4090 24 ГБ
Если у вас конфигурация скромнее — выбирайте модель поменьше, например:
- qwen2.5-coder:7b
- codellama:13b
- deepseek-coder:6.7b
После загрузки модель автоматически запустится в интерактивном режиме — вы попадёте в чат с LLM. Чтобы выйти, введите /exit.
Проверьте, что обе модели загружены:
Вы должны увидеть nomic-embed-text и выбранную вами coder-модель. Теперь PowerShell можно закрыть.
Шаг 3: Установка IntelliJ IDEA и плагина Continue
3.1. Установка IDE
Если IntelliJ IDEA ещё не установлена — скачайте с официального сайта и установите. Подойдёт любая версия.
3.2. Установка плагина Continue
Способ 1 (через Marketplace): File → Settings → Plugins → Marketplace → найдите Continue → установите.
Способ 2 (вручную, если Marketplace недоступен):
- Скачайте последнюю версию плагина (файл .jar) с официального релиза.
- В IDE: Settings → Plugins → ⚙️ → Install plugin from disk… → выберите .jar-файл.
- Перезапустите IDE.
После установки в правом верхнем углу появится иконка виджета Continue.
Шаг 4: Настройка config.yaml
Это самый ответственный этап. Откройте конфигурационный файл Continue:
- В виджете Continue нажмите на шестерёнку → config.yaml.
- Скопируйте туда приведённое содержимое, адаптировав под свои модели (замените qwen3-coder:30b на ту, которую скачали).
💡 Пояснение параметров: contextLength — максимальная длина контекста (токенов). У каждой модели есть свой предел; слишком большое значение вызовет ошибку. temperature — при 0.2 модель будет «серьёзной», почти без выдумок. chunkOverlap — помогает не терять смысл на границах чанков.
После редактирования сохраните файл.
Шаг 5: Индексация проекта и первый запуск
5.1. Перезапустите IDE с очисткой кеша
File → Invalidate Caches... → Invalidate and Restart
5.2. Запустите индексацию проекта
В виджете Continue нажмите Index → Click to re-index.
Если возникли ошибки, удалите папки index и logs из директории: C:\Users\<Ваше_имя_пользователя>\.continue. Continue пересоздаст их при следующей попытке.
5.3. Переключите режим с «Chat» на «Agent»
В виджете найдите переключатель внизу (или в выпадающем меню) и выберите Agent вместо Chat.
В режиме Agent Continue может сам применять изменения к файлам (создавать, редактировать, удалять). Для этого используется кнопка Apply.
Пример работы: генерация сортировки пузырьком
- Откройте файл, в который хотите вставить код (или создайте новый).
- В чате Continue напишите:
Чтобы привязать конкретный файл (или несколько), используйте @ и выберите нужные файлы из подсказок. Например: @src/main/java/MyClass.java
- Модель сгенерирует ответ. Если код вас устраивает, нажмите Apply — IDE вставит его в указанные файлы и подсветит изменения.
Заключение
Теперь у вас есть локальный LLM, который:
- видит весь проект (благодаря эмбеддингам и индексации),
- может писать тесты, рефакторить код, отвечать на вопросы по кодовой базе,
- сам вставляет код в нужные файлы — одним кликом.
Конечно, это не замена облачным гигантам вроде GPT-4 или Claude. Но это идеальное решение, если:
- вы работаете с закрытым кодом и не можете отправлять его в облако,
- у вас нет доступа к интернету,
- вы просто любите экспериментировать с локальными моделями.
Успешной кодировки!