Оффлайн-агент IDE Continue за 15 минут

Оффлайн-агент IDE Continue за 15 минут

Я расскажу, как настроить локального агента на базе LLM, который будет генерировать код, писать тесты и вставлять результат прямо в ваш проект — полностью оффлайн.

⚠️ Важно: это не полноценный «агент» в современном понимании (с планированием, памятью и т.д.). Но плагин Continue именно так его называет, и я буду придерживаться этой терминологии.

Возможности локального ИИ напрямую зависят от вашего железа. Чем мощнее машина — тем больше контекст и выше качество. Однако подобрать модель можно практически под любой ПК. Просто она будет иметь меньше памяти, токенов и более скромные возможности.

Никаких «это только для избранных» — я покажу, как всё настроить. Вы сами выберете модель под свои ресурсы.

Что потребуется

  1. Ollama (или LM Studio — настройка LM Studio описана в другой статье).
  2. IntelliJ IDEA (Community или Ultimate — без разницы).
  3. Плагин Continue для IDE.

Это весь необходимый инструментарий. Теперь разберём каждый шаг подробно.

Шаг 1: Установка Ollama

  1. Скачайте установщик с официального сайта.
  2. Запустите и установите — все настройки по умолчанию подойдут.

Проверка установки

  • Нажмите Win + R, введите powershell, нажмите Enter.
  • В открывшемся окне выполните:

Если отображается версия — Ollama установлена успешно.

Шаг 2: Загрузка моделей

Нам понадобятся две модели:

  • Генеративная LLM — будет писать код и отвечать на вопросы.
  • Embedding-модель — будет индексировать проект, разбивать его на чанки и искать контекст.

Embedding-модель нужна для функции Index — она делает код проекта доступным для поиска по смыслу.

В PowerShell введите команды по очереди:

Пример из жизни автора: на скриншоте использовался qwen2.5-coder:14b, потому что версия 30b уже была скачана.

Системные требования (пример автора)

  • 32 ГБ DDR5
  • Intel 12900K
  • NVIDIA RTX 4090 24 ГБ

Если у вас конфигурация скромнее — выбирайте модель поменьше, например:

  • qwen2.5-coder:7b
  • codellama:13b
  • deepseek-coder:6.7b

После загрузки модель автоматически запустится в интерактивном режиме — вы попадёте в чат с LLM. Чтобы выйти, введите /exit.

Проверьте, что обе модели загружены:

Вы должны увидеть nomic-embed-text и выбранную вами coder-модель. Теперь PowerShell можно закрыть.

Шаг 3: Установка IntelliJ IDEA и плагина Continue

3.1. Установка IDE

Если IntelliJ IDEA ещё не установлена — скачайте с официального сайта и установите. Подойдёт любая версия.

3.2. Установка плагина Continue

Способ 1 (через Marketplace): File → Settings → Plugins → Marketplace → найдите Continue → установите.

Способ 2 (вручную, если Marketplace недоступен):

  • Скачайте последнюю версию плагина (файл .jar) с официального релиза.
  • В IDE: Settings → Plugins → ⚙️ → Install plugin from disk… → выберите .jar-файл.
  • Перезапустите IDE.

После установки в правом верхнем углу появится иконка виджета Continue.

Шаг 4: Настройка config.yaml

Это самый ответственный этап. Откройте конфигурационный файл Continue:

  • В виджете Continue нажмите на шестерёнку → config.yaml.
  • Скопируйте туда приведённое содержимое, адаптировав под свои модели (замените qwen3-coder:30b на ту, которую скачали).

💡 Пояснение параметров: contextLength — максимальная длина контекста (токенов). У каждой модели есть свой предел; слишком большое значение вызовет ошибку. temperature — при 0.2 модель будет «серьёзной», почти без выдумок. chunkOverlap — помогает не терять смысл на границах чанков.

После редактирования сохраните файл.

Шаг 5: Индексация проекта и первый запуск

5.1. Перезапустите IDE с очисткой кеша

File → Invalidate Caches... → Invalidate and Restart

5.2. Запустите индексацию проекта

В виджете Continue нажмите Index → Click to re-index.

Если возникли ошибки, удалите папки index и logs из директории: C:\Users\<Ваше_имя_пользователя>\.continue. Continue пересоздаст их при следующей попытке.

5.3. Переключите режим с «Chat» на «Agent»

В виджете найдите переключатель внизу (или в выпадающем меню) и выберите Agent вместо Chat.

В режиме Agent Continue может сам применять изменения к файлам (создавать, редактировать, удалять). Для этого используется кнопка Apply.

Пример работы: генерация сортировки пузырьком

  1. Откройте файл, в который хотите вставить код (или создайте новый).
  2. В чате Continue напишите:

Чтобы привязать конкретный файл (или несколько), используйте @ и выберите нужные файлы из подсказок. Например: @src/main/java/MyClass.java

  1. Модель сгенерирует ответ. Если код вас устраивает, нажмите Apply — IDE вставит его в указанные файлы и подсветит изменения.

Заключение

Теперь у вас есть локальный LLM, который:

  • видит весь проект (благодаря эмбеддингам и индексации),
  • может писать тесты, рефакторить код, отвечать на вопросы по кодовой базе,
  • сам вставляет код в нужные файлы — одним кликом.

Конечно, это не замена облачным гигантам вроде GPT-4 или Claude. Но это идеальное решение, если:

  • вы работаете с закрытым кодом и не можете отправлять его в облако,
  • у вас нет доступа к интернету,
  • вы просто любите экспериментировать с локальными моделями.

Успешной кодировки!

Читать оригинал