В этом посте я покажу, как использовать Continue Plugin вместо GitHub Copilot, подключив к нему собственную локальную модель LLM без доступа к интернету. Такой подход обеспечивает максимальную конфиденциальность: ни IDE, ни LM Studio не имеют возможности передавать ваши файлы в облако.
Никакой сети – всё работает только в вашем компьютере.
Что такое Continue и зачем он нужен
Плагин |
Функции |
Как работает |
---|---|---|
Continue |
Генерация кода, исправление ошибок, чат‑режим по коду |
Делает запросы к выбранному LLM‑провайдеру (в нашем случае – LM Studio) через HTTP/REST на |
Если вы используете GitHub Copilot, ваш код отправляется в облако.
Continue с локальной моделью никогда не покидает вашу машину.
1) Установка и настройка LM Studio
Устанавливаем LMStudio с офф сайта.

Выберите Windows → скачайте
LMStudio-<версия>-win64.exe
.-
Запустите установщик, следуйте мастеру:
Путь установки – любой удобный (рекомендуется
C:\Program Files\LM Studio
).Тип пользователя – выберите Developer (позволяет смотреть логи и управлять моделью).
Если вы случайно пропустили не переживайте эта плашка находится в левом нижнем углу.

Первая модель
Откройте LM Studio.
В строке поиска введите, например,
Qwen-3.0-Coder-30B
.Убедитесь, что выбран формат GGUF (быстрее и легче).
Нажмите Download – модель скачается в
LM Studio\llms\<название>
.В меню слева выберите Models → убедитесь, что галочка стоит рядом с вашей моделью.



Включение локального сервиса
Откройте
Settings
(иконка шестерёнки в правом нижнем углу).Перейдите во вкладку LM Studio → Local Server.
Установите флажок Enable local server.
-
Запустите сервер, кликнув Start Server.
Порт по умолчанию:
5000
.
Сохраните настройки.
Проверка работы сервера
Откройте браузер и введитеhttp://localhost:5000/v1/models
– вы увидите список доступных моделей.
2.1) Через Marketplace
В IDE откройте File → Settings (Ctrl+Alt+S).
Выберите Plugins → вкладка Marketplace.
В строке поиска напишите
Continue
.Нажмите Install рядом с плагином (требуется VPN).
После установки перезапустите IDE.
2.2) Через загруженный .jar (если Marketplace недоступен)
Скачайте последнюю версию плагина: .
В Settings → Plugins нажмите Install plugin from disk…, выберите скачанный
.jar
.Перезапустите IDE.

После успешной установки у нас появился дополнительный виджет в который мы переходим находится он в правом верхнем углу.

Добавление модели
Кликните по иконке Llama 3.1 8B → откроется диалог Add Chat model.
Выберите Provider:
LMStudio
.В поле Model выберите
Autodetect
(Continue сам определит, какие модели доступны через LM Studio).Нажмите Connect.


После этого у вас сразу появится окно Config.yaml в котором вы можете устанавливать роли вашего ИИ будет ли он подсказывать вам при написании кода или просто будет в роли чата. Подробнее можно прочитать тут Документация для config.yaml

После того как мы подключились к нашей LMStudio при нажатии на Llama 3.1 8B у нас появился список всех доступных скаченных моделей в LM.

Преимущество заключается в том что при выборе модели и выполнении первого запроса LMStudio сама проинициализирует и загрузит необходимую нам ИИ модель.
Теперь можно проверить работает ли наш ИИ пишем в окне справа текст и ждем ответа.

Отлично теперь можно проверить как отрабатывает ИИ в работе с кодом. Делается это путем команд:
Горячая клавиша |
Что делает |
---|---|
|
Отправляет выделенный/текущий фрагмент кода на обработку (получает автодополнение, исправления). |
|
Копирует выбранный код в чат‑панель Continue для дальнейшего обсуждения. |
|
Открывает контекстное меню с предложениями от модели (если включена функция «Smart Completion»). |

Путем нажатием на кнопки или горячие клавиши вы можете подтверждать замену кода или отклонять предложенные варианты.

Так же присутствует вариант с дополнением кода, добавляется путем дополнения ролей в config.yaml
3) Полная изоляция от интернета
Настройка прокси IntelliJ
В Marketplace → Settings → HTTP Proxy
-
Выберите Manual proxy configuration:
Host name:
127.0.0.1
Port number:
5000
(порт, который слушает LM Studio)
В поле No proxy for укажите ваш локальный IP‑адрес (без префикса https).
Нажмите OK.
Теперь все запросы из IntelliJ проходят только через
localhost
.

Блокировка LM Studio в Windows Firewall
Запустите Брандмауэр Защитника Windows → Дополнительные параметры.
В левой панели выберите Правила для исходящего подключения → Создать правило….
Укажите Для программы и нажмите Далее.
Введите путь к файлу LMStudio.exe (обычно
C:\Program Files\LM Studio\LMStudio.exe
) → Далее.Отметьте Блокировать подключение → Далее.
Отметьте все три профиля: Доменные, Частные, Общедоступные → Далее.
Введите имя (например, "Блокировка исходящих подключений LM Studio") → Готово.
Теперь исходящие соединения для LM Studio будут заблокированы.
Если хотите также запретить входящие подключения, создайте аналогичное правило в разделе Правила для входящего подключения.
Итоги
Вы получили полностью офлайн‑среду автодополнения кода.
GitHub Copilot больше не нужен; все запросы идут только на
localhost
.Конфиденциальность гарантирована: ни IDE, ни LM Studio не имеют доступа к внешним серверам.
Если вам нужна ещё более изолированная среда, просто перенесите всю конфигурацию (LM Studio + IntelliJ + Continue) в виртуальную машину или Docker‑контейнер без сети.