Подключаем DeepSeek V4 к VS Code бесплатно

Гонять тяжелые языковые модели на рабочем железе больно, а платить за каждую подписку накладно. Мы настроим связку из утилиты Ollama и бесплатного плагина GitHub Copilot Chat. Это позволит прикрутить свежий DeepSeek V4 прямо в вашу среду разработки без тормозов системы и лишних трат.

Что понадобится

Для запуска потребуются три компонента. Убедитесь, что они установлены на вашей машине.

  1. Редактор VS Code актуальной версии.
  2. Утилита Ollama под вашу операционную систему.
  3. Расширение GitHub Copilot Chat.

⚙️ Настраиваем связку в редакторе

Для начала нужно связать редактор с вашим аккаунтом и добавить локального провайдера моделей. Выполните эти шаги.

  1. Нажмите на иконку Copilot на боковой панели и выберите Use AI Features.
  2. Авторизуйтесь через аккаунт GitHub. Платить за подписку не придется, расширение работает после обычного входа.
  3. Кликните на выпадающий список выбора модели в окне чата.
  4. Разверните секцию «Other Models» и нажмите Manage Models.
  5. Добавьте новую модель. Укажите провайдера Ollama и просто подтвердите настройки по умолчанию.

Скачиваем нужную модель

Сразу после добавления провайдера нужной языковой модели в списке редактора не окажется. Ее нужно инициализировать через терминал. Откройте системную консоль и выполните команду.

StoDum
ollama pull deepseek-v4-flash:cloud

Не переживайте за свободное место на диске. Полная версия модели весит сотни гигабайт, но эта команда скачает только легковесные метаданные для работы с облачной версией. Дождитесь успешного завершения загрузки и возвращайтесь в VS Code.

  1. Закройте окно Manage Models и откройте его заново. Список моделей обновится.
  2. Выберите появившуюся модель DeepSeek.
  3. Перейдите в основную панель чата Copilot и выберите добавленную нейросеть в выпадающем списке.

Как проверить результат

Чтобы окончательно убедиться в успехе, отправьте тестовый запрос в чат редактора. Спросите ассистента о его личности. Если ответ получается размытым, задайте прямой технический вопрос.

StoDum
What llm model do you use?

В ответ должно прийти подтверждение использования версии deepseek-v4-flash:cloud. На этом этапе интеграция завершена. Вы получили отлично работающий ИИ-ассистент, способный анализировать код, писать скрипты и рефакторить проекты любой сложности прямо в вашем любимом редакторе.