Подключаем локальные LLM к редактору Zed: гайд по настройке

Отдавать свой код в облачные API удобно, но вопросы приватности и стабильности соединения никто не отменял. Гораздо надежнее запускать нейросети на собственном железе. Разберем, как привязать локальные модели из Ollama и LM Studio к редактору Zed, чтобы управлять ИИ-агентами прямо в среде разработки без потери контекста.

Что понадобится для старта

  • Редактор Zed версии 1.0.0 или новее.
  • Установленная утилита Ollama или приложение LM Studio.
  • Хотя бы одна загруженная локальная модель (например, Gemma 4 или Qwen).

Как связать Zed и Ollama на одной машине

Ollama отлично работает в фоне и не требует сложной настройки.

  1. Убедитесь, что сервис запущен корректно. для этого выполните в терминале команду ollama ls. Если список моделей отображается, протестируйте любую из них через ollama run <имя_модели>.
  2. Откройте панель агента в Zed и перейдите в настройки (иконка шестеренки).
  3. Прокрутите до блока LLM Providers и разверните вкладку Ollama.
  4. Проверьте адрес в поле API URL. по умолчанию там прописано http://localhost:11434, и менять это не нужно.
  5. Увеличьте значение Context Window. стандартных 8000 токенов будет мало, когда агент начнет использовать встроенные инструменты для чтения файлов. Смело ставьте 60000 или больше.
  6. Нажмите кнопку Connect.

Зеленая галочка и статус Connected означают, что редактор увидел сервис. Закройте настройки, создайте новый чат в панели агента и выберите локальную модель из выпадающего списка.

Настройка интеграции с LM Studio

Алгоритм для LM Studio практически идентичен. Разница лишь в том, что вам нужно запустить локальный сервер внутри самого приложения.

  1. Запустите LM Studio и включите сервер разработки. убедитесь, что нужная модель загружена в память.
  2. В терминале можно проверить статус утилитой командной строки: lms ls.
  3. В настройках агента Zed откройте раздел LLM Providers и выберите LM Studio.
  4. Оставьте стандартный адрес и нажмите Connect.
  5. Выберите модель в новом чате агента.

Подключение удаленной модели по сети

Если рабочий ноутбук задыхается от тяжелых моделей, можно перенести вычисления на десктоп с мощной видеокартой, который стоит в той же локальной сети. Здесь потребуется ручная конфигурация.

  1. Откройте настройки провайдеров в Zed и нажмите Add Provider.
  2. В выпадающем списке выберите OpenAI compatible.
  3. Задайте имя профиля в поле Provider Name. пусть это будет ollama-desktop.
  4. В поле API URL пропишите адрес второго компьютера и обязательно добавьте путь API. выглядит это так: http://<IP-адрес>:11434/v1.
  5. Поле API Key не оставляйте пустым. введите любой символ, например звездочку, так как по умолчанию Ollama пускает без пароля.
  6. Впишите точное название модели в поле Model Name и сохраните конфигурацию.

Если графический интерфейс сбоит, можно добавить провайдера напрямую в файл конфигурации settings.json.

StoDum
"language_models": {
  "openai_compatible": {
    "ollama-desktop": {
      "api_url": "http://<IP-адрес>:11434/v1",
      "available_models":[
        {
          "name": "qwen3.6:35b",
          "max_tokens": 200000,
          "max_output_tokens": 32000,
          "capabilities": {
            "tools": true
          }
        }
      ]
    }
  }
}

Ключевой момент при ручной настройке: если вы забыли дописать /v1 в конец адреса, Zed выдаст ошибку подключения. Редактор ожидает структуру запросов в стиле OpenAI, и этот суффикс переключает Ollama в нужный режим совместимости.

Управление профилями агента

Чтобы ИИ приносил пользу, ему нужно выдать правильные права. Обратите внимание на настройки контекста в самом чате ⚙️.

Профиль Write дает модели доступ на редактирование и создание файлов в вашем проекте. Без него агент будет только давать советы в текстовом виде.
Переключатель Thinking Mode позволяет управлять скрытыми рассуждениями модели. Если локальная сеть тормозит или модель думает слишком долго, эту функцию можно временно отключить для ускорения ответов.

Если агент отвечает ошибками, проверьте терминал машины, на которой крутится LLM. Чаще всего проблема кроется в опечатке при вводе названия модели или закрытом порте на удаленном ПК.