Как подключить Claude Code и Cowork к локальным моделям через Ollama

Хотите использовать десктопный Claude Code с доступом к файловой системе, но нет желания возиться с оплатой API и лимитами токенов. Разработчики из Anthropic оставили лазейку и разрешили подменять провайдера. В этой инструкции мы привяжем официальный клиент к локальной модели, чтобы ваш персональный ИИ-ассистент работал бесплатно и без оглядки на блокировки.

Для старта потребуется установленный десктопный клиент Claude и запущенная на вашей машине Ollama с любой скачанной моделью (для примера используем свежую Gemma 4).

Включение режима разработчика

По умолчанию настройки сторонних API скрыты от обычных пользователей. Нам нужно активировать экспериментальные функции клиента.

  1. Запустите приложение Claude.
  2. В верхнем системном меню перейдите по пути Help > Troubleshooting > Enable Developer Mode.
  3. Подтвердите действие в появившемся окне и дождитесь перезагрузки приложения.

Визуально интерфейс не поменяется, но в верхнем баре появится новая вкладка.

Настройка стороннего провайдера

Теперь нужно направить запросы приложения не на серверы Anthropic, а в наш локальный инстанс.

  1. Откройте меню Developer > Configure third-party inference.
  2. В левой колонке выберите вариант Gateway.
  3. В поле Gateway base URL укажите локальный адрес Ollama. Здесь есть критичный нюанс: десктопный клиент отказывается работать, если написать localhost, поэтому указываем явный IP:
StoDum
http://127.0.0.1:11434
  1. Поле Gateway API key обязательно для заполнения, впишите туда любую заглушку вроде ollama.
  2. Прокрутите окно вниз до блока Identity & Models и нажмите кнопку Add.
  3. В поле Model ID вставьте точное название вашей модели из консоли Ollama (например gemma4:31b-cloud). Галочку про контекст в 1M токенов лучше снять, если ваша модель не поддерживает такой объем.
  4. Нажмите Apply locally в правом нижнем углу и согласитесь на перезапуск клиента.

Вы можете сохранить конфигурацию отдельным профилем через выпадающее меню в правом верхнем углу окна настроек. Это удобно для быстрого переключения между разными локальными или облачными моделями.

Проверка работы в режиме Cowork

После рестарта приложение сразу откроет интерфейс Cowork. В правом нижнем углу строки ввода вы увидите название вашей локальной модели. Теперь ассистент готов парсить ваши локальные файлы и директории.

Выбираете нужную папку в интерфейсе и отправляете промпт:

StoDum
Изучи список файлов в этой директории, опиши группы по темам и предложи новую структуру хранения моей библиотеки. Ничего не меняй, только спланируй.

Модель через Ollama проанализирует структуру, выполнит нужные bash-скрипты в изолированной среде и выдаст результат. Расход токенов при этом ложится исключительно на ваше железо.

⚠️ В таком режиме работы стандартные коннекторы Anthropic будут отключены. Зато вы можете свободно подключать сторонние MCP-серверы и кастомные скиллы через меню Customize в левой панели.

Возможные проблемы при запуске

Если после настройки интерфейс выдает ошибку конфигурации провайдера, вернитесь в настройки Gateway и проверьте адрес. Ошибка invalid customIp enterprise лечится исключительно заменой буквенного localhost на 127.0.0.1. Если адрес правильный, убедитесь, что сам сервис Ollama запущен и отвечает на запросы в терминале.