Хотите использовать десктопный Claude Code с доступом к файловой системе, но нет желания возиться с оплатой API и лимитами токенов. Разработчики из Anthropic оставили лазейку и разрешили подменять провайдера. В этой инструкции мы привяжем официальный клиент к локальной модели, чтобы ваш персональный ИИ-ассистент работал бесплатно и без оглядки на блокировки.
Для старта потребуется установленный десктопный клиент Claude и запущенная на вашей машине Ollama с любой скачанной моделью (для примера используем свежую Gemma 4).
Включение режима разработчика
По умолчанию настройки сторонних API скрыты от обычных пользователей. Нам нужно активировать экспериментальные функции клиента.
- Запустите приложение Claude.
- В верхнем системном меню перейдите по пути Help > Troubleshooting > Enable Developer Mode.
- Подтвердите действие в появившемся окне и дождитесь перезагрузки приложения.
Визуально интерфейс не поменяется, но в верхнем баре появится новая вкладка.
Настройка стороннего провайдера
Теперь нужно направить запросы приложения не на серверы Anthropic, а в наш локальный инстанс.
- Откройте меню Developer > Configure third-party inference.
- В левой колонке выберите вариант Gateway.
- В поле Gateway base URL укажите локальный адрес Ollama. Здесь есть критичный нюанс: десктопный клиент отказывается работать, если написать localhost, поэтому указываем явный IP:
http://127.0.0.1:11434
- Поле Gateway API key обязательно для заполнения, впишите туда любую заглушку вроде
ollama. - Прокрутите окно вниз до блока Identity & Models и нажмите кнопку Add.
- В поле Model ID вставьте точное название вашей модели из консоли Ollama (например
gemma4:31b-cloud). Галочку про контекст в 1M токенов лучше снять, если ваша модель не поддерживает такой объем. - Нажмите Apply locally в правом нижнем углу и согласитесь на перезапуск клиента.
Вы можете сохранить конфигурацию отдельным профилем через выпадающее меню в правом верхнем углу окна настроек. Это удобно для быстрого переключения между разными локальными или облачными моделями.
Проверка работы в режиме Cowork
После рестарта приложение сразу откроет интерфейс Cowork. В правом нижнем углу строки ввода вы увидите название вашей локальной модели. Теперь ассистент готов парсить ваши локальные файлы и директории.
Выбираете нужную папку в интерфейсе и отправляете промпт:
Изучи список файлов в этой директории, опиши группы по темам и предложи новую структуру хранения моей библиотеки. Ничего не меняй, только спланируй.
Модель через Ollama проанализирует структуру, выполнит нужные bash-скрипты в изолированной среде и выдаст результат. Расход токенов при этом ложится исключительно на ваше железо.
⚠️ В таком режиме работы стандартные коннекторы Anthropic будут отключены. Зато вы можете свободно подключать сторонние MCP-серверы и кастомные скиллы через меню Customize в левой панели.
Возможные проблемы при запуске
Если после настройки интерфейс выдает ошибку конфигурации провайдера, вернитесь в настройки Gateway и проверьте адрес. Ошибка invalid customIp enterprise лечится исключительно заменой буквенного localhost на 127.0.0.1. Если адрес правильный, убедитесь, что сам сервис Ollama запущен и отвечает на запросы в терминале.