Подключаем локальные нейросети к Claude Code

Лимиты платных API заканчиваются в самый неподходящий момент, а кодить нужно прямо сейчас. Платить за каждый чих сторонним сервисам при рутинных задачах просто глупо. Берем утилиту Claude Code и натравливаем ее на локальную модель Gemma 4 через LM Studio, чтобы бесплатно делегировать мелкие подзадачи вашему железу.

Что потребуется для настройки:

  • установленный терминал;
  • приложение LM Studio с загруженной моделью;
  • железо с объемом ОЗУ от 16 ГБ.

Как подружить Claude Code и LM Studio

  1. Установите утилиту от Anthropic одной командой.
StoDum
curl -fsSL https://claude.ai/install.sh | bash
  1. Обновите пути или перезапустите терминальную сессию, чтобы бинарник подцепился системой.
StoDum
source ~/.zshrc
  1. Откройте LM Studio и выберите нужную локальную модель. Запустите локальный API кнопкой Start Server. По умолчанию он крутится на порту 1234.
  2. Задайте переменные окружения. Ключевая хитрость заключается в подмене базового URL для запросов.
StoDum
export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio
  1. Запустите Claude Code с указанием имени локальной модели.
StoDum
claude --model google/gemma-4-e4b

Тестируем связку на генерации кода

Локальные LLM не заменят платные аналоги целиком. Они отлично подходят в качестве бесплатного «подмастерья». Для проверки я попросил нейросеть сгенерировать HTML-страницу со списком задач.

Маленькая модель на 7.5 миллиардов параметров справилась с базовой разметкой за полторы минуты на чипе M4 Pro. При попытке добавить интерактивность через JavaScript она споткнулась о незакрытый тег и зациклилась на одной ошибке. Это абсолютно нормальный результат для компактной нейросети.

Версия Gemma 4 на 26 миллиардов параметров показала себя куда умнее. Запускать ее пришлось на десктопе с 128 ГБ ОЗУ и видеокартой RTX 4060 Ti. Нейросеть успешно написала рабочий код, добавила форму ввода и реализовала зачеркивание выполненных задач. Обработка заняла около 8 минут. Причина долгого ожидания проста. Утилита не просто кидает один промпт, а постоянно общается с моделью, читает файлы и валидирует результат в фоновом режиме.

Резюме по локальным моделям

Использовать Claude Code без привязки к чужим серверам абсолютно реально. Мелкие модели годятся разве что для автокомплита или написания шаблонов. Для боевого рефакторинга и написания логики нужна модель от 26B параметров и железо, способное ее переварить без вылетов. Делегируйте локальным сеткам рутину, а для сложных архитектурных задач оставляйте платное API.