Лимиты платных API заканчиваются в самый неподходящий момент, а кодить нужно прямо сейчас. Платить за каждый чих сторонним сервисам при рутинных задачах просто глупо. Берем утилиту Claude Code и натравливаем ее на локальную модель Gemma 4 через LM Studio, чтобы бесплатно делегировать мелкие подзадачи вашему железу.
Что потребуется для настройки:
- установленный терминал;
- приложение LM Studio с загруженной моделью;
- железо с объемом ОЗУ от 16 ГБ.
Как подружить Claude Code и LM Studio
- Установите утилиту от Anthropic одной командой.
curl -fsSL https://claude.ai/install.sh | bash
- Обновите пути или перезапустите терминальную сессию, чтобы бинарник подцепился системой.
source ~/.zshrc
- Откройте LM Studio и выберите нужную локальную модель. Запустите локальный API кнопкой Start Server. По умолчанию он крутится на порту 1234.
- Задайте переменные окружения. Ключевая хитрость заключается в подмене базового URL для запросов.
export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio
- Запустите Claude Code с указанием имени локальной модели.
claude --model google/gemma-4-e4b
Тестируем связку на генерации кода
Локальные LLM не заменят платные аналоги целиком. Они отлично подходят в качестве бесплатного «подмастерья». Для проверки я попросил нейросеть сгенерировать HTML-страницу со списком задач.
Маленькая модель на 7.5 миллиардов параметров справилась с базовой разметкой за полторы минуты на чипе M4 Pro. При попытке добавить интерактивность через JavaScript она споткнулась о незакрытый тег и зациклилась на одной ошибке. Это абсолютно нормальный результат для компактной нейросети.
Версия Gemma 4 на 26 миллиардов параметров показала себя куда умнее. Запускать ее пришлось на десктопе с 128 ГБ ОЗУ и видеокартой RTX 4060 Ti. Нейросеть успешно написала рабочий код, добавила форму ввода и реализовала зачеркивание выполненных задач. Обработка заняла около 8 минут. Причина долгого ожидания проста. Утилита не просто кидает один промпт, а постоянно общается с моделью, читает файлы и валидирует результат в фоновом режиме.
Резюме по локальным моделям
Использовать Claude Code без привязки к чужим серверам абсолютно реально. Мелкие модели годятся разве что для автокомплита или написания шаблонов. Для боевого рефакторинга и написания логики нужна модель от 26B параметров и железо, способное ее переварить без вылетов. Делегируйте локальным сеткам рутину, а для сложных архитектурных задач оставляйте платное API.