Как подключить Claude Code и Cowork к локальным моделям через Ollama

Хотите использовать десктопный Claude Code с доступом к файловой системе, но нет желания возиться с оплатой API и лимитами токенов. Разработчики из Anthropic оставили лазейку и разрешили подменять провайдера. В этой инструкции мы привяжем официальный клиент к локальной модели, чтобы ваш персональный ИИ-ассистент работал бесплатно и без оглядки на блокировки. Для старта потребуется установленный десктопный … Читать далее

Настраиваем Ollama для локальных и облачных нейросетей

Запуск LLM на локальной машине часто превращается в испытание терпения из-за нехватки ресурсов и блокирующих процессов. Если вы устали от медленной работы простых утилит и случайных банов от провайдеров API, пора переходить на гибкие инструменты. Разберем запуск непрерывного батчинга в Ollama и подключение к бесплатному облаку для работы с тяжелыми моделями прямо из редактора кода. … Читать далее

Разворачиваем автономный ИИ Hermes Agent на Raspberry Pi

Устали собирать костыльных ИИ-агентов из палок и скриптов? Фреймворк OpenClaw отлично решает кастомные задачи, но иногда нужен готовый продукт. В этой инструкции мы сдуем пыль со старого Raspberry Pi, накатим серверную Ubuntu и запустим Hermes Agent от Nous Research, чтобы получить автономного терминального помощника. Что понадобится Выбор железа и концепция изоляции Hermes Agent отличается от … Читать далее

Создаем десктопное приложение на Tauri через Opus 4.7

Anthropic выкатили Opus 4.7. Гонять синтетические тесты скучно, поэтому заставим модель создать полноценное десктопное приложение с нуля. Никаких абстрактных задач. Только хардкорный тест в реальных условиях на Tauri, Rust и Vue. Посмотрим, как автономно новый агент пишет код и собирает готовый продукт. Готовим архитектуру и пишем план Нужно создать десктопный клиент для удобной работы с … Читать далее

Подключаем DeepSeek V4 к VS Code бесплатно

Гонять тяжелые языковые модели на рабочем железе больно, а платить за каждую подписку накладно. Мы настроим связку из утилиты Ollama и бесплатного плагина GitHub Copilot Chat. Это позволит прикрутить свежий DeepSeek V4 прямо в вашу среду разработки без тормозов системы и лишних трат. Что понадобится Для запуска потребуются три компонента. Убедитесь, что они установлены на … Читать далее

Подключаем локальную нейросеть в VS Code через Ollama

Работать с кодом без ИИ-ассистента больно и долго. Готовые комбайны вроде Cursor решают задачу, но иногда специфика проекта намертво привязывает вас к ванильному редактору от Microsoft. Ниже мы закинем локальную модель Gemma 4 прямо в ваш редактор: код будет писаться, а коммерческая тайна не улетит на серверы корпораций. Для работы потребуется следующий базовый набор. Установка … Читать далее