Как использовать Model Context Protocol (MCP) для прокачки LLM

Любая нейросеть без внешних инструментов работает как изолированная коробка с устаревшими знаниями. Если вы хотите, чтобы локальная модель сходила в базу данных, прочитала свежий коммит на GitHub или заказала сырники, вам нужны костыли. Эту проблему решает Model Context Protocol (MCP). Разбираем логику работы стандарта и учимся давать вашей LLM доступ к реальному миру без написания … Читать далее

Запускаем Gemma 4 на Raspberry Pi 5

Локальные нейросети обычно требуют мощных видеокарт и внушительных объемов памяти. Мы пойдем другим путем и попытаемся поднять свежую Gemma 4 от Google на обычной «малинке». Посмотрим, сможет ли Raspberry Pi 5 вытянуть модель на 2 миллиарда параметров и остаться в живых, раздавая API для внешних редакторов кода. Что понадобится: Подготовка сервера и установка LM Studio … Читать далее

Подключаем локальные нейросети к Claude Code

Лимиты платных API заканчиваются в самый неподходящий момент, а кодить нужно прямо сейчас. Платить за каждый чих сторонним сервисам при рутинных задачах просто глупо. Берем утилиту Claude Code и натравливаем ее на локальную модель Gemma 4 через LM Studio, чтобы бесплатно делегировать мелкие подзадачи вашему железу. Что потребуется для настройки: Как подружить Claude Code и … Читать далее

Создаем десктопное приложение на Tauri через Opus 4.7

Anthropic выкатили Opus 4.7. Гонять синтетические тесты скучно, поэтому заставим модель создать полноценное десктопное приложение с нуля. Никаких абстрактных задач. Только хардкорный тест в реальных условиях на Tauri, Rust и Vue. Посмотрим, как автономно новый агент пишет код и собирает готовый продукт. Готовим архитектуру и пишем план Нужно создать десктопный клиент для удобной работы с … Читать далее

Тестируем локальный запуск нейросети Gemma 4

Google выпустил новую линейку открытых нейросетей Gemma 4. Главная фишка релиза кроется в лицензии Apache 2.0. Для разработчиков это означает отсутствие привязки к корпоративным API, нулевой vendor lock-in и возможность легально крутить ИИ на собственном железе без риска слить конфиденциальные данные в чужое облако. Разбираемся с производительностью модели в боевых условиях на обычном макбуке и … Читать далее