Создаем десктопное приложение на Tauri через Opus 4.7

Anthropic выкатили Opus 4.7. Гонять синтетические тесты скучно, поэтому заставим модель создать полноценное десктопное приложение с нуля. Никаких абстрактных задач. Только хардкорный тест в реальных условиях на Tauri, Rust и Vue. Посмотрим, как автономно новый агент пишет код и собирает готовый продукт.

Готовим архитектуру и пишем план

Нужно создать десктопный клиент для удобной работы с локальными LLM. Приложение должно подключаться к Ollama или LM Studio, дергать их API и выводить статистику генерации. Выбираем связку Tauri и Vue. Здесь работает Rust для бэкенда и JavaScript для фронтенда. Выбор субъективный, просто с этим стеком приятно иметь дело.

Чтобы нейросеть не сошла с ума в процессе, ей нужны жесткие рамки. Пишем подробный текстовый документ с планом. Разбиваем проект на 8 этапов и 50 мелких задач. У каждой задачи прописаны цель, шаги реализации и критерии приемки.

Настраиваем агента и генерируем код

Создаем пустую папку проекта и кладем туда файл плана IMPLEMENTATION_PLAN.md. Затем запускаем консольную утилиту Claude Code.

StoDum
mkdir GemDesk
cd GemDesk
claude

По умолчанию агент использует быстрые модели. Нам нужен максимум вычислительной мощности, поэтому переключаемся на свежий релиз. Настраиваем параметры прямо в консоли по шагам.

  1. Выбираем модель Opus 4.7.
  2. Вызываем меню уровня усилий командой /effort.
  3. Устанавливаем значение xhigh.

Разработчики заявляют, что такой режим идеален для сложных многосоставных задач. Проверяем теорию на практике. Отправляем нейросети запрос, чтобы она начала работу.

StoDum
Please proceed with the implementation of the entire application as described in the IMPLEMENTATION_PLAN.md

Дальше можно смело идти пить кофе. Агент самостоятельно читает план, создает структуру директорий, пишет код на Rust и JavaScript, скачивает нужные пакеты. Процесс долгий, а токены с баланса списываются очень активно.

Собираем проект и тестируем функционал

Агент отчитался о завершении работы. Пробуем скомпилировать проект локально.

StoDum
bun run tauri dev

Проект компилируется и запускается без единой ошибки. Для сгенерированного с нуля приложения на стыке двух языков это роскошный показатель. Интерфейс отрисован ровно так, как мы просили.

Заходим в настройки и видим работающий селектор провайдеров, чтобы переключаться между Ollama и LM Studio. Выбираем локальную модель Qwen3.5 и отправляем текстовый промпт в чат. Ассистент генерирует ответ, интерфейс не виснет, история сообщений сохраняется корректно. Приложение на сто процентов соответствует изначальному плану из пятидесяти пунктов.

Релиз Opus 4.7 показал отличную способность удерживать контекст длинных технических заданий. Модель не просто выплевывает разрозненные куски кода, а строит рабочую архитектуру и самостоятельно собирает проект. Если у вас завалялся старый бэклог с пет-проектами, самое время натравить на него агента.