В этом материале я расскажу, как интегрировать LLM в процесс разработки, чтобы кратно ускорить релизы — в 8–12 раз — без ущерба для качества кода. Поделюсь конкретными метриками и методологией, которую мы успешно внедрили в targetai.

Контекст
Я работаю в типичной продуктовой ИТ-компании, где мы решаем стандартный спектр задач: от проектирования до эксплуатации. Наш флагманский продукт — платформа для коммуникации на базе ИИ-агентов. Помимо этого, мы развиваем систему голосовых тренажеров и омниканальные решения для контакт-центров. Подробнее о нас можно узнать по ссылке в профиле.
Наш технологический стек выглядит следующим образом:
-
Backend: Python и Go
-
Frontend: React
-
Архитектура: микросервисная (мы активно движемся в этом направлении)
-
LLM: микс из open-source и проприетарных решений
-
Инфраструктура: k8s, helm, ArgoCD
-
Observability: Victoria Metrics, Grafana, Alert Manager, Loki
Ключевая особенность: мы обеспечиваем on-premise установку в контур клиента, что накладывает жесткие требования к архитектуре и выбору инструментов.
Около полугода назад мы начали активно внедрять «вайб-кодинг», экспериментируя с промптами и архитектурными паттернами для быстрого прототипирования. По нашим оценкам, это позволило поднять продуктивность в 3–4 раза.
Что это за феномен?
Термин «вайб-кодинг», популяризированный Андреем Карпатым, стал настолько широким, что его трактуют по-разному. Для кого-то это просто использование ИИ-ассистента в Cursor. Для других — радикальный подход, где разработчик лишь описывает идею, а модель выдает готовое приложение без глубокой проработки алгоритмов.
Я придерживаюсь «золотой середины»: разработчик выступает в роли архитектора, делегируя написание кода модели, но сохраняя контроль и ответственность за итоговый продукт.
Скептики часто говорят о «нейрослопе» — непредсказуемом, забагованном коде, не пригодном для продакшена. Эти опасения оправданы, если использовать ИИ бесконтрольно. Главные риски здесь — сложность отладки, архитектурная «лоскутность» и отсутствие оптимизации под нагрузки. Однако проблема не в инструменте, а в постановке задачи: если нет жестких технических требований, модель их не придумает сама.
Баланс между автономией и контролем
Реальный прирост производительности лежит в зоне ответственности инженера, который задает границы: стек, архитектурные принципы и требования к отказоустойчивости. Дальше — делегирование LLM. Год назад мы тратили много времени на декомпозицию задач перед передачей агенту. Сейчас мы автоматизировали этот этап с помощью системы «скиллов» (roles/skills).
Скиллы и агенты: прикладной подход
Скилл — это контекстный фреймворк, который наделяет агента конкретной экспертизой: продакт-менеджера, архитектора, аналитика или специалиста по безопасности. В Cursor мы настраиваем глобальные скиллы, которые активируются в зависимости от текущего запроса.
Это меняет процесс: агент не просто пишет код, а проводит интервью с разработчиком, уточняет требования и формирует ТЗ. Такой подход исключает хаотичную генерацию и гарантирует, что результат будет предсказуемым и структурированным.
Рекомендую изучить следующие инструменты для работы с агентскими скиллами:
Мы также применяем эту логику для автоматизации внутренних бизнес-процессов — если интересно, дайте знать в комментариях, подготовлю отдельный разбор.
Наш инструментарий
Основу нашего стека составляют Cursor и Claude Code. В вопросе моделей наш выбор — claude-opus-4.6, который показывает лучшие результаты в кодинге по сравнению с GPT-4.x/5. Также пристально следим за Qwen Coder 235B — модель стремительно догоняет лидеров.
Кейс: как мы выпустили продукт за 4 недели
Мы разработали новый продукт всего за 4 недели вместо привычных 6–12 месяцев. В процессе мы распределили роли между ИИ-агентами:
-
Продуктолог (составление PRD)
-
Архитектор (проектирование данных, миграций, API-контрактов)
-
Дизайнер (подготовка ТЗ для фронтенда)
-
Разработчики (backend/frontend)
Главный бонус такого подхода — обязательная генерация артефактов на каждом этапе. Это заставляет разработчика четко описывать требования, что полезно даже без использования ИИ. При традиционном подходе в режиме «горящего продакшена» такие этапы часто пропускаются. Агентная модель делает их обязательными, что автоматически повышает дисциплину и качество проектирования.

Метрики успеха
Мы оцениваем прогресс по трем показателям: доля кода, написанного LLM, охват задач (от фичи до целого сервиса) и, самое главное, сокращение Time-to-Market. Мы пробовали полную автономию «агент-агент», но столкнулись с проблемой накопления ошибок: отсутствие человеческого контроля между звеньями цепочки приводит к хрупкости системы. Поэтому инженер-оркестратор пока остается незаменимым звеном.
Итог
Вайб-кодинг — это не магия, а инструмент. Успех кроется в правильной настройке скиллов и архитектурном надзоре человека. Мы не просто ускорили разработку, а перешли на качественно иной уровень проектирования, превращая каждый цикл разработки в создание надежных, задокументированных решений. Индустрия меняется стремительно, и владение агентскими инструментами становится критическим навыком.