Разработка ПО с ИИ

Системы с ИИ-агентами на Claude Code, Paperclip, рой агентов, очереди, CRM

Строим системы, в которых ИИ-агенты — не «обёртка над ChatGPT», а полноценные участники процесса с памятью, ролями и автоматизацией повторяемых операций. Подходит для B2B-продуктов, корпоративных knowledge-систем и операционного контроля.

Что входит

  • Оркестрация роя агентов на Claude Code SDK с подключением MCP-серверов (LightRAG для семантической памяти, Graphify для AST-графа, собственные доменные MCP).
  • Knowledge-management через Paperclip: Companies → Goals → Routines → Tasks → Issues с агентной автоматизацией ролей (CEO/CTO/Frontend Developer и др.).
  • Production docker-stack по образцу нашего Hermes Stack: 9 сервисов (browser-harness, crm-worker, scheduled-tasks-worker, notifications-worker, pdf-tasks-worker, gateway, frontend, caddy, seo-cron).
  • Subagent-driven workflow для ваших разработчиков: spec → implementation subagent → spec-compliance review → code-quality review → merge.
  • Интеграция через MCP-серверы с вашими внутренними системами (БД, CRM, документооборот).

Когда нужно

  • Накопилась документация и тикеты — сотрудники не находят ответы, пишут одно и то же по 5 раз.
  • Рутинные операции (отчёты, мониторинг, триаж) занимают 30%+ времени команды.
  • Хотите AI-помощника по продажам/поддержке без отправки персональных данных в OpenAI.
  • Уже есть внутренние процессы, нужна автоматизация без переписывания всего стека.

Как мы работаем

  1. Discovery (3-5 дней). Описываем процесс «как есть», находим точки потери времени, выбираем 2-3 сценария для пилота.
  2. Pilot (2-3 недели). Один агент, один сценарий, реальная интеграция с вашей системой. Замеряем экономию времени.
  3. Расширение (1-3 месяца). Добавляем сценарии, роли, knowledge-graph, переходим к рою агентов.
  4. Передача поддержки. Документация, обучение команды, hand-off с гарантией.

Технологии

Claude Code SDK, Anthropic API, OpenAI (через российский ProxyChain), Hatchet (workflow engine), Paperclip (knowledge-management), LightRAG (graph + vector), Graphify (AST-граф), Ollama (Bge-M3 embedding), Docker Compose, Caddy, systemd.

Подробности — в кейсе Крупный оператор речных круизов.

Опишите задачу — обсудим как закрыть её целиком.

Часто задаваемые вопросы

Чем отличается ваш подход к ИИ от типичной интеграции ChatGPT?
Мы строим не «обёртку над API», а оркестратор: knowledge-graph как источник правды, специализированные subagent-роли, hooks и skills для повторяемых операций. Один LLM-вызов — это инструмент, а не продукт.
Какие LLM используете в production?
Claude (Anthropic SDK) как основной, OpenAI через российский ProxyChain для embedding, локальный Ollama (Bge-M3) для on-premise задач. Выбор зависит от 152-ФЗ и чувствительности данных.
Сколько стоит проект с ИИ-агентами?
Минимальный pilot — от 250 тыс. ₽ за 2-3 недели (один сценарий, один агент, базовая интеграция). Полноценная система с роем агентов и knowledge-graph — от 800 тыс. ₽.
Можете ли вы развернуть систему без передачи данных в OpenAI/Anthropic?
Да. Используем локальный Ollama + Gemma 4 (или Qwen 3.6) для inference и LightRAG self-hosted для knowledge-graph. См. услугу «Локальные нейросети».
Как вы гарантируете качество ответов агента?
Каждый PR в production-агенте проходит автоматический spec-compliance review + code-quality review через subagent'ов. Вся история решений и обоснований сохраняется в LightRAG для аудита.

Готовы обсудить проект?

Напишите — обсудим задачу и сроки.

Обсудить проект →