Разработка ПО с ИИ
Системы с ИИ-агентами на Claude Code, Paperclip, рой агентов, очереди, CRM
Строим системы, в которых ИИ-агенты — не «обёртка над ChatGPT», а полноценные участники процесса с памятью, ролями и автоматизацией повторяемых операций. Подходит для B2B-продуктов, корпоративных knowledge-систем и операционного контроля.
Что входит
- Оркестрация роя агентов на Claude Code SDK с подключением MCP-серверов (LightRAG для семантической памяти, Graphify для AST-графа, собственные доменные MCP).
- Knowledge-management через Paperclip: Companies → Goals → Routines → Tasks → Issues с агентной автоматизацией ролей (CEO/CTO/Frontend Developer и др.).
- Production docker-stack по образцу нашего Hermes Stack: 9 сервисов (browser-harness, crm-worker, scheduled-tasks-worker, notifications-worker, pdf-tasks-worker, gateway, frontend, caddy, seo-cron).
- Subagent-driven workflow для ваших разработчиков: spec → implementation subagent → spec-compliance review → code-quality review → merge.
- Интеграция через MCP-серверы с вашими внутренними системами (БД, CRM, документооборот).
Когда нужно
- Накопилась документация и тикеты — сотрудники не находят ответы, пишут одно и то же по 5 раз.
- Рутинные операции (отчёты, мониторинг, триаж) занимают 30%+ времени команды.
- Хотите AI-помощника по продажам/поддержке без отправки персональных данных в OpenAI.
- Уже есть внутренние процессы, нужна автоматизация без переписывания всего стека.
Как мы работаем
- Discovery (3-5 дней). Описываем процесс «как есть», находим точки потери времени, выбираем 2-3 сценария для пилота.
- Pilot (2-3 недели). Один агент, один сценарий, реальная интеграция с вашей системой. Замеряем экономию времени.
- Расширение (1-3 месяца). Добавляем сценарии, роли, knowledge-graph, переходим к рою агентов.
- Передача поддержки. Документация, обучение команды, hand-off с гарантией.
Технологии
Claude Code SDK, Anthropic API, OpenAI (через российский ProxyChain), Hatchet (workflow engine), Paperclip (knowledge-management), LightRAG (graph + vector), Graphify (AST-граф), Ollama (Bge-M3 embedding), Docker Compose, Caddy, systemd.
Подробности — в кейсе Крупный оператор речных круизов.
Опишите задачу — обсудим как закрыть её целиком.
Часто задаваемые вопросы
Чем отличается ваш подход к ИИ от типичной интеграции ChatGPT?
Мы строим не «обёртку над API», а оркестратор: knowledge-graph как источник правды, специализированные subagent-роли, hooks и skills для повторяемых операций. Один LLM-вызов — это инструмент, а не продукт.
Какие LLM используете в production?
Claude (Anthropic SDK) как основной, OpenAI через российский ProxyChain для embedding, локальный Ollama (Bge-M3) для on-premise задач. Выбор зависит от 152-ФЗ и чувствительности данных.
Сколько стоит проект с ИИ-агентами?
Минимальный pilot — от 250 тыс. ₽ за 2-3 недели (один сценарий, один агент, базовая интеграция). Полноценная система с роем агентов и knowledge-graph — от 800 тыс. ₽.
Можете ли вы развернуть систему без передачи данных в OpenAI/Anthropic?
Да. Используем локальный Ollama + Gemma 4 (или Qwen 3.6) для inference и LightRAG self-hosted для knowledge-graph. См. услугу «Локальные нейросети».
Как вы гарантируете качество ответов агента?
Каждый PR в production-агенте проходит автоматический spec-compliance review + code-quality review через subagent'ов. Вся история решений и обоснований сохраняется в LightRAG для аудита.
Готовы обсудить проект?
Напишите — обсудим задачу и сроки.
Обсудить проект →