2024-01 → 2024-09
Contento — LLM-генератор скриптов
AI-powered SaaS MVP, шипнутый в соло. End-to-end pipeline генерации скриптов с prompt orchestration, structured output, frontend на Vue/Nuxt. Backend на FastAPI + PostgreSQL + Celery.
- Роль
- Единственный инженер — архитектура, имплементация, релиз
- Стек
- FastAPI · PostgreSQL · Celery · Vue/Nuxt · OpenAI
- Период
- 2024-01 → 2024-09
Что делает
Content-маркетолог отдаёт бриф кампании и описание ЦА. Contento возвращает структурированный готовый к съёмке скрипт: hook, сегменты, calls-to-action, B-roll cues. Output — JSON, schema-валидированный, напрямую импортируется в инструмент видео-продакшена.
Интересные части сборки
Prompt orchestration, не single prompts. Pipeline из маленьких, сфокусированных промптов — каждый со своей чёткой ответственностью — оказался на порядок надёжнее одного мега-промпта, просящего весь скрипт сразу. Стадии: нормализация брифа → audience modeling → генерация hook → outline → expansion → review pass. Output каждой стадии валидируется до запуска следующей.
Structured output везде. Pydantic models на backend, OpenAI function calling для генеративных шагов. Свободный текст только на user boundary. Это и есть разница между "AI demo" и "tool, на который я могу полагаться".
Очередь background-задач с первого дня. Celery + Redis для pipeline'а генерации. UI submit'ит, worker крутит, frontend поллит (позже — SSE). Latency генерации перестала быть UX-проблемой.
Дисциплина solo engineering. Нет команды чтобы ловить дизайн-ошибки — поэтому архитектура должна быть консервативной: типизированные API, contract tests, deployable IaC с первой недели. Лучше шипнуть меньшую surface, которую я могу расширить, чем большую, которой не доверяю.
Что я сделал бы иначе сейчас
Contento написан до зрелости agent frameworks. Если бы я строил это сегодня, оркестрация была бы agent-based (planner + per-stage executors), не написанным руками pipeline. Архитектурная форма — та же; имплементация становится короче каждый год.