Все проекты

2024-01 → 2024-09

Contento — LLM-генератор скриптов

AI-powered SaaS MVP, шипнутый в соло. End-to-end pipeline генерации скриптов с prompt orchestration, structured output, frontend на Vue/Nuxt. Backend на FastAPI + PostgreSQL + Celery.

Роль
Единственный инженер — архитектура, имплементация, релиз
Стек
FastAPI · PostgreSQL · Celery · Vue/Nuxt · OpenAI
Период
2024-01 → 2024-09

Что делает

Content-маркетолог отдаёт бриф кампании и описание ЦА. Contento возвращает структурированный готовый к съёмке скрипт: hook, сегменты, calls-to-action, B-roll cues. Output — JSON, schema-валидированный, напрямую импортируется в инструмент видео-продакшена.

Интересные части сборки

Prompt orchestration, не single prompts. Pipeline из маленьких, сфокусированных промптов — каждый со своей чёткой ответственностью — оказался на порядок надёжнее одного мега-промпта, просящего весь скрипт сразу. Стадии: нормализация брифа → audience modeling → генерация hook → outline → expansion → review pass. Output каждой стадии валидируется до запуска следующей.

Structured output везде. Pydantic models на backend, OpenAI function calling для генеративных шагов. Свободный текст только на user boundary. Это и есть разница между "AI demo" и "tool, на который я могу полагаться".

Очередь background-задач с первого дня. Celery + Redis для pipeline'а генерации. UI submit'ит, worker крутит, frontend поллит (позже — SSE). Latency генерации перестала быть UX-проблемой.

Дисциплина solo engineering. Нет команды чтобы ловить дизайн-ошибки — поэтому архитектура должна быть консервативной: типизированные API, contract tests, deployable IaC с первой недели. Лучше шипнуть меньшую surface, которую я могу расширить, чем большую, которой не доверяю.

Что я сделал бы иначе сейчас

Contento написан до зрелости agent frameworks. Если бы я строил это сегодня, оркестрация была бы agent-based (planner + per-stage executors), не написанным руками pipeline. Архитектурная форма — та же; имплементация становится короче каждый год.