Все записи
5 мин

Система которая превращает рабочие логи в контент автоматически

AIАвтоматизацияBuilding in Public

Я работаю с нейросетями каждый день. Собираю content engine для крипто-блогера, пишу VPN-сервис, строю админки. Каждая сессия в Claude Code оставляет логи: решения, баги, архитектурные споры, моменты когда всё ломается и моменты когда наконец работает.

Проблема: чтобы превратить рабочий день в пост, нужно сесть и написать. Вспомнить что было утром, восстановить хронологию, сформулировать мысль. Это час-полтора, которых нет. Каждый день выбираешь: работать или писать о работе.

За 4 дня (25-28 марта) я собрал систему, которая делает это за меня. Она прочитала мои рабочие сессии и выдала 12 карточек историй и 39 черновиков для четырёх форматов. Этот текст — один из них.

Как это устроено

Цепочка из четырёх звеньев. Каждое делает одну вещь.

Extractor сканирует логи сессий Claude Code. Находит что интересного произошло, чистит от секретов, ранжирует по шести критериям (конфликт, результат, цифры, широта, новизна, человеческое). На выходе — карточки историй (briefs) с фактами, хронологией и оценкой.

Автор (я) просматриваю карточки. Правлю хронологию, убираю лишнее, подтверждаю факты. Для личных историй это обязательный шаг: первое звено неизбежно перевирает мотивации и причинно-следственные связи.

Drafter берёт проверенную карточку и генерирует черновики для каждого формата: статья в блог, пост в Telegram, пачка микропостов для Threads, материал для ролика.

Text-review полирует: убирает AI-маркеры, считает повторы слов, проверяет что тире не в каждом предложении, что нет пришитого FAQ, что живой человек мог бы так написать.

Что внутри карточки истории

Вот реальная карточка из сессии 24 марта:

```yaml id: "2026-03-25-001" project: "BogdanCollab" story_type: "human" result_type: "decision" requires_author_review: true ```

Заголовок: «Мне 30, долг 2.5 млн — и я выбрал не идти на завод». Хронология из 6 пунктов, каждый с пометкой «точно» или «примерно». Score: 8/10 — конфликт, цифры, человеческое.

Каждый факт помечен уровнем уверенности: «точно», «примерно», «неясно». Даты берутся из timestamps сообщений в логе, а не из даты модификации файла. Одна сессия может тянуться неделями. Без timestamps хронология разваливается.

Как извлекаются истории

Первое звено читает логи порциями. Фокус на user messages: они короче и содержат суть. Если я написал «текст крутой, но всё остальное дерьмо», агент извлекает цитату и контекст вокруг неё.

Группирует по сюжету, не по дате. Если история с Docker тянулась два вечера и три сессии, она становится одним brief, а не тремя.

Дедупликация по timestamps: перед сохранением агент читает все briefs за последнюю неделю и проверяет, покрывают ли новые события уже описанное. Одна и та же сессия может попасть в два запуска. Без проверки будут повторы.

Отдельная вещь, которая мне нравится: поле «Роль AI» обязательно в каждом brief. Кто что делал. User messages в логе = мои действия (задачи, решения, правки). Assistant messages + tool_use = действия нейросети (код, анализ, генерация). Я оркестрирую, Claude Code выполняет.

Как упаковываются черновики

Четыре формата. У каждого свой набор правил (platform profiles).

Blog (800-2000 слов): контекст, проблема, что сделал, результат, выводы. SEO-метаданные, code-блоки. Факт или цифра каждые 150-200 слов. Статья в блоге — каноничная версия, остальные форматы ссылаются на неё.

Telegram (3-7 абзацев): хук в первом предложении. Никаких «сегодня я расскажу вам». Живой текст, конкретика из карточки.

Threads (пачка из 3-7 микропостов по 500 символов): каждый микропост работает как отдельная мысль. Не пересказ блога, а самостоятельная единица. Один инсайт = один микропост.

Reel-pack (материал для ролика): не готовый каркас, а подготовленный материал. Широкий угол, proof, человеческий момент, 2-3 направления хука. Полный каркас делает отдельный video-script.

Порядок важен: threads генерятся после blog и telegram, потому что ссылаются на них как источник.

Полировка

Любой сгенерированный черновик содержит повторы и AI-маркеры. Всегда. Для этого существует последнее звено.

  • Проверяет четыре вещи:
  • Фактичность: все ли факты есть в карточке? Не написано ли «я сделал X» если X делала нейросеть?
  • Логика: каждый абзац следует из предыдущего? Переходы объяснимы?
  • Повторы: одна мысль не сказана дважды? Слово не повторяется 5+ раз? Тире не в каждом предложении?
  • AI-маркеры: «важно отметить», «стоит подчеркнуть», «безусловно», «на самом деле», «таким образом». Правило простое: если слово не скажешь другу за чаем, его быть не должно.

Отдельно: FAQ в конце build-log статьи выглядит пришитым. Если вопрос реально интересный, ревью встраивает его в текст. Если дублирует контент — убирает.

Цифры за 4 дня

  • С 25 по 28 марта цепочка переработала сессии из трёх проектов (MAKO, PersonalBrand, Мой сайт).
  • 12 briefs (карточек историй)
  • 39 черновиков для четырёх форматов (blog, telegram, threads, reel-pack)
  • 4 дня от первого brief до этого текста
  • Score от 5/10 до 8/10

Зачем вообще building in public

Контент-маркетинг для разработчика. Показываешь работу — получаешь доверие. SEO тянет органику на месяцы, Telegram и Threads дают быстрый контакт, Reels приводят новую аудиторию.

Проблема не в том что нечего рассказать. Рассказывать нужно регулярно, а на это уходит время которое мог бы потратить на работу. Build-log убирает это противоречие: работаешь как обычно, контент вытаскивается из процесса автоматически.

Что здесь сделала нейросеть и что сделал я

Я спроектировал архитектуру: агенты, спеки, формат карточки, правила для каждого формата. Написал восемь спецификаций. Ревьюил каждую карточку, правил хронологию, подтверждал факты. Принимал решения: какие категории контента, какой score считать проходным, что публиковать а что нет.

Claude Code написал весь код: агенты, скиллы, platform profiles. Все три звена работают как его субагенты. Решения что вытаскивать, как упаковывать, что считать качественным текстом, какие AI-маркеры убирать — написаны в спеках, которые формулировал я.

Этот текст написан той же цепочкой

Drafter взял brief об этой цепочке и сгенерировал черновик. Text-review прошёлся по нему. Я проверил факты. То, что вы это читаете — и есть результат.

Практическая часть проста: любой, кто работает с Claude Code (или другим AI-ассистентом с логами сессий), может собрать такое же. Спеки открыты, подход воспроизводим.


Предыдущие посты серии: За 2 дня с нуля до первого ролика | Content engine: 3 этапа через спеки и дебаты | 7 секунд чёрного экрана