Продолжение истории, начало тут Часть 1.

Сайт восстановлен и работает. Постить контент вручную - долго и неинтересно, потому решил вплотную заняться автоматизацией. Найти донора, вытащить статью, отрерайтить нейронкой, опубликовать на сайте, profit! - звучит как план.

Первым делом выбираем инструментарий. В то время, как всё прогрессивное человечество повсеместно использует ИИ-агентов, мы возмём старый добрый n8n. С помощью chatgpt и 20 чашек чая удалось наваять следующую схему. Работает она примерно так:

  1. Запускаемся по крону 3 раза в сутки (для отладки добавлен ручной запуск). Получаем список последних новостей в “RSS Read”. Перед ним есть пара блоков работы с базой данных n8n, о них напишу позже, т.к. скорее всего вам они не понадобятся.
  2. Собрали список статей в один массив и скормили Gemini. Роль - ты профессионал в тематике, выбери из списка лучшую новость. Такой себе главред, должен выяснить, какая новость потенциально принесёт больше трафика.
  3. Выгружаем текст выбранной новости со страницы источника. Чтобы не париться с капчами/проксями - подключаем сторонний сервис.
  4. Далее из текста извлекаем сам текст статьи. Источник, к счастью, не защищается от парсинга генерацией рандомных html-элементов, так что простыми инструментами получаем контент.
  5. Дальше второй запрос к ИИ на рерайт. Одним запросом просим переписать статью, придумать title/description и промпт для заглавной картинки. Парсим ответ в переменные n8n.
  6. Pollination генерирует нам картинку по промпту. Бесплатные модели не самые крутые, в промпт надо зашивать правила типа “не генерировать реально существующих людей”, потому как простые модели просто не смогут их правильно сгенерировать. Сгенерированную картинку отправляем в Wordpress.
  7. Дальше отправляем в WP сам пост со всеми полями и в конце привязываем картинку к посту.

Записываем в базу данных n8n ту новость с донора, которую рерайтили. В целом по базе данных ситуация такая: новости на доноре публикуются с разной периодичностью “то густо, то пусто”. Так что есть риск, что при очередном запросе на rss там не окажется новых новостей, и “главред” выберет как интересную уже отрерайченную новость. Чтобы этого не произошло мы отрерайченные новости пишем в базу и исключаем из очередной порции новостей для выбора “главредом” и периодически удаляем старые новости.

Как итог: сайт потихоньку наполняется контентом, есть минимальный трафик (подозреваю, что преимущественно боты). Следующие этапы - автопостинг в социалки и автонаполнение комментариями.