Jarvis: результаты первого дня
Я подключил к агенту 2 агента (БД и ютуб) и пытаюсь заставить агента в один запрос сделать следующее:
1. Найти топовое видео на ютубе в определенной нише.
2. Транскрибировать его.
3. Написать верхнеуровневый скрипт, название и описание картинки для нового видео.
4. Записать всю эту информацию в таблицу (которой не существует и ее нужно создать).
Неудивительно, что все мультиагентские системы от “креаторов” сейчас выглядят как набор последовательных агентов без тулзов, что само по себе является обычным Chat Completion запросом - то есть автоматизацией, а не агентом. Потому что, чтобы заставить агента думать, выполнять задачи и взаимодействовать с другими агентами, нужно решить миллион различных проблем.
Вот некоторые из них:
1️⃣ AI Agent node в n8n создан на основе Langchain и абсолютно бесполезен, если вы не контролируете параметры и подходы самого Langchain.
Я посмотрел логи агента, дополнительно разобрал код модуля с Gemini и подтвердил свои опасения - они лепят историю, системный промпт и запрос в одну большую кашу. Как результат - ИИ агент с трудом слушается команд и понимает что вообще нужно делать.
Особенно это видно на сложных много ступенчатых задачах и длинных диалогах - вместо выполнения текущего запроса агент может выловить предыдущий запрос из истории и начать выполнять его.
Вывод - делать основного агента на OpenAI.
2️⃣ Побочные эффекты первого пункта - агент не слушается системного промпта и настырно лезет выполнять все задачи сам, вместо того чтобы планировать и делегировать большие задачи своим помощникам.
Также, агент упускает важные детали и начинает делать отсебятину - это будет правиться с помощью дополнительной проверки позже.
3️⃣ Tavily, который пихают все креаторы ютуба, оказался полным разочарованием(что неудивительно) - вместо него лучше использовать Perplexity для сложных исследований и Firecrawl для поиска и парсинга сайтов.
___
В итоге первый день растянется на два дня, но это не удивительно, ведь мы пытаемся создать то, чего еще не было.
Чуть позже вернусь с результатами и конкретными мини-открытиями/решениями, которые удалось сделать во время разработки.
P.S. есть вакантное место для проекта с ИИ - если у вас есть идеи и бюджет от $3k, то пишите в личку
Я подключил к агенту 2 агента (БД и ютуб) и пытаюсь заставить агента в один запрос сделать следующее:
1. Найти топовое видео на ютубе в определенной нише.
2. Транскрибировать его.
3. Написать верхнеуровневый скрипт, название и описание картинки для нового видео.
4. Записать всю эту информацию в таблицу (которой не существует и ее нужно создать).
Неудивительно, что все мультиагентские системы от “креаторов” сейчас выглядят как набор последовательных агентов без тулзов, что само по себе является обычным Chat Completion запросом - то есть автоматизацией, а не агентом. Потому что, чтобы заставить агента думать, выполнять задачи и взаимодействовать с другими агентами, нужно решить миллион различных проблем.
Вот некоторые из них:
1️⃣ AI Agent node в n8n создан на основе Langchain и абсолютно бесполезен, если вы не контролируете параметры и подходы самого Langchain.
Я посмотрел логи агента, дополнительно разобрал код модуля с Gemini и подтвердил свои опасения - они лепят историю, системный промпт и запрос в одну большую кашу. Как результат - ИИ агент с трудом слушается команд и понимает что вообще нужно делать.
Особенно это видно на сложных много ступенчатых задачах и длинных диалогах - вместо выполнения текущего запроса агент может выловить предыдущий запрос из истории и начать выполнять его.
Вывод - делать основного агента на OpenAI.
2️⃣ Побочные эффекты первого пункта - агент не слушается системного промпта и настырно лезет выполнять все задачи сам, вместо того чтобы планировать и делегировать большие задачи своим помощникам.
Также, агент упускает важные детали и начинает делать отсебятину - это будет правиться с помощью дополнительной проверки позже.
3️⃣ Tavily, который пихают все креаторы ютуба, оказался полным разочарованием
___
В итоге первый день растянется на два дня, но это не удивительно, ведь мы пытаемся создать то, чего еще не было.
Чуть позже вернусь с результатами и конкретными мини-открытиями/решениями, которые удалось сделать во время разработки.
P.S. есть вакантное место для проекта с ИИ - если у вас есть идеи и бюджет от $3k, то пишите в личку
Такс, краткие новости
1️⃣ История с Skool комьюнити еще жива, но я решил прикрыть бесплатное сообщество, так как плачу за него $100 в месяц, никто не спрашивает там вопросов и нет желания пытаться делать контент в десяток разных мест одновременно.
В итоге поступило даже предложение о покупке и я задумался, что можно его продать, чтобы монетизировать хотя бы толику затраченных сил.
Если кому-то интересно пишите в личку, там - 2600 почт (бОльшая часть США и Европа, фрилансеры и оунеры), CRM для рассылок и разные автоматизации для общения/создания контента.
Цена $5000.
2️⃣ Платное комьюнити будет жить - я решил вернуться к проектам, так как понял, что гонку с профессиональнымипиздаболами креаторами я не выиграю. Я хочу продолжать делать что-то умное и интересное, исследовать ИИ и делиться находками в спокойном режиме. Поэтому я буду потихоньку пополнять платное комьюнити курсами (ИИ агенты, N8N) и разными гайдами, параллельно работая и получая реальный опыт на проектах.
Хочу попробовать другие форматы и думаю провести онлайн-трансляцию копирования какого-нить $$$ продукта с Lovable за один час . Что думаете?
3️⃣ Еще задумался провести лекции в живую, так как это просто драйвит. В Питере пока вижу два потенциальных места - библиотека Маяковского и Просто коворкинг. Возможно кто-то знает потенциальные площадки?
____
Для поиска проектов решил собрать портфолио и оказалось, что кейсов у меня примерно столько же, сколько платных подписчиков в сообществе.
При том, что у креаторов с нулем кейсов тысячи подписчиков, кажется выявляется закономерность с пропорциями🧐
1️⃣ История с Skool комьюнити еще жива, но я решил прикрыть бесплатное сообщество, так как плачу за него $100 в месяц, никто не спрашивает там вопросов и нет желания пытаться делать контент в десяток разных мест одновременно.
В итоге поступило даже предложение о покупке и я задумался, что можно его продать, чтобы монетизировать хотя бы толику затраченных сил.
Если кому-то интересно пишите в личку, там - 2600 почт (бОльшая часть США и Европа, фрилансеры и оунеры), CRM для рассылок и разные автоматизации для общения/создания контента.
Цена $5000.
2️⃣ Платное комьюнити будет жить - я решил вернуться к проектам, так как понял, что гонку с профессиональными
Хочу попробовать другие форматы и думаю провести онлайн-трансляцию копирования какого-нить $$$ продукта с Lovable за один час . Что думаете?
3️⃣ Еще задумался провести лекции в живую, так как это просто драйвит. В Питере пока вижу два потенциальных места - библиотека Маяковского и Просто коворкинг. Возможно кто-то знает потенциальные площадки?
____
Для поиска проектов решил собрать портфолио и оказалось, что кейсов у меня примерно столько же, сколько платных подписчиков в сообществе.
При том, что у креаторов с нулем кейсов тысячи подписчиков, кажется выявляется закономерность с пропорциями
Please open Telegram to view this post
VIEW IN TELEGRAM
Обновил сайт с Lovable
Прошлый сайт был красивым (спасибо жене), но лежал мертвым грузом и уже устарел к моменту его завершения - там не было ничего про ИИ.
Хотелось сделать что-то простое, где была бы суть, а не картинка.
Картинку сейчас сделать не так сложно - я вижу кучу хороших дизайнов у агентств креаторов, поэтому не вижу особого смысла соревноваться в картинке.к тому же в америке больше входу полотна текста среди продающих лендосов
Вместо этого я добавил список кейсов, который является наверное пятой долей от того, что на самом деле мы сделали.
А также добавил нечто вроде FAQ, где расписал свои мысли по поводу типичных проектов с RAG и генерацией контента.
Многие клиенты приходят с ложными представлениями о возможностях ИИ, поэтому хотелось бы объяснять им все “на входе”, чтобы не тратить свое и чужое время.
https://lowcoding.dev/
Прошлый сайт был красивым (спасибо жене), но лежал мертвым грузом и уже устарел к моменту его завершения - там не было ничего про ИИ.
Хотелось сделать что-то простое, где была бы суть, а не картинка.
Картинку сейчас сделать не так сложно - я вижу кучу хороших дизайнов у агентств креаторов, поэтому не вижу особого смысла соревноваться в картинке.
Вместо этого я добавил список кейсов, который является наверное пятой долей от того, что на самом деле мы сделали.
А также добавил нечто вроде FAQ, где расписал свои мысли по поводу типичных проектов с RAG и генерацией контента.
Многие клиенты приходят с ложными представлениями о возможностях ИИ, поэтому хотелось бы объяснять им все “на входе”, чтобы не тратить свое и чужое время.
https://lowcoding.dev/
Не используйте AI Agent ноду для агентов
Я давно заметил, что AI Agent нода работает куда хуже как агент, нежели OpenAI ассистент.
С ней агенты хуже следуют промптам, помнят историю и выбирают инструменты.
Я решил разобраться почему так.
1️⃣Каждая модель (OpenAI, Gemini, Claude) натренирована определенным образом и ожидает на входе данные в определенном формате с разметкой.
2️⃣По сути модель всегда обрабатывает 1 сообщение, которое содержит в себе сразу все - системный промпт, ваш запрос, предыдущую историю, описание тулзов, описание output формата.
3️⃣ Каждую модель обучали по своему - к примеру OpenAI использует ChatML, где указаны роли (ассистент, пользователь, система) и промпты в формате JSON. Также с разметкой идет и история, тулзы и тд.
4️⃣ Langchain принимает данные на входе в одном формате, а далее “переводит” их в формат выбранной LLM.
Пока он это делает, он может немного видоизменять данные и формат в силу технических особенностей и непоспеванием за обновлениями LLM.
Наглядно - если открыть execution AI agent ноды в N8N и посмотреть, что он отправляет во время рассуждений, то там видно, как он склеивает system prompt, user prompt и историю в одну гигантскую кашу, где даже человек ногу сломит.
➡️В итоге как результат LLM (а конкретно OpenAI) получает вводные данные не в том виде, в котором привыкла, а значит хуже их распознает.
Это влияет на все - следование промпту, выбор инструментов, память прошлых сообщений.
Таким образом, лучше всего использовать OpenAI ассистента напрямую - тогда он будет лучше распознавать инструменты, использовать умную память, которая делает автоматическое саммари, а не просто удаляет старые сообщения.
Я проводил этот эксперимент на 5+ проектах клиентов и друзей - просто менял AI agent ноду на OpenAI ассистента, оставляя набор инструментов и промпт тем же. Результат - агенты сразу начинали себя вести так, как они должны себя вести.
___
ПС Это мое обывательское понимание Langchain, которое я выудил из Gemini. Не знаю читают ли меня хардовые ML инженеры, возможно они смогут поправить, если понял не так.
Я давно заметил, что AI Agent нода работает куда хуже как агент, нежели OpenAI ассистент.
С ней агенты хуже следуют промптам, помнят историю и выбирают инструменты.
Я решил разобраться почему так.
1️⃣Каждая модель (OpenAI, Gemini, Claude) натренирована определенным образом и ожидает на входе данные в определенном формате с разметкой.
2️⃣По сути модель всегда обрабатывает 1 сообщение, которое содержит в себе сразу все - системный промпт, ваш запрос, предыдущую историю, описание тулзов, описание output формата.
3️⃣ Каждую модель обучали по своему - к примеру OpenAI использует ChatML, где указаны роли (ассистент, пользователь, система) и промпты в формате JSON. Также с разметкой идет и история, тулзы и тд.
[
{ "role": "system", "content": "You are a helpful assistant." },
{ "role": "user", "content": "What is the capital of France?" },
{ "role": "assistant", "content": "Paris." }
]
4️⃣ Langchain принимает данные на входе в одном формате, а далее “переводит” их в формат выбранной LLM.
Пока он это делает, он может немного видоизменять данные и формат в силу технических особенностей и непоспеванием за обновлениями LLM.
Наглядно - если открыть execution AI agent ноды в N8N и посмотреть, что он отправляет во время рассуждений, то там видно, как он склеивает system prompt, user prompt и историю в одну гигантскую кашу, где даже человек ногу сломит.
➡️В итоге как результат LLM (а конкретно OpenAI) получает вводные данные не в том виде, в котором привыкла, а значит хуже их распознает.
Это влияет на все - следование промпту, выбор инструментов, память прошлых сообщений.
Таким образом, лучше всего использовать OpenAI ассистента напрямую - тогда он будет лучше распознавать инструменты, использовать умную память, которая делает автоматическое саммари, а не просто удаляет старые сообщения.
Я проводил этот эксперимент на 5+ проектах клиентов и друзей - просто менял AI agent ноду на OpenAI ассистента, оставляя набор инструментов и промпт тем же. Результат - агенты сразу начинали себя вести так, как они должны себя вести.
___
ПС Это мое обывательское понимание Langchain, которое я выудил из Gemini. Не знаю читают ли меня хардовые ML инженеры, возможно они смогут поправить, если понял не так.
Обновил сайт 2.0
После справедливых комментариев я еще раз взглянул на свой сайт, взглянул на сайты конкурентов и понял, что на коне не я.
Я закатал рукава и пошел нагло тырить крутые элементы из готовых UI kits.
Вот частичный список, на случай если вы захотели модненькие анимации для своего сайта:
1️⃣ Aceternity UI - самые приятные и топовые компоненты для лендинга.
2️⃣ React Bits - куча интересных анимашек для лендинга и не только.
3️⃣ Hero UI - большой красивый пак с детально продуманными компонентами для интерфейса (не в обиду shadcn).
За часок удалось хорошенько накрасить губы и добавить еще одну страницу про сообщество.
Кстати, в нем есть курс по Lovable, где я собрал еще больше дизайн библиотек для разработки с Lovable😏
Заценить тут - lowcoding.dev
После справедливых комментариев я еще раз взглянул на свой сайт, взглянул на сайты конкурентов и понял, что на коне не я.
Я закатал рукава и пошел нагло тырить крутые элементы из готовых UI kits.
Вот частичный список, на случай если вы захотели модненькие анимации для своего сайта:
1️⃣ Aceternity UI - самые приятные и топовые компоненты для лендинга.
2️⃣ React Bits - куча интересных анимашек для лендинга и не только.
3️⃣ Hero UI - большой красивый пак с детально продуманными компонентами для интерфейса (не в обиду shadcn).
За часок удалось хорошенько накрасить губы и добавить еще одну страницу про сообщество.
Кстати, в нем есть курс по Lovable, где я собрал еще больше дизайн библиотек для разработки с Lovable
Заценить тут - lowcoding.dev
Please open Telegram to view this post
VIEW IN TELEGRAM
Очередной душный гайд
Продолжаем делать сложные штуки - сегодня гайд про то, как улучшить выдачу RAG агента.
Представим, что у вас сотня файлов и несколько тысяч векторов.
При поиске среди векторов вы можете получить в выдаче пару десятков результатов, которые могут попросту не влезть в input ИИ или же ответ на ваш вопрос будет лежать в следующей десятке, которая останется за бортом.
Что делать? Сужать поиск.
Нет смысла искать информацию о ракетах в баснях Крылова, поэтому есть смысл предварительно отфильтровать файлы, среди которых мы хотим делать поиск.
Также это может помочь, если у вас много файлов с близкой по смыслу информацией, и тонкую разницу между файлами можно понять по их описанию.
Итак, чтобы реализовать это, мы:
1️⃣ Добавляем таблицы
2️⃣ Добавляем данные в таблицы - в
3️⃣ Создаем Supabase функции для поиска по векторам
4️⃣ Топаем в N8N и делаем флоу с кодом для поиска по файлам и далее для поиска по
Таким образом - сначала мы находим подходящие файлы в списке файлов, используя их описание, а далее ищем подходящие куски текста только в этих файлах, чем сужаем поиск.
Также, засчет кастомной функции нам удается получить ссылку на файл для найденных векторов, которую мы можем вернуть вместе с ответом пользователю.
Ссылка на видео гайд (английский) - https://www.youtube.com/watch?v=asXVOHg89hs
Ссылка на сообщество с шаблоном - https://www.skool.com/5minai-pro
Продолжаем делать сложные штуки - сегодня гайд про то, как улучшить выдачу RAG агента.
Представим, что у вас сотня файлов и несколько тысяч векторов.
При поиске среди векторов вы можете получить в выдаче пару десятков результатов, которые могут попросту не влезть в input ИИ или же ответ на ваш вопрос будет лежать в следующей десятке, которая останется за бортом.
Что делать? Сужать поиск.
Нет смысла искать информацию о ракетах в баснях Крылова, поэтому есть смысл предварительно отфильтровать файлы, среди которых мы хотим делать поиск.
Также это может помочь, если у вас много файлов с близкой по смыслу информацией, и тонкую разницу между файлами можно понять по их описанию.
Итак, чтобы реализовать это, мы:
1️⃣ Добавляем таблицы
files
(с описанием файлов) и documents
(с векторами) в Supabase2️⃣ Добавляем данные в таблицы - в
files
у нас будут ссылки на файлы и описание с векторами, в documents
куски текста и вектора с ссылкой на file
. 3️⃣ Создаем Supabase функции для поиска по векторам
files
и documents
4️⃣ Топаем в N8N и делаем флоу с кодом для поиска по файлам и далее для поиска по
documents
с фильтром по найденным файлам.Таким образом - сначала мы находим подходящие файлы в списке файлов, используя их описание, а далее ищем подходящие куски текста только в этих файлах, чем сужаем поиск.
Также, засчет кастомной функции нам удается получить ссылку на файл для найденных векторов, которую мы можем вернуть вместе с ответом пользователю.
Ссылка на видео гайд (английский) - https://www.youtube.com/watch?v=asXVOHg89hs
Ссылка на сообщество с шаблоном - https://www.skool.com/5minai-pro
Собрал еще одну пушку - ИИ агент для Snowflake
Но не просто для общения с базой, а для генерации отчетов с графиками.
Проблема обычно в том, что нельзя ИИ агенту позволять запускать любой SQL запрос - он может дернуть слишком много информации.
Я сделал так, чтобы он писал запрос и отдавал результат, упаковынный в отдельную страничку, если он больше 100 строк.
Страничка по сути вебхук n8n, который получает на входе query параметр с SQL запросом и дергает Snowflake. В результате отдает красивый HTML с подгруженными данными - безотходное производство, никаких данных не храним.
Гайд на английском уже тут - https://youtu.be/r7er-HCRsX4
Но не просто для общения с базой, а для генерации отчетов с графиками.
Проблема обычно в том, что нельзя ИИ агенту позволять запускать любой SQL запрос - он может дернуть слишком много информации.
Я сделал так, чтобы он писал запрос и отдавал результат, упаковынный в отдельную страничку, если он больше 100 строк.
Страничка по сути вебхук n8n, который получает на входе query параметр с SQL запросом и дергает Snowflake. В результате отдает красивый HTML с подгруженными данными - безотходное производство, никаких данных не храним.
Гайд на английском уже тут - https://youtu.be/r7er-HCRsX4
В воскресенье проводил стрим и 2 часа пинал приложение по генерации шортсов.
Получается неплохо, думаю через пару дней покажу.
Но самое интересное - я захотел впилить туда полноценный видео редактор, чтобы можно было накрасить губы сгенерированному видео.
В итоге удалось найти 2 решения - Remotion и Git какого-то чела.
Remotion Studio я не смог установить с Lovable, но думаю это все же возможно.
Зато смог установить Гит - сделал болванку на Lovable, подключил к гитхабу и через терминал потер все что было в гите и перенес гит с редактором туда.
Таким образом Lovable увидел этот редактор и далее я продолжил делать приложение уже с подготовленным редактором.
Гит - https://github.com/designcombo/react-video-editor
Remotion Studio - https://www.remotion.dev/docs/studio/deploy-static
Получается неплохо, думаю через пару дней покажу.
Но самое интересное - я захотел впилить туда полноценный видео редактор, чтобы можно было накрасить губы сгенерированному видео.
В итоге удалось найти 2 решения - Remotion и Git какого-то чела.
Remotion Studio я не смог установить с Lovable, но думаю это все же возможно.
Зато смог установить Гит - сделал болванку на Lovable, подключил к гитхабу и через терминал потер все что было в гите и перенес гит с редактором туда.
Таким образом Lovable увидел этот редактор и далее я продолжил делать приложение уже с подготовленным редактором.
Гит - https://github.com/designcombo/react-video-editor
Remotion Studio - https://www.remotion.dev/docs/studio/deploy-static
Курсы по Lovable и n8n на русском языке
Делаю курс по N8N и диву даюсь как хорошо получается.
Тут я задумался - в комментах иногда пишут, что нужен курс на русском, поэтому решил проверить есть ли спрос.
Я легко могу перевести весь текст и упаковать вместе с картинками в Notion.
И так на витрине 3 потенциальных продукта:
1️⃣ Lovable
Этот курс уже готов. В курсе включена теория по Supabase, интеграции с N8N, куча источников для дизайна, блок с подготовкой документации проекта (PRD), хостинг на Netlify и работа с проектом через Cursor.
Итогом курса является собственное или заданное разработанное приложение с несколькими ролями и настроенной безопасностью. Есть детальный гайд по копированию готового приложения, если возникнут трудности с его разработкой.
2️⃣ N8N
Этот курс только разрабатывается. В нем будет мой 5 летний опыт автоматизаций и работы с Make/N8N - от основ до самых сложных логических сценариев. Также хочу добавить блок про бизнес-анализ.
3️⃣ ИИ Агенты
Этот курс в планах. В нем хочу разобрать все возможные примеры агентов (с большим упором на RAG), прямую интеграцию с OpenAI (HTTP/code), разные лайфхаки из собственного опыта.
Цена за один курс символическая - 15.000 руб.
Если вы готовы купить курс здесь и сейчас - заявку на покупку можно оставить через форму
Если наберем хотя бы 10 человек на курс, то сделаю переводы.
____
Ну и скриншоты текущих наработок, если вдруг вы не осознаете, насколько я нерд до детальнейшего описания всего что только можно
Делаю курс по N8N и диву даюсь как хорошо получается.
Тут я задумался - в комментах иногда пишут, что нужен курс на русском, поэтому решил проверить есть ли спрос.
Я легко могу перевести весь текст и упаковать вместе с картинками в Notion.
И так на витрине 3 потенциальных продукта:
1️⃣ Lovable
Этот курс уже готов. В курсе включена теория по Supabase, интеграции с N8N, куча источников для дизайна, блок с подготовкой документации проекта (PRD), хостинг на Netlify и работа с проектом через Cursor.
Итогом курса является собственное или заданное разработанное приложение с несколькими ролями и настроенной безопасностью. Есть детальный гайд по копированию готового приложения, если возникнут трудности с его разработкой.
2️⃣ N8N
Этот курс только разрабатывается. В нем будет мой 5 летний опыт автоматизаций и работы с Make/N8N - от основ до самых сложных логических сценариев. Также хочу добавить блок про бизнес-анализ.
3️⃣ ИИ Агенты
Этот курс в планах. В нем хочу разобрать все возможные примеры агентов (с большим упором на RAG), прямую интеграцию с OpenAI (HTTP/code), разные лайфхаки из собственного опыта.
Цена за один курс символическая - 15.000 руб.
Если вы готовы купить курс здесь и сейчас - заявку на покупку можно оставить через форму
Если наберем хотя бы 10 человек на курс, то сделаю переводы.
____
Ну и скриншоты текущих наработок, если вдруг вы не осознаете, насколько я нерд до детальнейшего описания всего что только можно
10 часов, $25 за 100 сообщений в Lovable и вуаля - SaaS на миллион готов.
Если вы не знали, то сообщаю - интернет сходит с ума с различных сгенерированных видео. ИИ шортсы месяца на ютубе набирают по 500 млн просмотров, а весь N8N templates завален шаблонами для генерации стеклянных фруктов. (вроде как все это еще и монетизируется😏 )
Я решил, что тут явно требуется что-то посерьезнее, чем ручная настройка шаблонов в Creatomat под каждый новый тип видео и решил собрать универсальный генератор, который сможет генерировать любые ролики.
Итак внутри:
⁃ генерация сценариев видео в одном стиле по заданному промпту
⁃ генерация видео, аудио эффектов и озвучки для каждого кадра в сценарии
⁃ возможность регенарации медиа для отдельных кадров
⁃ упрощенный редактор с возможностью менять очередность кадров и медиа
⁃ экспорт готового видео
⁃ подключение собственного API ключа для 11labs и PiAPI
Дальше больше:
⁃ полноценный редактор
⁃ выбор различных моделей и интеграция с Fal.ai
⁃ авто-копирование стиля загруженного ролика
⁃ учет потраченных токенов
Посмотреть как это выглядит вживую можно тут:
https://www.loom.com/share/c16f5d7d3519475eb46b2161111ae3b5
Что думаете? Есть потребность в таком на рынке или мне кажется?
___
П.С. Курс по Lovable почти переведен, завтра открою продажу, записаться можно тут
Если вы не знали, то сообщаю - интернет сходит с ума с различных сгенерированных видео. ИИ шортсы месяца на ютубе набирают по 500 млн просмотров, а весь N8N templates завален шаблонами для генерации стеклянных фруктов. (вроде как все это еще и монетизируется
Я решил, что тут явно требуется что-то посерьезнее, чем ручная настройка шаблонов в Creatomat под каждый новый тип видео и решил собрать универсальный генератор, который сможет генерировать любые ролики.
Итак внутри:
⁃ генерация сценариев видео в одном стиле по заданному промпту
⁃ генерация видео, аудио эффектов и озвучки для каждого кадра в сценарии
⁃ возможность регенарации медиа для отдельных кадров
⁃ упрощенный редактор с возможностью менять очередность кадров и медиа
⁃ экспорт готового видео
⁃ подключение собственного API ключа для 11labs и PiAPI
Дальше больше:
⁃ полноценный редактор
⁃ выбор различных моделей и интеграция с Fal.ai
⁃ авто-копирование стиля загруженного ролика
⁃ учет потраченных токенов
Посмотреть как это выглядит вживую можно тут:
https://www.loom.com/share/c16f5d7d3519475eb46b2161111ae3b5
Что думаете? Есть потребность в таком на рынке или мне кажется?
___
П.С. Курс по Lovable почти переведен, завтра открою продажу, записаться можно тут
Please open Telegram to view this post
VIEW IN TELEGRAM
Вводный курс по Lovable
Публикую вводную часть курса по Lovable, в рамках которой рассказываю как подготавливать ТЗ проекта и среду Lovable для качественного старта.
Ссылка на курс:
https://lowcodingdev.notion.site/Lovable-2258f31dd5d4805fb780f34e5b94ef1f?source=copy_link
Публикую вводную часть курса по Lovable, в рамках которой рассказываю как подготавливать ТЗ проекта и среду Lovable для качественного старта.
Ссылка на курс:
https://lowcodingdev.notion.site/Lovable-2258f31dd5d4805fb780f34e5b94ef1f?source=copy_link
Кто я такой
Решил дать небольшую рекламу по курсу и поэтому хочу познакомиться с новыми подписчиками и напомнить текущим кто я такой.
Привет, меня зовут Марк!
Последние 6 лет я занимаюсь бизнес-анализом и ноукод разработкой.
Эта сфера помогла мне выбраться из своего сибирского города и посетить 9 стран, получить ВНЖ Испании, заработать почти 20 млн. рублей, поработать с 40 компаниями со всего миравключая Miro , и познакомиться с кучей интересных людей.
Я стараюсь работать в основном с зарубежными компаниями, создаю на заказ MVP продуктов и автоматизирую бизнес процессы с помощью стэка инструментов - Lovable, N8N, Supabase, OpenAI.
У меня есть брендинг агентства (Lowcoding.dev), но на самом деле я работаю один или с друзьями, которых я когда-то привел в эту сферу.
Клиенты, узнав меня поближе, понимают, что нашли нужного человека, который обеспечивает хорошее качество и заботится о продукте, поэтому мой основной источников лидов - сарафанное радио.
Я завел этот блог, потому что мне нравится писать и делиться своими мыслями и знаниями, а также помогать людям и учить их чему-то новому.
Последние полгода я начал снимать блог (5minAI) на английском языке и создал сообщество (в бесплатном было 2.600 человек), но пока что оно не очень хорошо монетизируется и я немного фрустрирую.
Я не перестаю работать с клиентами и пытаюсь делать то, чего еще не было, поэтому в этом канале можно постоянно найти уникальную информацию, полученную экспериментальным путем.
Когда у меня есть свободное время, я люблю заниматься экстремальными видами спорта и креативить, но его у меня нет.🤕
Спасибо за внимание
Решил дать небольшую рекламу по курсу и поэтому хочу познакомиться с новыми подписчиками и напомнить текущим кто я такой.
Привет, меня зовут Марк!
Последние 6 лет я занимаюсь бизнес-анализом и ноукод разработкой.
Эта сфера помогла мне выбраться из своего сибирского города и посетить 9 стран, получить ВНЖ Испании, заработать почти 20 млн. рублей, поработать с 40 компаниями со всего мира
Я стараюсь работать в основном с зарубежными компаниями, создаю на заказ MVP продуктов и автоматизирую бизнес процессы с помощью стэка инструментов - Lovable, N8N, Supabase, OpenAI.
У меня есть брендинг агентства (Lowcoding.dev), но на самом деле я работаю один или с друзьями, которых я когда-то привел в эту сферу.
Клиенты, узнав меня поближе, понимают, что нашли нужного человека, который обеспечивает хорошее качество и заботится о продукте, поэтому мой основной источников лидов - сарафанное радио.
Я завел этот блог, потому что мне нравится писать и делиться своими мыслями и знаниями, а также помогать людям и учить их чему-то новому.
Последние полгода я начал снимать блог (5minAI) на английском языке и создал сообщество (в бесплатном было 2.600 человек), но пока что оно не очень хорошо монетизируется и я немного фрустрирую.
Я не перестаю работать с клиентами и пытаюсь делать то, чего еще не было, поэтому в этом канале можно постоянно найти уникальную информацию, полученную экспериментальным путем.
Когда у меня есть свободное время, я люблю заниматься экстремальными видами спорта и креативить, но его у меня нет.
Спасибо за внимание
Please open Telegram to view this post
VIEW IN TELEGRAM
Как я использовал ИИ на прошлой неделе
1️⃣ Раньше я использовал Deepl, чтобы исправить ошибки в английской речи, но теперь завел отдельный чат в GPT и задал ему промпт на исправление ошибок. В итоге все собирается в одном месте, и я могу раз в неделю просить сделать саммари с наиболее распространенными ошибками и задания для их исправления.
Дополнительный лайфхак - смотреть видео по интересной вам теме на ютубе и потом транскрибировать его и прогонять через GPT, чтобы вытащить все уникальные словосочетания, которые могут расширить ваш словарный запас.
2️⃣ У меня в аптечке за несколько лет скопилась пачка всяких таблеток еще и с разных стран. Я решил разово внести их всех в отдельный чат, чтобы можно было быстро проконсультироваться при признаках заболевания. Но лучше не болеть и делать профилактику (эхинацея/прополис, спорт, медитации)
3️⃣ Вместе с Perplexity и GPT получил быстрый экскурс в закупку рекламы в ТГ каналах - первый может сделать глубокий быстрый рисерч по теме и ввести в курс дела на уровне среднего эксперта, а второй поможет реализовать текста и подборку каналов по метрикам.
4️⃣ Помимо кучи обычного кода я смог с ИИ разобраться с облачным рендерингом видео с Remotion. Для этого потребовалось развернуть проект на Github, написать Supabase edge function и функцию на AWS lambda. В итоге Supabase триггерит AWS со всей нужной информацией, там рендерится видео и возвращается назад.
5️⃣ Благодаря Эдуарду получил новый проект на $6000 - изначально хотел просить 5к, но посоветовался с ИИ и выставил счет на $7k, который в итоге сторговался до 6. Поэтому если вы тоже скромничаете и недооцениваете себя - ИИ отличный партнер, который ничего не боится и не скромничает - настоящая акула бизнеса.
6️⃣ Также из забавного - делал по заказу мамы кастомную наклейку на вино с изображением человека. Для непосвященных родителей генерация картинки с человеком с фотографии по ВАУ эффекту на равне с прилетом инопланетян.
А как вы используете ИИ для работы и жизни?
1️⃣ Раньше я использовал Deepl, чтобы исправить ошибки в английской речи, но теперь завел отдельный чат в GPT и задал ему промпт на исправление ошибок. В итоге все собирается в одном месте, и я могу раз в неделю просить сделать саммари с наиболее распространенными ошибками и задания для их исправления.
Дополнительный лайфхак - смотреть видео по интересной вам теме на ютубе и потом транскрибировать его и прогонять через GPT, чтобы вытащить все уникальные словосочетания, которые могут расширить ваш словарный запас.
2️⃣ У меня в аптечке за несколько лет скопилась пачка всяких таблеток еще и с разных стран. Я решил разово внести их всех в отдельный чат, чтобы можно было быстро проконсультироваться при признаках заболевания. Но лучше не болеть и делать профилактику (эхинацея/прополис, спорт, медитации)
3️⃣ Вместе с Perplexity и GPT получил быстрый экскурс в закупку рекламы в ТГ каналах - первый может сделать глубокий быстрый рисерч по теме и ввести в курс дела на уровне среднего эксперта, а второй поможет реализовать текста и подборку каналов по метрикам.
4️⃣ Помимо кучи обычного кода я смог с ИИ разобраться с облачным рендерингом видео с Remotion. Для этого потребовалось развернуть проект на Github, написать Supabase edge function и функцию на AWS lambda. В итоге Supabase триггерит AWS со всей нужной информацией, там рендерится видео и возвращается назад.
5️⃣ Благодаря Эдуарду получил новый проект на $6000 - изначально хотел просить 5к, но посоветовался с ИИ и выставил счет на $7k, который в итоге сторговался до 6. Поэтому если вы тоже скромничаете и недооцениваете себя - ИИ отличный партнер, который ничего не боится и не скромничает - настоящая акула бизнеса.
6️⃣ Также из забавного - делал по заказу мамы кастомную наклейку на вино с изображением человека. Для непосвященных родителей генерация картинки с человеком с фотографии по ВАУ эффекту на равне с прилетом инопланетян.
А как вы используете ИИ для работы и жизни?