Админ пару дней назад стал папой, так что сегодня все посты только по вайбу! Подарки малому можно прислать на карту по номеру: выченесмешитекакиеподарки
6🍌52
Очень хочу снять для вас видос про ИИ-блогеров и то как изменится весь инфлюенс-маркетинг в ближайшем будущем. Если вы интересуетесь маркетингом своих продуктов, маркетингом в целом или просто хотите вести блог без лица, то вам точно понравится и будет пиздейше полезно.
Пока думаю над форматом видоса. Есть два варианта.
1. С одной стороны, хочется максимально упаковать свой опыт в маркетинге и инфлюенсе, объяснить что, как и почему, к чему готовиться и что изучать, чтобы в будущем на этом заработать. Но получится длинный душный видос где всё разобрано максимально подробно сразу + допниками продублировано в текстовом формате в телеге, длительностью до 1,5 часов
2. С другой, не хочется сильно передушить и потратить при этом сильно больше времени. Есть ощущение, что лучше сфокусироваться на основных тейках, а подробности раскрыть уже в текстовом формате в телеге. Так получится короткий видос формата "сочная выжимка", длительность около 20-40 минут.
Что думаете? Вам какой формат ближе, короткий или длинный? Что вообще хотели бы узнать про ИИ-аватаров и "карманных" блогеров?
Пока думаю над форматом видоса. Есть два варианта.
1. С одной стороны, хочется максимально упаковать свой опыт в маркетинге и инфлюенсе, объяснить что, как и почему, к чему готовиться и что изучать, чтобы в будущем на этом заработать. Но получится длинный душный видос где всё разобрано максимально подробно сразу + допниками продублировано в текстовом формате в телеге, длительностью до 1,5 часов
2. С другой, не хочется сильно передушить и потратить при этом сильно больше времени. Есть ощущение, что лучше сфокусироваться на основных тейках, а подробности раскрыть уже в текстовом формате в телеге. Так получится короткий видос формата "сочная выжимка", длительность около 20-40 минут.
Что думаете? Вам какой формат ближе, короткий или длинный? Что вообще хотели бы узнать про ИИ-аватаров и "карманных" блогеров?
🍌14👎2
Админ еблан и забыл что комменты только по заявкам
Открыл доступ, пишите.
Влад, Спасибо!
Открыл доступ, пишите.
Влад, Спасибо!
🍌10👎4
Сервис выводит сайт в топ-1 выдачи Яндекса за 14 дней с помощью поведенческих факторов. Использует уникальные поведенческие скрипты и фингерпринты реальных людей. Эффективен даже в самых конкурентных нишах.
Запуск и настройка занимают до 5 минут — а если не хочется разбираться, личный менеджер сделает всё за вас.
Seopapa
Запуск и настройка занимают до 5 минут — а если не хочется разбираться, личный менеджер сделает всё за вас.
Seopapa
🍌9👎8
Пилите свои продукты с ИИ? Знаю что пилите, и некоторые я сюда даже выкладывал, не зная что они ваши! 🍌
Скидывайте свои пет-проекты/продукты в комменты, лучшие опубликую на канале.
Одно правило: Сначала описание, потом ссылка
Скидывайте свои пет-проекты/продукты в комменты, лучшие опубликую на канале.
Одно правило: Сначала описание, потом ссылка
🍌8
ИИ тебе
Если ищете доступ к Seedance 2.0 по API, то вот тут он есть и по +-адекватным ценам(но могут поменять в любой момент, проверяйте на всякий). Kie UPD: дают фри-токены, на несколько генераций хватит
Кстати, если хотите загрузить лицо в Seedance, но генерация отменяется, это из-за жесткой модерации после скандала с генерациями голливудских актёров. Чтобы обойти ограничения, сгенерите из стартового кадра сетку 3х3 или накиньте шума, обычно проскакивает мимо цензуры
🍌3
Как создать трек со своим голосом в Suno 5.5?
Suno недавно выкатили возможность загрузить свой голос и генерировать треки сразу с ним.Давно пора. Я потестил, и вывел несколько советов для тех, кто хочет сделать свой трек. С интерфейсом сами разберётесь, там две с половиной кнопки.
Общие моменты:
- Загрузить можно готовую дорожку или записать звук прямо во время загрузки
- от 10 секунд до 4 минут, можно подрезать при необходимости
- Верификация идёт сразу во время загрузки. Нужно надиктовать рандомные фразы в микрофон, можно на русском.
- Можно загрузить несколько голосов на один аккаунт, от разных людей или несколько вариантов своего.
- Если создаёте голос на русском, песни на английском будут генерироваться с акцентом. Используйте отдельные голоса под нужные языки.
Если вы как я и не умеете петь вообще:
- Можете попытаться напеть какую-то простую песню хотя бы как-нибудь или загрузить готовое аудио, где вы разговариваете. Лучше первое, но второе тоже пойдёт.
- При загрузке нужно выбрать ваш уровень, выбирайте "Новичок" - так модель будет сильнее докручивать ваш вокал. Если выберете "профи", она будет стараться сохранить манеру оригинала, нам это только помешает.
- Не выбирайте сразу свой голос при генерации песни. Сначала создайте трек с чужим голосом. Но выбирайте сразу нужный вам пол вокала и текст песни, чтобы потом не мучаться.
- Когда сгенерили трек, который вам понравился, жмите на него и выбирайте remix/edit, cover. Трек подгрузится в окно ввода со всеми настройками генерации, и только тогда выбирайте свой голос. Имейте в виду, модель будет пытаться подтянуть уровень вашего вокала к оригиналу, особенно в сложных моментах. Из-за этого голос будет похож, но в отдельных местах может звучать немного инородно. Фиксится количеством попыток, но никогда на 100%. Не переживайте, людям которые реально начинают петь, их голос на записи тоже кажется странным, это ок.
Если вы умеете петь, перед тем как грузить свой голос нужно определиться что вы хотите генерить. Есть два варианта:
1. Песни в +- одном стиле, со схожей стилистикой вокала и приёмами. Тогда грузите 4 минуты своего вокала в одном стиле, максимально раскрывая его с разных сторон. Уровень выбирайте профи или продвинутый. Так у модели будет максимум данных и результаты внутри стиля будут лучше, но для генерации чего-то необычного может понадобиться новый голос. Если у вас уже есть хотя бы 6 готовых треков и вы хотите взять их за основу, сделайте ещё Custom Models, это ещё одна новая фича в Suno. Так модель сможет не только понять как вы поёте, но и запомнит какая у вас музыка.
2. Песни в разных стилях, с разными вокальными приёмами. Грузите 4 минуты своего вокала, сделайте его максимально разнообразным, спойте отрывки с разной ритмикой, в разных тональностях. Захватите как можно больший диапазон того, что можете. Всё не влезет, но чем шире будет, тем проще вам потом будет работать. Уровень выбирайте intermediate, это оптимальный баланс фиксации/изменения голоса. Если хотите и сладкий RnB делать и тяжелый скрим-вокал, то лучше создать два отдельных голоса.
При генерациях можете сразу выбирать свой голос, но если чувствуете что изменение промпта и шевеление ползунков не даёт нужного результата и модель "залипла", попробуйте способ для тех кто не умеет петь. Так бывает, потому что Suno пытается удержать много ограничивающих факторов(голос, стилистика, текст, и т.д.) внутри генерации, и иногда упирается в невидимую стену.
Suno недавно выкатили возможность загрузить свой голос и генерировать треки сразу с ним.
Общие моменты:
- Загрузить можно готовую дорожку или записать звук прямо во время загрузки
- от 10 секунд до 4 минут, можно подрезать при необходимости
- Верификация идёт сразу во время загрузки. Нужно надиктовать рандомные фразы в микрофон, можно на русском.
- Можно загрузить несколько голосов на один аккаунт, от разных людей или несколько вариантов своего.
- Если создаёте голос на русском, песни на английском будут генерироваться с акцентом. Используйте отдельные голоса под нужные языки.
Если вы как я и не умеете петь вообще:
- Можете попытаться напеть какую-то простую песню хотя бы как-нибудь или загрузить готовое аудио, где вы разговариваете. Лучше первое, но второе тоже пойдёт.
- При загрузке нужно выбрать ваш уровень, выбирайте "Новичок" - так модель будет сильнее докручивать ваш вокал. Если выберете "профи", она будет стараться сохранить манеру оригинала, нам это только помешает.
- Не выбирайте сразу свой голос при генерации песни. Сначала создайте трек с чужим голосом. Но выбирайте сразу нужный вам пол вокала и текст песни, чтобы потом не мучаться.
- Когда сгенерили трек, который вам понравился, жмите на него и выбирайте remix/edit, cover. Трек подгрузится в окно ввода со всеми настройками генерации, и только тогда выбирайте свой голос. Имейте в виду, модель будет пытаться подтянуть уровень вашего вокала к оригиналу, особенно в сложных моментах. Из-за этого голос будет похож, но в отдельных местах может звучать немного инородно. Фиксится количеством попыток, но никогда на 100%. Не переживайте, людям которые реально начинают петь, их голос на записи тоже кажется странным, это ок.
Если вы умеете петь, перед тем как грузить свой голос нужно определиться что вы хотите генерить. Есть два варианта:
1. Песни в +- одном стиле, со схожей стилистикой вокала и приёмами. Тогда грузите 4 минуты своего вокала в одном стиле, максимально раскрывая его с разных сторон. Уровень выбирайте профи или продвинутый. Так у модели будет максимум данных и результаты внутри стиля будут лучше, но для генерации чего-то необычного может понадобиться новый голос. Если у вас уже есть хотя бы 6 готовых треков и вы хотите взять их за основу, сделайте ещё Custom Models, это ещё одна новая фича в Suno. Так модель сможет не только понять как вы поёте, но и запомнит какая у вас музыка.
2. Песни в разных стилях, с разными вокальными приёмами. Грузите 4 минуты своего вокала, сделайте его максимально разнообразным, спойте отрывки с разной ритмикой, в разных тональностях. Захватите как можно больший диапазон того, что можете. Всё не влезет, но чем шире будет, тем проще вам потом будет работать. Уровень выбирайте intermediate, это оптимальный баланс фиксации/изменения голоса. Если хотите и сладкий RnB делать и тяжелый скрим-вокал, то лучше создать два отдельных голоса.
При генерациях можете сразу выбирать свой голос, но если чувствуете что изменение промпта и шевеление ползунков не даёт нужного результата и модель "залипла", попробуйте способ для тех кто не умеет петь. Так бывает, потому что Suno пытается удержать много ограничивающих факторов(голос, стилистика, текст, и т.д.) внутри генерации, и иногда упирается в невидимую стену.
🍌17
Оххх, я не делал никогда такого.
В Suno можно аудио на вход закинуть и в промпте уточнить что нужно сохранить оригинальный вокал, но скорее всего оно всё равно что-то по-мелочи переделает. Потому что трек генерируется заново. Все нейронки не просто вставляют то что ты скормил на вход, а повторяют. Это всё равно копия, "подделка", хоть и очень близкая к оригиналу.
Но если цель всё-таки сохранить именно 1в1 вокал, совсем без изменений, я бы так сделал: Загружаешь вокал, генерируешь на его основе несколько треков. Выбираешь тот, где нет серьёзных искажений, чтобы инструментал максимально подходил под оригинальный вокал. Потом внутри суно разделяешь дорожки вокала и инструментала(кнопка Get Stems, на Pro тарифе доступно). Инструментал выгружаешь, ручками накидываешь вокал и уже сводишь в флке/аблике или другом софте.
В Suno можно аудио на вход закинуть и в промпте уточнить что нужно сохранить оригинальный вокал, но скорее всего оно всё равно что-то по-мелочи переделает. Потому что трек генерируется заново. Все нейронки не просто вставляют то что ты скормил на вход, а повторяют. Это всё равно копия, "подделка", хоть и очень близкая к оригиналу.
Но если цель всё-таки сохранить именно 1в1 вокал, совсем без изменений, я бы так сделал: Загружаешь вокал, генерируешь на его основе несколько треков. Выбираешь тот, где нет серьёзных искажений, чтобы инструментал максимально подходил под оригинальный вокал. Потом внутри суно разделяешь дорожки вокала и инструментала(кнопка Get Stems, на Pro тарифе доступно). Инструментал выгружаешь, ручками накидываешь вокал и уже сводишь в флке/аблике или другом софте.
🍌7
This media is not supported in your browser
VIEW IN TELEGRAM
Таким должен быть ИИ-ассистент.
Чувак из твиттера собрал ассистента, который видит ваш экран, может разговаривать и даже показывать "куда жмать"
Можно поставить как обычное приложение на мак, есть опенсорс-версия с установкой через Claude Code или ручной настройкой.
Я быстренько потестил, в приложухе есть выбор между Sonnet/Opus, 0 настроек, говорит только на английском, всё бесплатно.
Ощущается реально волшебно, но в таком сетапе работать страшновато. Все скрины экрана и записи голоса хотелось бы гонять на своих ключах или локальных моделях, всё-таки много приватной инфы может улететь. Был бы это крупный сервис - можно было бы подумать, а так большого доверия нет.
Причем, раз проект опенсорсный и с лицензией MIT, то любой может сделать свой форк, и уже есть несколько интересных:
Версия для винды
Версия для работы с локальными моделями
Дежурно напоминаю: используйте чужие проекты с гитхаба на свой страх и риск.
Чувак из твиттера собрал ассистента, который видит ваш экран, может разговаривать и даже показывать "куда жмать"
Можно поставить как обычное приложение на мак, есть опенсорс-версия с установкой через Claude Code или ручной настройкой.
Я быстренько потестил, в приложухе есть выбор между Sonnet/Opus, 0 настроек, говорит только на английском, всё бесплатно.
Ощущается реально волшебно, но в таком сетапе работать страшновато. Все скрины экрана и записи голоса хотелось бы гонять на своих ключах или локальных моделях, всё-таки много приватной инфы может улететь. Был бы это крупный сервис - можно было бы подумать, а так большого доверия нет.
Причем, раз проект опенсорсный и с лицензией MIT, то любой может сделать свой форк, и уже есть несколько интересных:
Версия для винды
Версия для работы с локальными моделями
Дежурно напоминаю: используйте чужие проекты с гитхаба на свой страх и риск.
🍌13
Полтора года я кидал вам сервисы, а вы кидали мне бананы 🍌. Но всё меняется, и нам пора поговорить. Думаю, вы заметили, что постов стало меньше.
Причины две:
1. Раньше новых сервисов было много, и они были прикольные. А сейчас новые сервисы в 99.9% случаев повторяют друг друга. Что-то достойное появляется редко, а щитпостить в вас одним и тем же или засыпать рерайтами новостей я не хочу.
2. Канал создавался для тех, кто хочет использовать ИИ в реальной жизни, а для этого сейчас мало просто "что-то использовать". Нейронками в каком-то виде пользуются все, и на первый план выходит не "что", а "как использовать".
И мне есть что вам рассказать, но чтобы это было реально полезно, хочу познакомиться поближе. Поэтому для начала три вопроса(анонимно, конечно):
Причины две:
1. Раньше новых сервисов было много, и они были прикольные. А сейчас новые сервисы в 99.9% случаев повторяют друг друга. Что-то достойное появляется редко, а щитпостить в вас одним и тем же или засыпать рерайтами новостей я не хочу.
2. Канал создавался для тех, кто хочет использовать ИИ в реальной жизни, а для этого сейчас мало просто "что-то использовать". Нейронками в каком-то виде пользуются все, и на первый план выходит не "что", а "как использовать".
И мне есть что вам рассказать, но чтобы это было реально полезно, хочу познакомиться поближе. Поэтому для начала три вопроса(анонимно, конечно):
🍌36
Сколько получаете
Anonymous Poll
17%
до 50к, фриганю
14%
50-100к
25%
100-200к
17%
200-300к
27%
300к+
🍌1
Ребята, спасибо за обратную связь!
Для меня откровение, что больше 30% из вас разработчики. Сам я вхожу в самую меньшую группу - всего 5% из вас маркетологи, только аналитиков тут также мало. К продактам я тоже мог бы себя приписать, но душа лежит к другому. Круто, что нет разгромного доминирования в одной профессии. Значит, мы все тут можем делиться компетенциями и становиться лучше! Но главный вывод не в этом.
Главный вывод в том, что из опросов я ничего не понял! Вопросов Встало только больше.
Поэтому, у меня к вам банановое предложение 🍌:
Вы заполняете небольшую анкету за пару минут, а я подготовлю лично для каждого файлик, который поможет решить конкретно ВАШИ проблемы. В файле будут полезные инструменты и советы из личного опыта. Разработчики, не спрашивайте меня нужна ли встроенная в код документация! Я не знаю!(Нужна, но только актуальная, с короткими комментариями, прижатыми к коду, на английском, с описанием почему функция архитектурно сделана именно так, как сделана)
Анкета
Для меня откровение, что больше 30% из вас разработчики. Сам я вхожу в самую меньшую группу - всего 5% из вас маркетологи, только аналитиков тут также мало. К продактам я тоже мог бы себя приписать, но душа лежит к другому. Круто, что нет разгромного доминирования в одной профессии. Значит, мы все тут можем делиться компетенциями и становиться лучше! Но главный вывод не в этом.
Главный вывод в том, что из опросов я ничего не понял! Вопросов Встало только больше.
Поэтому, у меня к вам банановое предложение 🍌:
Вы заполняете небольшую анкету за пару минут, а я подготовлю лично для каждого файлик, который поможет решить конкретно ВАШИ проблемы. В файле будут полезные инструменты и советы из личного опыта. Разработчики, не спрашивайте меня нужна ли встроенная в код документация! Я не знаю!
Анкета
🍌14
Учитесь.
Я недолюбливаю Higgsfield за их отношение к пользователям и мутные механики, но у них есть чему поучиться, если вы делаете свои продукты вокруг ИИ или занимаетесь маркетингом.
Higgsfield живёт в режиме жёсткого перебора УТП и релизит по несколько продуктов в месяц внутри своей площадки. В большинстве случаев там нет ничего интересного - шаблонные обёртки вокруг опенсорсных решений. Громкие, яркие заголовки, посты у блогеров, но полная невозможность встроить новый инструмент в реальную работу и извлечь существенную пользу. Люди, которые ничего в этом не понимают, хавают, но ребята с нормальных продакшнов такое не едят. Однако, иногда они релизят что-то реально годное.
Сейчас у них вышла Marketing Studio - это обёртка вокруг Seedance 2, которая нужна для быстро создания большого количества коротких рекламных роликов. Я дежурно потестил: можно загрузить фотки своего продукта, описание, подгрузить своего персонажа созданного по 1 фотке/описанию или выбрать готового, добавить сценарий и другие референсы в промпт и всё! Готовый видос о вашем продукте, хрон до 15 секунд.
Можно ли сделать это в Seedance 2 напрямую, за пределами Хиггса? Если вручную накидать рефы и написать достаточно точный промпт, да. Это не какая-то невероятно сложная задача, если вы знаете что должно получиться.
Но в Marketing Studio это работает по принципу "Нажми три кнопки и сразу выйдет хорошо", создание ролика занимает всего пару минут. Так можно создавать черновики креативов десятками, тестить, и полноценно докручивать только те, что работают. Конечно, подойдёт не всем и не на все случаи жизни. Но если будут добавлять новые пресеты, то инструмент будет закрывать всё больше кейсов.
Ценность создана на ровном месте. Несколько пресетов, удобный интерфейс, заточенный под одну функцию, Seedance API, и продукт готов.
Я недолюбливаю Higgsfield за их отношение к пользователям и мутные механики, но у них есть чему поучиться, если вы делаете свои продукты вокруг ИИ или занимаетесь маркетингом.
Higgsfield живёт в режиме жёсткого перебора УТП и релизит по несколько продуктов в месяц внутри своей площадки. В большинстве случаев там нет ничего интересного - шаблонные обёртки вокруг опенсорсных решений. Громкие, яркие заголовки, посты у блогеров, но полная невозможность встроить новый инструмент в реальную работу и извлечь существенную пользу. Люди, которые ничего в этом не понимают, хавают, но ребята с нормальных продакшнов такое не едят. Однако, иногда они релизят что-то реально годное.
Сейчас у них вышла Marketing Studio - это обёртка вокруг Seedance 2, которая нужна для быстро создания большого количества коротких рекламных роликов. Я дежурно потестил: можно загрузить фотки своего продукта, описание, подгрузить своего персонажа созданного по 1 фотке/описанию или выбрать готового, добавить сценарий и другие референсы в промпт и всё! Готовый видос о вашем продукте, хрон до 15 секунд.
Можно ли сделать это в Seedance 2 напрямую, за пределами Хиггса? Если вручную накидать рефы и написать достаточно точный промпт, да. Это не какая-то невероятно сложная задача, если вы знаете что должно получиться.
Но в Marketing Studio это работает по принципу "Нажми три кнопки и сразу выйдет хорошо", создание ролика занимает всего пару минут. Так можно создавать черновики креативов десятками, тестить, и полноценно докручивать только те, что работают. Конечно, подойдёт не всем и не на все случаи жизни. Но если будут добавлять новые пресеты, то инструмент будет закрывать всё больше кейсов.
Ценность создана на ровном месте. Несколько пресетов, удобный интерфейс, заточенный под одну функцию, Seedance API, и продукт готов.
🍌18
Многие почему-то переживают, что с помощью нейронок можно делать фейки, нюдсы и прочие ужасные(или нет) вещи. Потому что кто-то плохой якобы сможет с их помощью кого-то хорошего обмануть и подставить.
Аргументы обычно такие:
Я бы, ребята, не переживал. Ведь меняется не только производство фейков, но и защита от них. В первую очередь психологическая. Например, вчера в твиттере набрал 2.2млн просмотров очередной фейковый слив будущих мстителей. И что произошло?
Фанбаза, которой прям важно и не насрать, поверила? Нет, там бредовые детали и при ближайшем рассмотрении видны артефакты генерации.
А кто-то поверил? Да, те кто мельком это увидел. Те же люди, что не читают новость дальше заголовка. Те же люди, что понимают содержание всей книги по названию. Их не спасти. Они забудут о том что видели через пару минут и переключат внимание на следующую шокирующую новость, потому что эта стала слишком скучной.
Студия как-то пострадала от этого? Нет, она наоборот получила дополнительное цитирование!
Вы можете возразить: "Да, но в случае Марии Ивановной всё совсем наоборот!" И будете правы. Давайте представим, что в сеть слили реальный кусок из будущего фильма. Что делать студии, как отрабатывать ущерб?
Чтобы спастись от спойлеров, нужно просто наклепать кучу своих фейков и вернуть массам неопределённость! 20 разных сливов, угадаете какой настоящий? Не думаю.
Похожим путём всё пойдёт и у Марии Ивановной. Через несколько лет, когда фейков будет больше, чем способен переварить человеческий мозг, когда тысячи человек уже пройдут через такие кейсы и всё это вскроется(быстро), Саша из 8 "Г" просто не сможет отомстить за двойку. Даже если он сделает целый фильм с её участием, это будет выглядеть как "да она мне сосала!" за гаражами. Смешно, неправда, родителей в школу.
Причем, технически защиты от такого тоже станет больше. У нас уже есть верификация и скрытые метки, но пока это всё делается на отъебись. Но пока. В будущем творить дичь будет проблематично.
Аргументы обычно такие:
Вот живёт условная Мария Ивановна в своём провинциальном городке, учит детей в школе №33, а какой-то Саша из 8 "Г" обижается на неё за двойку и после уроков идёт генерить видео, где Марию Ивановну ебут прямо на парте, а потом рассылает это всем возможным контактам. Мария Ивановна попадает в ужасную ситуацию, может вылететь с работы и прославиться на весь город. Потом, конечно, вскроется что это был фейк, но всем уже будет насрать. Люди-то помнят.
Я бы, ребята, не переживал. Ведь меняется не только производство фейков, но и защита от них. В первую очередь психологическая. Например, вчера в твиттере набрал 2.2млн просмотров очередной фейковый слив будущих мстителей. И что произошло?
Фанбаза, которой прям важно и не насрать, поверила? Нет, там бредовые детали и при ближайшем рассмотрении видны артефакты генерации.
А кто-то поверил? Да, те кто мельком это увидел. Те же люди, что не читают новость дальше заголовка. Те же люди, что понимают содержание всей книги по названию. Их не спасти. Они забудут о том что видели через пару минут и переключат внимание на следующую шокирующую новость, потому что эта стала слишком скучной.
Студия как-то пострадала от этого? Нет, она наоборот получила дополнительное цитирование!
Вы можете возразить: "Да, но в случае Марии Ивановной всё совсем наоборот!" И будете правы. Давайте представим, что в сеть слили реальный кусок из будущего фильма. Что делать студии, как отрабатывать ущерб?
Чтобы спастись от спойлеров, нужно просто наклепать кучу своих фейков и вернуть массам неопределённость! 20 разных сливов, угадаете какой настоящий? Не думаю.
Похожим путём всё пойдёт и у Марии Ивановной. Через несколько лет, когда фейков будет больше, чем способен переварить человеческий мозг, когда тысячи человек уже пройдут через такие кейсы и всё это вскроется(быстро), Саша из 8 "Г" просто не сможет отомстить за двойку. Даже если он сделает целый фильм с её участием, это будет выглядеть как "да она мне сосала!" за гаражами. Смешно, неправда, родителей в школу.
Причем, технически защиты от такого тоже станет больше. У нас уже есть верификация и скрытые метки, но пока это всё делается на отъебись. Но пока. В будущем творить дичь будет проблематично.
🍌14
ИИ тебе
Ребята, спасибо за обратную связь! Для меня откровение, что больше 30% из вас разработчики. Сам я вхожу в самую меньшую группу - всего 5% из вас маркетологи, только аналитиков тут также мало. К продактам я тоже мог бы себя приписать, но душа лежит к другому.…
Спасибо всем кто заполнил анкету! ❤️ Остальные ещё могут исправиться.
Не пугайтесь, если вам будут писать эти ребята: @borredu @yastrebov_vitya Они не будут просить деньги и ваши фото из душа!(фото присылайте сразу мне в лс)
Если вы пропустили: для тех, кто заполнил анкету, я лично для каждого готовлю файлик с полезными инструментами и советами, который поможет решить конкретно их проблемы.
Не пугайтесь, если вам будут писать эти ребята: @borredu @yastrebov_vitya Они не будут просить деньги и ваши фото из душа!(фото присылайте сразу мне в лс)
Please open Telegram to view this post
VIEW IN TELEGRAM
🍌13
Нет времени на ИИ.
Изучил ваши ответы на анкеты, и вижу забавное противоречие: У большинства не хватает времени, чтобы изучить как ИИ поможет им сэкономить время.
То есть мы:
- Имеем проблему с дефицитом времени
- Понимаем, что ИИ в состоянии её решить
- Не находим время на то чтобы понять как именно
Почему так?
Основная причина, и я уже о ней писал, это чувство упущенных возможностей, которое нам наваливают в медиа. Типа, вот, есть нейронки, и они могут всё, надо только захотеть и правильно попросить. "Вчера первоклассник стал долларовым миллионером, последовав совету Claude", "Новый Deepseek взломал Пентагон" "OpenAI снова лидер, да ещё какой! Уххх!" А потом начинается практика.
На деле оказывается, что для реальной экономии будущего времени нужно потратить КРАТНО больше времени здесь и сейчас, чтобы разобраться в решении своей конкретной задачи, перебрать все возможные костыли, и попытаться в процессе не обанкротиться. Сделать по-старинке часто быстрее и проще, но уже не приносит столько удовольствия. Можно же было одним промтом!
Например, я вчера делал обложку для ютуб-видео. Всё стандартно: Nano Banana Pro, референсы, промпт. Сижу, делаю разные варианты. И получается, что у меня в одном идеальная композиция, но человек в центре кадра не очень смотрится, а в другом человек в кадре смотрится идеально, но композиция поплыла. Такое часто бывает, когда много разных переменных в промте, модели не хватает внимания чтобы удержать всё сразу. И что я сделал?
Начал, как еблан, сидеть и тыкаться, пытаясь добиться от модели нужного результата: перебором генераций, сменой промпта, комбинацией нескольких вариантов, использовал многоступенчатый подход. Она ведь должна СМОЧЬ! Проебал минут 40. Потом проснулся, расчехлил фотошоп. За 2 минуты перенёс удачную генерацию человека на удачную композицию и добавил свечение, чтобы смотрелось приятнее. Всё, готово.
Вывод какой? Не делайте себе мозги ребята! Лучше нормальный результат, чем идеальный план.
Изучил ваши ответы на анкеты, и вижу забавное противоречие: У большинства не хватает времени, чтобы изучить как ИИ поможет им сэкономить время.
То есть мы:
- Имеем проблему с дефицитом времени
- Понимаем, что ИИ в состоянии её решить
- Не находим время на то чтобы понять как именно
Почему так?
Основная причина, и я уже о ней писал, это чувство упущенных возможностей, которое нам наваливают в медиа. Типа, вот, есть нейронки, и они могут всё, надо только захотеть и правильно попросить. "Вчера первоклассник стал долларовым миллионером, последовав совету Claude", "Новый Deepseek взломал Пентагон" "OpenAI снова лидер, да ещё какой! Уххх!" А потом начинается практика.
На деле оказывается, что для реальной экономии будущего времени нужно потратить КРАТНО больше времени здесь и сейчас, чтобы разобраться в решении своей конкретной задачи, перебрать все возможные костыли, и попытаться в процессе не обанкротиться. Сделать по-старинке часто быстрее и проще, но уже не приносит столько удовольствия. Можно же было одним промтом!
Например, я вчера делал обложку для ютуб-видео. Всё стандартно: Nano Banana Pro, референсы, промпт. Сижу, делаю разные варианты. И получается, что у меня в одном идеальная композиция, но человек в центре кадра не очень смотрится, а в другом человек в кадре смотрится идеально, но композиция поплыла. Такое часто бывает, когда много разных переменных в промте, модели не хватает внимания чтобы удержать всё сразу. И что я сделал?
Начал, как еблан, сидеть и тыкаться, пытаясь добиться от модели нужного результата: перебором генераций, сменой промпта, комбинацией нескольких вариантов, использовал многоступенчатый подход. Она ведь должна СМОЧЬ! Проебал минут 40. Потом проснулся, расчехлил фотошоп. За 2 минуты перенёс удачную генерацию человека на удачную композицию и добавил свечение, чтобы смотрелось приятнее. Всё, готово.
Вывод какой? Не делайте себе мозги ребята! Лучше нормальный результат, чем идеальный план.
🍌26