ИИ тебе
2.98K subscribers
171 photos
19 videos
186 links
Полезные нейросети, сервисы с ИИ, и применение нейросетей в реальной жизни. Будущее уже здесь.

@perepishi
Download Telegram
Forwarded from Чё за эй ай?
Супербол показал почему рынок рекламы в жопе.

Это традиционное большое событие для рынка маркетинга и продакшнов - дорогие рекламные места, грандиозные охваты. И ролики которые туда делают часто интереснее самого события.

В этом году появилось много роликов с использованием ИИ, и вот несколько интересных наблюдений:

Многие зрители возмущаются, что для роликов использовали нейросети. Забавно, что часто вообще не по делу. Некоторых хейтят за омоложенные лица и другие эффекты, которые создают ощущение "пластиковости" происходящего. Люди думают, что ролик сделан нейронкой, даже если это вообще не так.

Рекламу водки SVEDKA хейтят за "неестественность", использование кринжовых образов роботов и желание "закосить" таким образом под ИИ-хайп. Вот только SVEDKA использует это всё как свою фишку уже больше 10 лет, генеративный ИИ тогда не использовался. Причем нейронки в ролике применены хорошо. Танцульки вообще снимали с живым человеком, а потом только накладывали скин робота. С точки зрения реализации ролик отличный. Хороший пайплайн, делали ребята с головой. Но брендинг компании сыграл с ней злую шутку, не совпав с настроением общества.

Негативная реакция аудитории возникла не на пустом месте. Проблема в том, что люди устали от вымученной показухи в интернете. Причем усталость появилась ещё до развития генеративного ИИ, когда соц.сети плотно вошли в нашу жизнь. Но у реальных людей всегда были ограничения - это я делать не буду, потому что кринж, это потому что не справлюсь, тут мне не поверят, на это денег не хватит. Ограничений было много, это снижало общую концентрацию, оставалась в незаурядных вещах какая-то ценность. Когда на другом конце были живые люди, было ещё можно было поверить в их исключительность. Когда на другой стороне бесконечный поток генераций, пытающихся "сломать шаблон" и зацепить твоё внимание, фальшивость происходящего игнорировать невозможно. Люди устали, но маркетологи ещё не адаптировались и продолжают ехать на старых рельсах, отсюда и хейт.

Раньше люди жили в мире, где их окружало все обычное, скучное, серое, рутинное и посредственное. Им хотелось сбежать, увидеть что-то необычное, яркое, удивительное. Хотелось верить в то, что мир на самом деле интереснее, чем они видят каждый день. Сейчас люди живут в мире, где необычное повсюду - оно выпячивается, лезет в глаза и давит со всех сторон. Но всё это - подделка. Люди видят, что мир вокруг не такой - он скучнее, тусклее и посредственнее. Но он - настоящий, и в этом его красота. Сейчас, чтобы добиться внимания публики, не нужно быть павлином-голограммой. Достаточно быть голубем, главное настоящим.

Например, реклама BOSCH вызвала в основном позитив, хотя там ИИшку явно приложили. Но и душу не забыли - ролик смешной и откликается людям - он НАСТОЯЩИЙ.
🍌15
Сервис для мониторинга расходов на нейронки - собирает инфу по токенам и суммам, считает, выводит дашборды. Предупреждает об аномальных всплесках потребления, прогнозирует итоговый расход на конец месяца, делает рекомендации по экономии.

toolspend
🍌9👎5
This media is not supported in your browser
VIEW IN TELEGRAM
Сервис позволяет работать с генерациями прямо на таймлайне.

Не полноценная монтажка, конечно, но крутой формат. Я вообще давно жду нормальной интеграции видеогенераторов с монтажным софтом, фича очень просится.

Генерить всё в одном месте(дай бог, а скорее сразу в нескольких), а потом собирать это всё в монтажке не сложно. Но это и не легче. Мало чем отличается от обычных исходников с камер, которые со съёмок пришлют на диск. А вот если генерации будут доступны прямо на таймлайне стандартных монтажек - это будет новый уровень.

Открыл, собрал всё что нужно в одном месте, запустил рендер. Балдёж. 🍌 Что думаете?
🍌20
Тулкит, который заставляет LLM отвечать в формате карточек, графиков, форм, таблиц и т.д. Легко интегрируется с любой LLM, фреймворком или MCP в две строки кода.

OpenUI
Playground
🍌17
Программа, которая позволяет аккаунту Google любой страны (в том числе России) использовать Antigravity без VPN и смены региона аккаунта. Настраивается один раз. Потом можно входить с любыми аккаунтами Google из любых стран. Программа ничего не меняет в системе, - только специальную настройку региональных ограничений в самом Antigravity.

ссылка
инструкция
🍌18👎3
Улучшенная память для ваших агентов. Работает с Claude Code, Cursor, OpenClaw(общая память для всех субагентов) и т.д. В отличие от стандартного memory.md использует многофайловую структуру, поэтому точность выше, а расход токенов ниже. Обещают точность 92,2%, лучшую на рынке. Локально бесплатно.

BYTEROVER
🍌15
Кстати, нашёл ещё прикольный сервис для проверки навыков для OpenClaw на безопасность: https://www.clawsecure.ai/

Вставляете ссылку на github/clawhub, пишите имя скилла или закидываете .zip, через 30 секунд получаете результат.

Там же есть библиотека проверенных скиллов. По каждому скиллу доступен публичный репорт.

Сам OpenClaw не использую, но кекнул с того что считаются подозрительными запросы к SOUL.md(файл, на основе которого агент строит свою идентичность) у навыка самосовершенствования(где улучшение soul.md основная фича).

Поэтому перепроверяйте всё своими мозгами, если уже понимаете что происходит.
🍌4
Кто пользуется агентами не для кодинга, напишите в комментах чем они вам помогают? Я начну
🍌3
Админ пару дней назад стал папой, так что сегодня все посты только по вайбу! Подарки малому можно прислать на карту по номеру: выченесмешитекакиеподарки
6🍌52
Очень хочу снять для вас видос про ИИ-блогеров и то как изменится весь инфлюенс-маркетинг в ближайшем будущем. Если вы интересуетесь маркетингом своих продуктов, маркетингом в целом или просто хотите вести блог без лица, то вам точно понравится и будет пиздейше полезно.

Пока думаю над форматом видоса. Есть два варианта.

1. С одной стороны, хочется максимально упаковать свой опыт в маркетинге и инфлюенсе, объяснить что, как и почему, к чему готовиться и что изучать, чтобы в будущем на этом заработать. Но получится длинный душный видос где всё разобрано максимально подробно сразу + допниками продублировано в текстовом формате в телеге, длительностью до 1,5 часов
2. С другой, не хочется сильно передушить и потратить при этом сильно больше времени. Есть ощущение, что лучше сфокусироваться на основных тейках, а подробности раскрыть уже в текстовом формате в телеге. Так получится короткий видос формата "сочная выжимка", длительность около 20-40 минут.

Что думаете? Вам какой формат ближе, короткий или длинный? Что вообще хотели бы узнать про ИИ-аватаров и "карманных" блогеров?
🍌14👎2
Админ еблан и забыл что комменты только по заявкам

Открыл доступ, пишите.

Влад, Спасибо!
🍌10👎4
Сервис выводит сайт в топ-1 выдачи Яндекса за 14 дней с помощью поведенческих факторов. Использует уникальные поведенческие скрипты и фингерпринты реальных людей. Эффективен даже в самых конкурентных нишах.

Запуск и настройка занимают до 5 минут — а если не хочется разбираться, личный менеджер сделает всё за вас.

Seopapa
🍌9👎8
Пилите свои продукты с ИИ? Знаю что пилите, и некоторые я сюда даже выкладывал, не зная что они ваши! 🍌

Скидывайте свои пет-проекты/продукты в комменты, лучшие опубликую на канале.

Одно правило: Сначала описание, потом ссылка
🍌8
Список сервисов которые предоставляют бесплатный API-доступ к разным LLM, регулярно обновляется.

GitHub
🍌20
Если ищете доступ к Seedance 2.0 по API, то вот тут он есть и по +-адекватным ценам(но могут поменять в любой момент, проверяйте на всякий).

Kie

UPD: дают фри-токены, на несколько генераций хватит
🍌5
ИИ тебе
Если ищете доступ к Seedance 2.0 по API, то вот тут он есть и по +-адекватным ценам(но могут поменять в любой момент, проверяйте на всякий). Kie UPD: дают фри-токены, на несколько генераций хватит
Кстати, если хотите загрузить лицо в Seedance, но генерация отменяется, это из-за жесткой модерации после скандала с генерациями голливудских актёров. Чтобы обойти ограничения, сгенерите из стартового кадра сетку 3х3 или накиньте шума, обычно проскакивает мимо цензуры
🍌3
Как создать трек со своим голосом в Suno 5.5?

Suno недавно выкатили возможность загрузить свой голос и генерировать треки сразу с ним. Давно пора. Я потестил, и вывел несколько советов для тех, кто хочет сделать свой трек. С интерфейсом сами разберётесь, там две с половиной кнопки.

Общие моменты:
- Загрузить можно готовую дорожку или записать звук прямо во время загрузки
- от 10 секунд до 4 минут, можно подрезать при необходимости
- Верификация идёт сразу во время загрузки. Нужно надиктовать рандомные фразы в микрофон, можно на русском.
- Можно загрузить несколько голосов на один аккаунт, от разных людей или несколько вариантов своего.
- Если создаёте голос на русском, песни на английском будут генерироваться с акцентом. Используйте отдельные голоса под нужные языки.

Если вы как я и не умеете петь вообще:
- Можете попытаться напеть какую-то простую песню хотя бы как-нибудь или загрузить готовое аудио, где вы разговариваете. Лучше первое, но второе тоже пойдёт.
- При загрузке нужно выбрать ваш уровень, выбирайте "Новичок" - так модель будет сильнее докручивать ваш вокал. Если выберете "профи", она будет стараться сохранить манеру оригинала, нам это только помешает.
- Не выбирайте сразу свой голос при генерации песни. Сначала создайте трек с чужим голосом. Но выбирайте сразу нужный вам пол вокала и текст песни, чтобы потом не мучаться.
- Когда сгенерили трек, который вам понравился, жмите на него и выбирайте remix/edit, cover. Трек подгрузится в окно ввода со всеми настройками генерации, и только тогда выбирайте свой голос. Имейте в виду, модель будет пытаться подтянуть уровень вашего вокала к оригиналу, особенно в сложных моментах. Из-за этого голос будет похож, но в отдельных местах может звучать немного инородно. Фиксится количеством попыток, но никогда на 100%. Не переживайте, людям которые реально начинают петь, их голос на записи тоже кажется странным, это ок.

Если вы умеете петь, перед тем как грузить свой голос нужно определиться что вы хотите генерить. Есть два варианта:
1. Песни в +- одном стиле, со схожей стилистикой вокала и приёмами. Тогда грузите 4 минуты своего вокала в одном стиле, максимально раскрывая его с разных сторон. Уровень выбирайте профи или продвинутый. Так у модели будет максимум данных и результаты внутри стиля будут лучше, но для генерации чего-то необычного может понадобиться новый голос. Если у вас уже есть хотя бы 6 готовых треков и вы хотите взять их за основу, сделайте ещё Custom Models, это ещё одна новая фича в Suno. Так модель сможет не только понять как вы поёте, но и запомнит какая у вас музыка.
2. Песни в разных стилях, с разными вокальными приёмами. Грузите 4 минуты своего вокала, сделайте его максимально разнообразным, спойте отрывки с разной ритмикой, в разных тональностях. Захватите как можно больший диапазон того, что можете. Всё не влезет, но чем шире будет, тем проще вам потом будет работать. Уровень выбирайте intermediate, это оптимальный баланс фиксации/изменения голоса. Если хотите и сладкий RnB делать и тяжелый скрим-вокал, то лучше создать два отдельных голоса.

При генерациях можете сразу выбирать свой голос, но если чувствуете что изменение промпта и шевеление ползунков не даёт нужного результата и модель "залипла", попробуйте способ для тех кто не умеет петь. Так бывает, потому что Suno пытается удержать много ограничивающих факторов(голос, стилистика, текст, и т.д.) внутри генерации, и иногда упирается в невидимую стену.
🍌17
Оххх, я не делал никогда такого.

В Suno можно аудио на вход закинуть и в промпте уточнить что нужно сохранить оригинальный вокал, но скорее всего оно всё равно что-то по-мелочи переделает. Потому что трек генерируется заново. Все нейронки не просто вставляют то что ты скормил на вход, а повторяют. Это всё равно копия, "подделка", хоть и очень близкая к оригиналу.

Но если цель всё-таки сохранить именно 1в1 вокал, совсем без изменений, я бы так сделал: Загружаешь вокал, генерируешь на его основе несколько треков. Выбираешь тот, где нет серьёзных искажений, чтобы инструментал максимально подходил под оригинальный вокал. Потом внутри суно разделяешь дорожки вокала и инструментала(кнопка Get Stems, на Pro тарифе доступно). Инструментал выгружаешь, ручками накидываешь вокал и уже сводишь в флке/аблике или другом софте.
🍌7
This media is not supported in your browser
VIEW IN TELEGRAM
Таким должен быть ИИ-ассистент.

Чувак из твиттера собрал ассистента, который видит ваш экран, может разговаривать и даже показывать "куда жмать"

Можно поставить как обычное приложение на мак, есть опенсорс-версия с установкой через Claude Code или ручной настройкой.

Я быстренько потестил, в приложухе есть выбор между Sonnet/Opus, 0 настроек, говорит только на английском, всё бесплатно.

Ощущается реально волшебно, но в таком сетапе работать страшновато. Все скрины экрана и записи голоса хотелось бы гонять на своих ключах или локальных моделях, всё-таки много приватной инфы может улететь. Был бы это крупный сервис - можно было бы подумать, а так большого доверия нет.

Причем, раз проект опенсорсный и с лицензией MIT, то любой может сделать свой форк, и уже есть несколько интересных:

Версия для винды
Версия для работы с локальными моделями

Дежурно напоминаю: используйте чужие проекты с гитхаба на свой страх и риск.
🍌13
Полтора года я кидал вам сервисы, а вы кидали мне бананы 🍌. Но всё меняется, и нам пора поговорить. Думаю, вы заметили, что постов стало меньше.

Причины две:
1. Раньше новых сервисов было много, и они были прикольные. А сейчас новые сервисы в 99.9% случаев повторяют друг друга. Что-то достойное появляется редко, а щитпостить в вас одним и тем же или засыпать рерайтами новостей я не хочу.
2. Канал создавался для тех, кто хочет использовать ИИ в реальной жизни, а для этого сейчас мало просто "что-то использовать". Нейронками в каком-то виде пользуются все, и на первый план выходит не "что", а "как использовать".

И мне есть что вам рассказать, но чтобы это было реально полезно, хочу познакомиться поближе. Поэтому для начала три вопроса(анонимно, конечно):
🍌36