AI Роман | Про нейросети
7.71K subscribers
378 photos
291 videos
3 files
411 links
Полезные инструкции к нейросетям, которые упростят вам жизнь и работу.

👉🏼 Для сотрудничества: @grigoryev_ni
Download Telegram
🔥 Meta* анонсировала новую имбу

Muse Spark — первая модель после большой ИИ-перестройки Meta, которая началась после провала Llama 4 почти год назад.

Модель уже доступна на meta.ai и в приложении, а preview API пока доступен только избранным пользователям.

Также не забываем про Spud — мощную модель от OpenAI, которую ждут уже на этой неделе.

А ещё про Mythos от Claude, которая ещё на тестах нашла тысячи уязвимостей в софте (пока тоже не выходит в общий доступ).

Этой весной точно будет, что обсудить, завариваем чай ☕️

Meta* — так уж вышло запрещенная организация на территории РФ


🔥 — ждём
🥺 — не интересно
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1442
📌 Генерируем фото и видео без цензуры, ч.1

Тестил сейчас SuperGrok на оживление этой и других подобных фоток — раньше проходило всё, сейчас модеры не пропускают даже это.

Фотографии создаёт (и то не все), видео не генерит. Включил все тумблеры 18+ — не помогает.

Единственный вариант сейчас для съёмки бренда вашего нижнего белья и в целом создания подобных роликов — Seedance 2.0.

Но есть он в:
⏺️ Telegram-ботах (дорого)
⏺️ Higgsfield (принципиально не использую)
⏺️ и Dreamina CapCut

В последнем получилось сделать — на старте дают 120 кредитов и первая генерация в Seedance 2.0 Fast не съедает кредиты вообще.

Поэтому тестим пока тут.

Пропускает тоже не всё — мне пришлось убрать «нижнее бельё» из промпта и запустить генерацию несколько раз.

Но работает, это главное. Буду тестить дальше, если есть свой опыт на эту тему — делитесь в комментах ⤵️

Не забудьте поблагодарить реакцией 🔥 или бустом

Если что-то не работает — идём в чат и пытаемся разобраться вместе
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥207❤‍🔥3👍3🤔1
🎙️ Полная инструкция к Suno AI

Добрый пятничный! Улыбаюсь: уже седьмой человек написал, что это лучший канал по ИИ. Спасибо.

Одной из основных целей было не только давать пользу, но и создать сильное комьюнити, которое будет поддерживать и помогать друг другу даже в моменты, когда я не на связи. По-моему, всё получается)

Пару недель назад участник нашего чата поделился не одним, как обещал, а сразу тремя гайдами по созданию треков в Suno AI. Преступление не поделится этой инфой с вами ⤵️

Изучаем тут:
1️⃣ Гайд по Suno: От кнопки «Сгенерировать» до кнопки «Release» (Краткое пособие по лени)
2️⃣ Гайд по Suno: От кнопки «Сгенерировать» до «Грэмми» (Теперь ты поёшь сам!)
3️⃣ Гайд по Suno: От кнопки «Сгенерировать» до продюсера (Как прославиться и избежать неприятностей)

Накидайте реакций на этот пост — поддержите Андрея!

Поделиться своим опытом, задать любые вопросы по ИИ и стать частью комьюнити можно в нашем чате.

Приятных генераций ✔️
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥166❤‍🔥4👍4
☝️ Сейчас внимание

В Runway можно забрать тариф безлимит на генерации с 50% скидкой на 3 месяца – выйдет 45$/мес вместо 90$.

Работает только до 13-ого апреля 9am PT, или до 19:00 по мск, но я бы не проверял точность времени и брал сейчас, если нужно.

Потом можете отменить. В подписке есть Seedance

При оплате тарифа Unlimited на месяц введите промик:

➡️ Промокод: HALFOFF

В подписке Gen-4.5, Kling 3.0, Nano Banana Pro, Seedance 2.0 и другие нейронки

Приятных генераций 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥92👍1
📸 Повторяем эффект размытых фоток

Работает с любыми фотографиями, рассказываю как повторить ⤵️

Пошаговая инструкция:
1⃣ Выбираем фотографии, к которым хотим применить этот фильтр.
2⃣ Переходим в Nano Banana Pro (здесь и здесь рассказывал, как получить бесплатный доступ).
3⃣ Загружаем фото и вставляем этот промпт:
Apply an aggressive, high-intensity handheld camera-shake effect as if the photographer took the shot while walking quickly or violently shaking the camera during exposure. Keep the main subject perfectly sharp, frozen, and photorealistic with no distortion to the face, body, pose, outfit, or core structure. Only the background and trailing elements should show motion. Create chaotic left-to-right motion streaks across the entire scene:


Когда всё получится — не забудьте поблагодарить реакцией, комментом или бустом.

Если что-то не работает — идём в чат и пытаемся разобраться вместе

Сохраните, чтобы не потерять 📌
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥133👍2🔥2🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
🌷 Тестирую Kling 3.0 на реалистичность и пластику движений

Вы всё про обучение спрашиваете — думаю, пора запустить. Не о том, как картинки генерить, а как делать крутой продающий продукт

Что думаете?
❤️ – давай уже
🔥 – давно пора
👍 – всё сам могу

Наберём 50 реакций – расскажу подробности
Please open Telegram to view this post
VIEW IN TELEGRAM
252🔥14❤‍🔥5👍42🦄1👾1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Даа, Seedance до сих пор не перестаёт меня удивлять

Всё по одному промпту и одной фотке. Что дальше будет в этой гонке ИИ-вооружений – представить страшно)

Я полетел в Калифорнию, через 5 дней виза заканчивается. Сейчас на связи, пишите свои вопросы в чате

Если хотите пользоваться Seedance 2.0 на безлимите – ставьте ❤️, расскажу подробно куда жмать

И да, вижу ваши реакции – уже сажусь за обучение. Буду держать в курсе 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
265🔥4❤‍🔥2😁21🙏1
📌 КАК ПОЛЬЗОВАТЬСЯ SEEDANCE 2.0 НА БЕЗЛИМИТЕ

Я протестировал все платформы, на которых есть нашумевший Seedance. Делюсь инфой

Влепите жирных реакций на этот гайд авансом — где вы ещё найдёте столько пользы в открытом доступе

Всеми площадками делиться не буду — есть мусорные, разбил по категориям:

⏺️ БЕСПЛАТНО
И в очень ограниченных количествах можно генерировать в CapCut.

Заходим на capcut.com с телефона или компьютера, в верхнем меню находим Tools, листаем до раздела AI Image Generator, жмём — и генерим без регистрации, на выходе 4 видео — выбираем лучший.

Работает без смены ip, бесплатно, прямо в браузере, но неудобно для меня и ждать долго. Если вам заходит — гуд. Если нет — тестим бесплатно в Dreamina, здесь рассказал как.

⏺️ УДОБНО
Но дорого можно тестить в тг-ботах типо syntx.

Первоначальных бесплатных токенов вам не хватит для генерации нормального видоса. Один ролик качества 1080р может отъесть у вас добрых 500-1000 рублей.

Не факт, что у вас ещё что-то получится с первого раза, поэтому выводы делайте сами.

⏺️ ПРАКТИЧНО
Было бы оформить подписку на Dreamina или Higgsfield. И если со вторым всё понятно (я уже говорил, что он мне не нравится), то на первый точно стоит обратить внимание.

На Dreamina за $100 вы получаете 222000 кредитов, одна генерация стоит 255, хватает примерно на 870 генераций, или около $0.11 за видео.

Тариф Higgsfield за те же $100 даёт 6000 кредитов, одна генерация стоит 90, то есть в итоге у вас всего около 66 генераций, или $1.48 за видео.

$1.48 против $0.11, разница примерно в 13 раз. За те же $100 вы получаете либо около 870 видео, либо 66 — разница больше чем на 800 генераций. Делаем выводы.

⏺️ БЕЗЛИМИТНО
И удобно можно пользоваться в Runway, чем я активно и пользуюсь.

Подписка с бесконечными генерациями стоит $90 в месяц. Дорого, НО ⤵️

1️⃣ У ребят регулярно сыпятся скидки 50% на тариф безлимит. Первым промо делился здесь, второй был на днях, пробуйте при оплате ввести промокод «RUNWAY50», надеюсь ещё действует. За 4500 рублей можете хоть загенериться этими видосами

2️⃣ Если нет зарубежной карты для оплаты, в данный момент скидки нет или вам дорого даже со скидкой – идём на ggsel и берём один общий аккаунт сразу на нескольких пользователей за 1900 рублей. Да, в этом профиле кто-то будет сидеть помимо вас и генерить видосы, но вам не придётся париться с оплатой и это выйдет дешевле. И ещё раз — это безлимит. За 1900 рублей.

3️⃣ Да, у вас и правда будет бесконечное множество попыток на генерации. Безлимит в Runway работает таким образом: вы можете генерить до двух видео в Seedance одновременно (ещё больше за раз можно делать за токены, переключив режим, но куда вам больше?), иногда приходится постоять в очереди на генерацию (у меня дольше 10 минут ни разу не занимала генерация, в среднем 3-5 минут) + можете переключаться на такой же безлимитный Kling 3.0 или Veo 3.1 при необходимости, а это жесть как удобно.

Я генерю до 20-30 видео в день в Seedance благодаря Runway (меня ограничивает только свободное время, в целом можно клепать и по 100 видео в день). Если знаете платформу лучше — делитесь в комментах, всем будет полезно.

Не забудьте поблагодарить реакцией 🔥 или бустом

Если что-то не работает — идём в чат и пытаемся разобраться вместе
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥3511🙏3👍1🤗1
🔥 УБИЙЦА SEEDANCE ИЛИ ПЕРЕОЦЕНЕННАЯ ЛОШАДКА: ЗНАКОМЬТЕСЬ, HAPPYHORSE!

Поздравляю но не от всей души, сегодня официально релизнулась новая нейронка для генерации видео — HappyHorse.

Я уже залетел, потратил фри-кредиты, разобрал документацию, сразу к делу.

Затестил один и тот же промпт в трёх разных генераторах: Kling 3.0, новый Happy Horse и, конечно, Seedance 2.0. Результаты прикрепил к посту ⬆️

В SeeDance качество, киношность и проработка деталей космос по сравнению с остальными, согласитесь? До его уровня лошадке пока как до луны пешком.

Но давайте разберём, что нам вообще выкатили и откуда были такие высокие рейтинги до релиза.

ГДЕ ИСКАТЬ И СКОЛЬКО СТОИТ
🔵 Ищем оф. сайт happyhorse.com (лучше с компа). Модель уже есть на API-агрегаторах типа Fal.ai, так что скоро её завезут на все ваши фрипики,
🔵 На старте дают 16 кредитов + 50 накидывают каждый день за вход,
🔵 Одна генерация (5 секунд в 720p со звуком) жрёт 32 кредита. То есть со старта сделаете пару видосов,
🔵 Дальше предлагают апскейл до 1080p. На платном тарифе один ролик выходит около $0.32.

ЧТО ПО КАЧЕСТВУ И ПРОМПТАМ
🔵 Если в кадре много динамики и резких движений — детали, цвета и размеры начинают безбожно плыть,
🔵 Но есть огромный плюс — модель шикарно понимает операторские термины и объективы.

КАК ПРАВИЛЬНО УПРАВЛЯТЬ СКАКУНОМ
🔵 Короткие промпты в 20-40 слов работают лучше всего. Полотна приводят к тому, что нейронка путается и усредняет картинку, пытаясь сделать просто красивенько в ущерб вашим деталям,
🔵 Подлежащее и главное действие — строго в первом предложении,
🔵 Лучше не пытаться делать текст на видео,
🔵 Один кадр = один яркий операторский прием.

Ждём новостей, отдадут ли её в опенсорс. А пока кидайте в комменты, что у вас получается — давайте затестим свежак ⤵️
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥144❤‍🔥1
КАК ПОПАСТЬ НА ЗАКРЫТУЮ ML-ТУСОВКУ ЯНДЕКСА И БУСТАНУТЬ КАРЬЕРУ

В этом году мой проект VseLLM начал расти в геометрической прогрессии, и я успел на себе прочувствовать, как сложно найти сильных спецов и выстроить автономную команду.

В сфере ML полно тех, кто знает базу, но людей, способных решать нешаблонные задачи — единицы. А чтобы стать таким спецом, нужна практика среди своих.

👉 Если вы развиваетесь в ML, хотите прокачаться ещё больше и завести нужные связи – советую залететь этим летом на Data Dojo. Это закрытое комьюнити ML-специалистов, где обсуждают актуальные тренды, разбирают реальные задачи из соревнований, делятся живыми кейсами и хантят таланты.

Встреча пройдёт 25 июня на Live Arena в рамках Young Con 2026 — масштабного фестиваля о старте карьеры в IT.

Чтобы попасть на Data Dojo, нужно решить ML-задачу и набрать баллы – идеальный фильтр от случайных пассажиров. Топ-350 лучших участников получат проходку на фест и мерч, топ-50 — фаст-трек в Яндекс, а топ-10 — умную колонку с Алисой.

Проверить свои силы и попробовать забрать инвайт можно здесь.
8👨‍💻3👍2🔥22
This media is not supported in your browser
VIEW IN TELEGRAM
✏️ КАК ПОВТОРИТЬ ТРЕНДОВЫЙ ЭФФЕКТ ГЕЛИЕВЫХ ШАРОВ В ФИЛЬМЕ

Вы просили больше пошаговых инструкций вирусных трендов – делаю регулярной рубрикой.

Чтобы повторить эффект из этого видео ⤵️

1. Делаем стоп-кадры нужных сцен, где хорошо видно лицо, позу и композицию сцены.

2. Переходим в Nano Banana Pro, загружаем стоп-кадр и вставляем промпт:
Make the person in the scene a shiny plastic inflatable blow-up balloon character with a glossy surface. Preserve the identity and facial features as accurate 3D balloon details (same face structure, eyes, nose, lips). Keep the entire scene and background people, but convert them into the same 3D balloon style too. Ultra-realistic, clean highlights, smooth reflections, no distortion, no extra objects.


3. С готовым кадром идём в Kling 3.0, загружаем сгенерированное изображение и видео-референс этой же сцены, вставляем промпт:
Transfer the motion, head movement, and detailed mouth/lip movement from the video reference onto the balloon character in the generated image. Keep the character’s identity, proportions, lighting, camera angle, and background consistent. Natural facial animation, smooth motion, no warping, no glitches, no new elements.


4. Запускаем генерацию и повторяем первые 3 шага для всех нужных сцен, а потом монтируем итоговый ролик.

Когда всё получится — не забудьте поблагодарить реакцией, комментом или бустом

Если что-то не работает — идём в чат и пытаемся разобраться вместе

Сохраните, чтобы не потерять 📌
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥76👍32