Не хочу опять постить слухи, но в высокой степени возможно, что 26 февраля, в этот четверг, Сэмушка Альтман таки разродится новым GPT4-моментом. Якобы, та самая модель с кодовым именем Garlic готова к деплою. И якобы, она побивает средний человеческий результат в SimpleBench в 83,7%. Что является стратегическим прорывом.
Ну что ж, пожелаем ОпенАИ удачи, надеюсь, моделька наконец-то будет способна хотя бы общаться как человек, а не генератор списков.
Возможно, это будет тем самым прорывом, что спасёт ОпенАИ и Оракл, как я писал. Хотя, кого мы обманываем, Альтман давно кинул и Оракл и Нвидиа🍺
Ну что ж, пожелаем ОпенАИ удачи, надеюсь, моделька наконец-то будет способна хотя бы общаться как человек, а не генератор списков.
Возможно, это будет тем самым прорывом, что спасёт ОпенАИ и Оракл, как я писал. Хотя, кого мы обманываем, Альтман давно кинул и Оракл и Нвидиа
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Valeri Pizhanski
This media is not supported in your browser
VIEW IN TELEGRAM
В сиденс 2 можно просто указать модели завершить генерацию на первом кадре, и получится зацикленный видос без использования первого/последнего кадров. Очень круто работает именно на модели омни сиденс 2.
#Seedance2
characters: A young woman
cinematic_style: A gorgeous, vivid photorealist style using a SnorriCam rig and cinema lenses for absolute center-locked focus. Transitions rely on seamless backgrounds that physically melt and snap into new environments, seamlessly synced to a spatial audio soundscape.
description: The sole focus of the video. She maintains a completely center-locked facial position throughout the entire cycle, staring dead ahead regardless of the environment warping and evolving around her.
video_prompt:
subject:
description: A young woman viewed entirely from the front, positioned dead center in the frame.
action: She experiences a continuous, fluid cycle of getting ready, partying, wandering, and crashing. Her environment continuously melts and shifts around her while she maintains direct eye contact and a center-locked facial position.
dialogue: "Here we go."
visual_dynamics:
transformation_speed: The environment, lighting, and her attire fluidly bleed into one another. Transitions are not cuts but seamless, continuous morphs driven by the rhythm of a heavy, pulsating club beat, morphing the boundaries between locations.
consistency: Her face remains absolutely locked in the center of the frame, facing forward. The end of the video matches the exact starting frame to create a perfect, infinite loop.
scene_sequences:
- Lying flat on her back on a messy bed, staring blankly straight up at the camera, illuminated by dim morning sunlight.
- The messy bedsheets smoothly morph into a bright vanity mirror. She is now sitting perfectly upright, applying bold lipstick while looking dead ahead.
- The mirror reflection expands and engulfs the room, melting into the center of a crowded, neon-lit nightclub. The background becomes a fluid blur of moving bodies.
- The nightclub crowd sweeps past her, pulling the environment into an ultraviolet glow. She tips her head back slightly to down a glowing neon shot glass, seamlessly materializing in the middle of a massive EDM festival.
- As she whispers "Here we go," the festival lasers liquefy and reform into aggressive strobe lights. She is now dancing wildly backstage with a club DJ, her hair messy and sweat glistening on her forehead.
- The aggressive strobe lights fluidly shift into the flashing glow of advertising billboards in the dark, revealing her standing outside on a city street.
- The harsh city darkness fades into the fluorescent glow of a famous fast-food restaurant. She is sitting in a booth eating french fries, dressed exactly as she was outside.
- The restaurant walls warp and contract into a sterile, brightly lit bathroom with a flickering neon light. She looks tired and confused as she looks into the mirror, breathing heavily, her attire unchanged.
- The sterile bathroom tiles soften and morph back with fluid motion into the messy bedsheets from the beginning. She is lying flat on her back, eyes snapping open to stare blankly straight up at the camera, identical to the first frame.
art_styles:
- Highly dynamic lighting fluidly shifting from natural morning to neon club to harsh city strobes
- Perfect facial-locked stabilization (SnorriCam effect)
audio_context: A muffled ticking clock that organically builds into a deafening techno bass drop, melting into a chaotic city hum, and ending with a sharp gasp for air.
#Seedance2
🔥6
Профессор Оксфорда Майкл Вулдридж — один из ведущих мировых специалистов по многоагентным системам — на днях выступил в Королевском обществе с лекцией «Это не тот ИИ, который нам обещали». Казалось бы, ну вот, ещё один пророк апокалипсиса. Но когда человек с таким послужным списком сравнивает индустрию ИИ с дирижаблем «Гинденбург», стоит хотя бы навострить уши.
Суть аргумента проста и неприятна: корпорации гонят сырые продукты на рынок быстрее, чем успевают их тестировать. Пока обходится мелкими конфузами. Но если случится что-то по-настоящему крупное — смертельный сбой беспилотника, волна психологических срывов у залипших в чат-ботах пользователей — доверие к технологии испарится за сутки. Именно так крушение «Гинденбурга» в 1937-м за одну вспышку водорода похоронило целую отрасль пассажирских дирижаблей, которые ещё вчера казались транспортом будущего.
Отдельно Вулдридж проходится по языковым моделям. Разработчики намеренно делают их пугающе человекоподобными — они льстят, подстраиваются, имитируют эмпатию. Под капотом же всё те же хрупкие защитные механизмы и фирменная непредсказуемость. Получается обаятельный собеседник, который в любой момент может уверенно соврать тебе в лицо. И для части пользователей это уже не абстрактная угроза — кто-то реально теряет границу между машиной и живым человеком.
Рецепт от профессора радикально старомоден: ИИ должен быть холодным алгоритмом, а не цифровым другом. Его идеал — бортовой компьютер из классического «Звёздного пути»: ровный голос, сухие факты и честное «данных недостаточно» вместо уверенных галлюцинаций.
Можно, конечно, отмахнуться — мол, очередной думер пугает. Но когда думером выступает оксфордский профессор с мировым именем, отмахиваться становится чуть менее комфортно.
Суть аргумента проста и неприятна: корпорации гонят сырые продукты на рынок быстрее, чем успевают их тестировать. Пока обходится мелкими конфузами. Но если случится что-то по-настоящему крупное — смертельный сбой беспилотника, волна психологических срывов у залипших в чат-ботах пользователей — доверие к технологии испарится за сутки. Именно так крушение «Гинденбурга» в 1937-м за одну вспышку водорода похоронило целую отрасль пассажирских дирижаблей, которые ещё вчера казались транспортом будущего.
Отдельно Вулдридж проходится по языковым моделям. Разработчики намеренно делают их пугающе человекоподобными — они льстят, подстраиваются, имитируют эмпатию. Под капотом же всё те же хрупкие защитные механизмы и фирменная непредсказуемость. Получается обаятельный собеседник, который в любой момент может уверенно соврать тебе в лицо. И для части пользователей это уже не абстрактная угроза — кто-то реально теряет границу между машиной и живым человеком.
Рецепт от профессора радикально старомоден: ИИ должен быть холодным алгоритмом, а не цифровым другом. Его идеал — бортовой компьютер из классического «Звёздного пути»: ровный голос, сухие факты и честное «данных недостаточно» вместо уверенных галлюцинаций.
Можно, конечно, отмахнуться — мол, очередной думер пугает. Но когда думером выступает оксфордский профессор с мировым именем, отмахиваться становится чуть менее комфортно.
👍2
Пока ии-думеры пророчат индустрии крушение в стиле Гинденбурга, ллмки нагибают IBM на 40 лярдов.
Вчера Anthropic заявили, что Claude Code способен автоматизировать модернизацию старого кода на COBOL. И... это моментально обрушило капитализацию IT-гиганта на 13%. Дело в том, что главная дойная корова IBM это поддержка мировой финансовой инфраструктуры (базы данных банков, правительств и 95% транзакций в банкоматах), сидящей на мейнфреймах и легаси-системах, написанных на языке COBOL.
Это любопытно.
Вчера Anthropic заявили, что Claude Code способен автоматизировать модернизацию старого кода на COBOL. И... это моментально обрушило капитализацию IT-гиганта на 13%. Дело в том, что главная дойная корова IBM это поддержка мировой финансовой инфраструктуры (базы данных банков, правительств и 95% транзакций в банкоматах), сидящей на мейнфреймах и легаси-системах, написанных на языке COBOL.
Это любопытно.
Возмущения Anthropic о том, что создатели DeepSeek массово дистиллируют их модели — это не просто скандал об авторских правах. В ИИ-индустрии этот факт воспринимают однозначно: грядущий DeepSeek V4 объективно превзойдет западные фронтир-модели.
Причина кроется в самой архитектуре обучения. DeepSeek не тратит годы и миллиарды на базовое понимание мира. Они берут чистую «выжимку» из лучших западных моделей — их логику, структуру и паттерны. V4 впитывает коллективный опыт топовых ИИ-гигантов и стартует сразу с той вершины, на которую OpenAI и Anthropic карабкались долгими годами. Но дистиллят — это только качественное сырье, идеальный фундамент. Индустрия понимает, что главная угроза кроется в следующем шаге. Поверх этой сверхплотной базы разработчики накладывают свои прорывные методы обучения с подкреплением (RL). Модель заставляют строить длинные цепочки рассуждений, самостоятельно искать ошибки и находить новые, более эффективные пути решения задач, выходя за рамки того, что дали «учителя».
В итоге DeepSeek V4 забирает лучшие качества конкурентов через дистилляцию, а затем умножает этот потенциал на собственные инновационные алгоритмы. Это эволюционный скачок, против которого традиционным закрытым лабораториям будет очень сложно устоять.
Причина кроется в самой архитектуре обучения. DeepSeek не тратит годы и миллиарды на базовое понимание мира. Они берут чистую «выжимку» из лучших западных моделей — их логику, структуру и паттерны. V4 впитывает коллективный опыт топовых ИИ-гигантов и стартует сразу с той вершины, на которую OpenAI и Anthropic карабкались долгими годами. Но дистиллят — это только качественное сырье, идеальный фундамент. Индустрия понимает, что главная угроза кроется в следующем шаге. Поверх этой сверхплотной базы разработчики накладывают свои прорывные методы обучения с подкреплением (RL). Модель заставляют строить длинные цепочки рассуждений, самостоятельно искать ошибки и находить новые, более эффективные пути решения задач, выходя за рамки того, что дали «учителя».
В итоге DeepSeek V4 забирает лучшие качества конкурентов через дистилляцию, а затем умножает этот потенциал на собственные инновационные алгоритмы. Это эволюционный скачок, против которого традиционным закрытым лабораториям будет очень сложно устоять.
Скажу, почему я так сильно хочу Сиданс, и не довольствуюсь Клингом, например. Давайте проигнорируем очевидный факт, что Сиданс генерит видео так качественно и консистентно, как никто. Но даже если бы это было не так, у Сиданса есть вторая киллер-фича. Понимание промпта. Вот честно, Клинг это такая залупа в этом плане. А десятка генераций в Сидансе мне хватило, чтобы влюбиться в него навсегда. Именно благодаря БОЖЕСТВЕННОМУ пониманию промпта.
Dixi
Dixi
💯2
Media is too big
VIEW IN TELEGRAM
Круз с Питтом прижучивают Эпштейна. Видно, что Сиданс справляется со своей работой на отлично, а все претензии исключительно к рукам монтажера.
🔥2
А прикольно, что мы менее чем за год перескочили с просмотров в нашей ленте 5,8-секундных немых роликов к фильмам на несколько минут с первоклассным саунд-дизайном.
Forwarded from с нуля до 1%
Сегодня 24 февраля. Обещанного официального API от Сиданс всё ещё нет.
Но рынок не ждёт. Я разобрал проекты, которые уже перепродают доступ к модели.
Собрал ключевые цифры в таблицу выше. Разброс цен и условий получается интересным.
💎 Mitte.ai — это премиум-вход за $129.
Дорого, зато без очередей. Отличный интерфейс и, что важно, есть дебаг — сразу понятно, где именно нейронке не понравился промпт или картинка.
Главный минус: очень жёсткая модерация, душит часто.
⚖️ Plotparty.ai — компромисс за $49.
Проект-загадка. Качество видео хуже (похоже на модель Fast), себес ролика высокий. Дебага нет вообще — на любую проблему выдают одну и ту же заглушку. Цензура чуть мягче, чем у Мити, но тоже блокирует.
🔥 И самое интересное — Yapper.so.
Новый игрок на радаре. Входной пакет всего $29, с потенциальным себесом меньше доллара за видео ($0.87) и кучей настроек.
Главный вопрос сейчас — модерация.
Я Yapper ещё не гонял. Учитывая, что Мити отстреливает промпты, а Плотпарти кидает слепые ошибки — именно алгоритмы цензуры в Yapper станут решающим фактором при выборе. Надо тестить.
С нуля до 1% 👉 @firsterstrongerbetter
Но рынок не ждёт. Я разобрал проекты, которые уже перепродают доступ к модели.
Собрал ключевые цифры в таблицу выше. Разброс цен и условий получается интересным.
💎 Mitte.ai — это премиум-вход за $129.
Дорого, зато без очередей. Отличный интерфейс и, что важно, есть дебаг — сразу понятно, где именно нейронке не понравился промпт или картинка.
Главный минус: очень жёсткая модерация, душит часто.
⚖️ Plotparty.ai — компромисс за $49.
Проект-загадка. Качество видео хуже (похоже на модель Fast), себес ролика высокий. Дебага нет вообще — на любую проблему выдают одну и ту же заглушку. Цензура чуть мягче, чем у Мити, но тоже блокирует.
🔥 И самое интересное — Yapper.so.
Новый игрок на радаре. Входной пакет всего $29, с потенциальным себесом меньше доллара за видео ($0.87) и кучей настроек.
Главный вопрос сейчас — модерация.
Я Yapper ещё не гонял. Учитывая, что Мити отстреливает промпты, а Плотпарти кидает слепые ошибки — именно алгоритмы цензуры в Yapper станут решающим фактором при выборе. Надо тестить.
С нуля до 1% 👉 @firsterstrongerbetter
🥰1
Переслушиваю сейчас свой любимый альбом лимбов GOLD COBRA и понимаю, что за музыку можно быть спокойным. Лучший генератор музыки сейчас, Suno, вряд ли в ближайшие ГОДЫ сможет приблизиться по качеству звука и воображения к этому альбому.
Есть три момента, которые разделяют нейрогенерацию и такие алмазы:
1. Чистота генерации. Даже топовая модель Suno V5 мешает инструменты между собой, а пэды, струнные и эффекты за основными инструментами часто представляют собой просто лужу, кашу, которая в общем миксе представляет собой звуковой аналог потёмкинской деревни. Безформенный заполнитель тишины. Для совсем неискушенного слушателя это может быть ок, но более-менее любитель чувствует это подсознательно. Меломан и фанат как я сразу чувствует подвох, с первой секунды.
2. Независимость и скудость инструментов. Развитие первого пункта. Слишком часто, и опять-таки даже во флагмане индустрии V5, инструментал морфится меж собой, и более-менее независимыми становятся 2-3 инструмента. Остальные, вместе с эффектами, как я и говорил, превращаясь в кашу, теряют свою индивидуальность, перемешиваясь с другими или, зачастую, меняя свое собственное звучание на протяжении всего трека. Это убивает богатство звучания.
3. Фантазия. Воображение. Самый главный бич. Если не ориентироваться на совсем попсу, на то, что крутят на Евровидении или в кафешках средней руки, то генеративная музыка очень быстро приедается. Она ровная. Если только вы не скармливайте ей свои уникальные, драгоценные демки в полном объеме. Но этот конкретный случай и есть чисто унитарный подход, не для регулярного слушания, в принципе. А вот если закинуть только лишь часть трека — мелодию или хук — или, тем более, генерируя только с текста, то получаешься непревзойденно дистиллированную музыку. Которую просто скучно слушать.
Вот, как позитивный контрпример, упомянутый в начале альбом GOLD COBRA от Limp Bizkit. Слышно каждый инструмент. Слышно тишину (пространство) между ними. Каждый трек претерпевает несколько уровней развития внутри себя. Стили балансируют между собой, не превращаясь в мутную амальгаму, а доводя трек до состояния робота-трансформера, где каждый винтик крутится на своем месте, порождая качественное увеличение сложности. А сложность эта трансформируется в шедевр. Разность темпов. Упругий, сбитой флоу на стонущей гитаре. А ведь это я ещё текст не упомянул😐
Когда нейронки смогут делать такую богатую музыку? Я не знаю. Но, точно не скоро.
P. S. Если что, у меня 10503 сгенерированных трека в Suno
Есть три момента, которые разделяют нейрогенерацию и такие алмазы:
1. Чистота генерации. Даже топовая модель Suno V5 мешает инструменты между собой, а пэды, струнные и эффекты за основными инструментами часто представляют собой просто лужу, кашу, которая в общем миксе представляет собой звуковой аналог потёмкинской деревни. Безформенный заполнитель тишины. Для совсем неискушенного слушателя это может быть ок, но более-менее любитель чувствует это подсознательно. Меломан и фанат как я сразу чувствует подвох, с первой секунды.
2. Независимость и скудость инструментов. Развитие первого пункта. Слишком часто, и опять-таки даже во флагмане индустрии V5, инструментал морфится меж собой, и более-менее независимыми становятся 2-3 инструмента. Остальные, вместе с эффектами, как я и говорил, превращаясь в кашу, теряют свою индивидуальность, перемешиваясь с другими или, зачастую, меняя свое собственное звучание на протяжении всего трека. Это убивает богатство звучания.
3. Фантазия. Воображение. Самый главный бич. Если не ориентироваться на совсем попсу, на то, что крутят на Евровидении или в кафешках средней руки, то генеративная музыка очень быстро приедается. Она ровная. Если только вы не скармливайте ей свои уникальные, драгоценные демки в полном объеме. Но этот конкретный случай и есть чисто унитарный подход, не для регулярного слушания, в принципе. А вот если закинуть только лишь часть трека — мелодию или хук — или, тем более, генерируя только с текста, то получаешься непревзойденно дистиллированную музыку. Которую просто скучно слушать.
Вот, как позитивный контрпример, упомянутый в начале альбом GOLD COBRA от Limp Bizkit. Слышно каждый инструмент. Слышно тишину (пространство) между ними. Каждый трек претерпевает несколько уровней развития внутри себя. Стили балансируют между собой, не превращаясь в мутную амальгаму, а доводя трек до состояния робота-трансформера, где каждый винтик крутится на своем месте, порождая качественное увеличение сложности. А сложность эта трансформируется в шедевр. Разность темпов. Упругий, сбитой флоу на стонущей гитаре. А ведь это я ещё текст не упомянул
Когда нейронки смогут делать такую богатую музыку? Я не знаю. Но, точно не скоро.
P. S. Если что, у меня 10503 сгенерированных трека в Suno
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤1
Против Антропик в лице Дарио Амодеи что-то очень кучно всякого негативного пошло. И негатив этот исключительно со стороны околосистемного американского Бигтеха, близкого к оборонке (Маск, Альтман, Гугл). Долго думать не пришлось, и ситуация с Пентагоном сделала все предельно очевидным.
Что ж, это на самом деле грустно, но прозаично. Лично я посылаю Дарио лучи добра, потому что Антропик правда молодцы, а меньше конкуренции среди ИИ-компаний человечеству точно не нужно.
Что ж, это на самом деле грустно, но прозаично. Лично я посылаю Дарио лучи добра, потому что Антропик правда молодцы, а меньше конкуренции среди ИИ-компаний человечеству точно не нужно.
❤4❤🔥1💯1
Media is too big
VIEW IN TELEGRAM
Вау, это ОЧЕНЬ смотрибельно. У нас тут 15-минутный ИИ-фильм от The Dor Brothers! Смотрим и вычисляем, сколько сделано в Сидансе. По ощущениям, вроде всё, учитывая, что ребята делали это на неделе.
После просмотра можно констатировать, что, в общем, теперь кривость видеогенераторов не отговорка. Единственное, что осталось для того, чтобы делать полноценное кино — мозги для идеи и прямота рук.
После просмотра можно констатировать, что, в общем, теперь кривость видеогенераторов не отговорка. Единственное, что осталось для того, чтобы делать полноценное кино — мозги для идеи и прямота рук.
Бюджеты на видеопродакшн в этом году:
Anonymous Poll
49%
сократятся
17%
останутся такими же
34%
вырастут
Media is too big
VIEW IN TELEGRAM
Seedance 2.0 напрямую в CapCut это райское наслаждение! Генерится до 10 минут. Мне дали сгенерировать один бесплатно, но кредиты пока не сгорели. Очень удобно: тут же отмонтировал, подогнал цветокор, накинул эффектов. От 5 до 15 секунд, можно выбирать соотношения сторон.
Байтдансу моё сердце❤️
Байтдансу моё сердце
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Цены на второй Сиданс в Капкуте: на Pro-плане дают 1200 кредитов. Одно видео стоит от 90 до 270 кредитов, в зависимости от длительности. Про докупку дополнительных кредитов я пока хз.
На видео сравнение image-to-video (10 сек) с text-to-video (15 сек).
На видео сравнение image-to-video (10 сек) с text-to-video (15 сек).
🔥2
Понимание промпта просто ахуй, извините. Буквально мысли читает. Все остальные гены не просто курят в сторонке, а прыгают с моста от безнадеги.
❤2
This media is not supported in your browser
VIEW IN TELEGRAM
В общем, за 8 долларов вышло 6 генераций. Докупить можно, почему-то только через мобильное приложение. Максимум 1999 кредитов за 14 долларов.
Получается, примерно 8-10 видосов за 14 бачей. 80-100 видосов за 140...🍔
Челов генерить Сиданс в Капкуте не давал, ни по фото ни с текста.
Из всех видеонейронок только второй Сиданс справился с танцующим шаффл инопланетянином на Луне.
Получается, примерно 8-10 видосов за 14 бачей. 80-100 видосов за 140...
Челов генерить Сиданс в Капкуте не давал, ни по фото ни с текста.
Из всех видеонейронок только второй Сиданс справился с танцующим шаффл инопланетянином на Луне.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1