Forwarded from Neural Shit
Там Luma AI выкатили в Dream Machine свой новый video to audio генератор. Может подбирать звуки к видео сам, а может и из промпта. Принес вам видео с примерами из твиттора (сам еще поиграться не успел).
Вроде звучит и выглядит неплохо. Доступно тут.
Если кто-то уже успел опробовать, отпишите как оно на самом деле, потому что в твитторах и реддитах как обычно скорее всего лютый черри пикинг.
Вроде звучит и выглядит неплохо. Доступно тут.
Если кто-то уже успел опробовать, отпишите как оно на самом деле, потому что в твитторах и реддитах как обычно скорее всего лютый черри пикинг.
👍33❤10🔥4
Forwarded from AI Product | Igor Akimov
Представили Anthropic Claude Sonnet 3.7
Быструю и мощную модель с гибкостью в ответах: мгновенные реакции или углубленный анализ. Важное обновление – Claude Code, инструмент для ИИ-помощи разработчикам прямо из терминала. Пока в превью.
Что нового?
✔ Контроль времени размышления – баланс скорости и точности
✔ Улучшенные навыки кодирования и отладки
✔ Новый API-режим для сложных инженерных задач
✔ Цена осталась прежней: $3 за 1M входных и $15 за 1M выходных токенов
По бенчам все довольно круто и кажется Anthropic нашел свой фишку - генерация кода, будут бить туда и строить лучшую модель для разработки.
Доступно на всех платформах Anthropic, включая Amazon Bedrock и Google Vertex AI.
https://www.anthropic.com/news/claude-3-7-sonnet
Быструю и мощную модель с гибкостью в ответах: мгновенные реакции или углубленный анализ. Важное обновление – Claude Code, инструмент для ИИ-помощи разработчикам прямо из терминала. Пока в превью.
Что нового?
✔ Контроль времени размышления – баланс скорости и точности
✔ Улучшенные навыки кодирования и отладки
✔ Новый API-режим для сложных инженерных задач
✔ Цена осталась прежней: $3 за 1M входных и $15 за 1M выходных токенов
По бенчам все довольно круто и кажется Anthropic нашел свой фишку - генерация кода, будут бить туда и строить лучшую модель для разработки.
Доступно на всех платформах Anthropic, включая Amazon Bedrock и Google Vertex AI.
https://www.anthropic.com/news/claude-3-7-sonnet
👍38❤3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Также они немного приподтралливают OpenAI.
У нас, говорят, ВСЕ рассуждения видны пользователю.
Ну и самое главное, при использовании Claude 3.7 Sonnet через API пользователи также могут контролировать бюджет на размышления: вы можете сказать Claude думать не более чем на N токенов, для любого значения N вплоть до его предела в 128K токенов. Это позволяет компенсировать скорость (и стоимость) качеством ответа.
@cgevent
У нас, говорят, ВСЕ рассуждения видны пользователю.
Ну и самое главное, при использовании Claude 3.7 Sonnet через API пользователи также могут контролировать бюджет на размышления: вы можете сказать Claude думать не более чем на N токенов, для любого значения N вплоть до его предела в 128K токенов. Это позволяет компенсировать скорость (и стоимость) качеством ответа.
@cgevent
👍26❤25🔥2👎1
"Hey, Sonnet 3.7! Can you write the most intricate cloth simulation in p5js"
Это как бы про нового Клода, но на самом деле нет (как обычно тут).
Новый Клод берет и легко пишет симулятор одежды. Грок 3 и o1 Pro не справляются (но это не так важно, хотя как топик для поста - огонь).
И тут я как бы теряю ориентиры. В 2007 в Maya (8.5?) появился модуль nCloth (первый модуль Нуклеуса). На тот момент лучший и самый быстрый симулятор тканей. Уже потом появились Хавоки, Физиксы и Марвелоусы. Но тогда это был прям прорыв после Soft Body.
Считало не быстро (тогда нам казалось мухой), особенно на реальных сетках. Писал это все гений Дункан Бринсмит (paint effects, maya fluids, nParticles) не без помощи Джоса Стама, но от первых альф до релиза был, я думаю, год.
Тогда - год, а сейчас - промпт. Куда катится мир?
И да, я понимаю, не тупой, что в Maya был(есть) UI\UX, настройки, интеграция с движком.
Но елы-палы, сейчас это крутится на java script и webgl в браузере (тут я вспоминаю пляски с перепаиванием GeForce256) и является 30-секундным результатом фантазии пользователя-промптера.
Куда катится мир?
Теперь, почему это не про Клода.
Помните в Майке появлялись Maya Fur, Maya Hair, Maya Fluids, Paint Effects и прочие модули. Конкуренты не отставали, Худини делал свои мощные ответочки, Максон - ответочки попроще, но рано или поздно все 3Д-вендоры упаковались волосами, частицами, флюидам, растениями и прочими негеометрическими биодобавками и солверами. Пошла битва микрофич и удобства использования этих идей.
И хотя в твитторе пишут, что Грок 3 и o1 Pro не справляются с солвером тряпок, но они справятся, очень скоро (или уже щас в умелых руках-промптах).
Все они (Клод, Грок, Ö¾±, Gemini) справятся со всеми этими солверами и летающими шариками внутри тессерактов. Скоро. Все.
Просто дальше встанет вопрос: "а что писать будем?". Майю на телефоне? Банально.
Я когда-то спрашивал аудиторию на одном из ивентов, "представьте, что отрендерить можно любую сцену (ну то есть ваще любую) в реалтайме; что вы будете делать\создавать?".
В зале на 600 чел. повисла тишина...
Что будете кодить, если закодить можно все и сразу?
Понадобятся идеи..
Куда пойдете за идеями?
Правильно...
@cgevent
Это как бы про нового Клода, но на самом деле нет (как обычно тут).
Новый Клод берет и легко пишет симулятор одежды. Грок 3 и o1 Pro не справляются (но это не так важно, хотя как топик для поста - огонь).
И тут я как бы теряю ориентиры. В 2007 в Maya (8.5?) появился модуль nCloth (первый модуль Нуклеуса). На тот момент лучший и самый быстрый симулятор тканей. Уже потом появились Хавоки, Физиксы и Марвелоусы. Но тогда это был прям прорыв после Soft Body.
Считало не быстро (тогда нам казалось мухой), особенно на реальных сетках. Писал это все гений Дункан Бринсмит (paint effects, maya fluids, nParticles) не без помощи Джоса Стама, но от первых альф до релиза был, я думаю, год.
Тогда - год, а сейчас - промпт. Куда катится мир?
И да, я понимаю, не тупой, что в Maya был(есть) UI\UX, настройки, интеграция с движком.
Но елы-палы, сейчас это крутится на java script и webgl в браузере (тут я вспоминаю пляски с перепаиванием GeForce256) и является 30-секундным результатом фантазии пользователя-промптера.
Куда катится мир?
Теперь, почему это не про Клода.
Помните в Майке появлялись Maya Fur, Maya Hair, Maya Fluids, Paint Effects и прочие модули. Конкуренты не отставали, Худини делал свои мощные ответочки, Максон - ответочки попроще, но рано или поздно все 3Д-вендоры упаковались волосами, частицами, флюидам, растениями и прочими негеометрическими биодобавками и солверами. Пошла битва микрофич и удобства использования этих идей.
И хотя в твитторе пишут, что Грок 3 и o1 Pro не справляются с солвером тряпок, но они справятся, очень скоро (или уже щас в умелых руках-промптах).
Все они (Клод, Грок, Ö¾±, Gemini) справятся со всеми этими солверами и летающими шариками внутри тессерактов. Скоро. Все.
Просто дальше встанет вопрос: "а что писать будем?". Майю на телефоне? Банально.
Я когда-то спрашивал аудиторию на одном из ивентов, "представьте, что отрендерить можно любую сцену (ну то есть ваще любую) в реалтайме; что вы будете делать\создавать?".
В зале на 600 чел. повисла тишина...
Что будете кодить, если закодить можно все и сразу?
Понадобятся идеи..
Куда пойдете за идеями?
Правильно...
@cgevent
13🔥76👍34❤17😁6👎2😱2
This media is not supported in your browser
VIEW IN TELEGRAM
Невероятно! Алибаба бахнули код WanX 2.1
Про этот видеогенератор я очень подробно писал неделю назад - это та самая видеогенерилка из Qwen Chat
Две модели - 1.3B и 14B - маленькая влезет в 4090 (а на low res и в 3060), большая только в A100 или H100, нужно 80 гиг VRAM.
Маленькая пошустрее, пишут, что 4 минуты на видео. Но надо гонять.
Есть MultiGPU.
Но самое главное, что отличие от Хунька, там есть image2video!
Также есть Prompt Extention (с любой ллм).
И есть генератор картинок!
И есть Video-to-Audio, о чем я уже писал.
В общем вот вам raw data, а я пойду искать где потестить:
👍 Supports Consumer-grade GPUs: The T2V-1.3B model requires only 8.19 GB VRAM, making it compatible with almost all consumer-grade GPUs. It can generate a 5-second 480P video on an RTX 4090 in about 4 minutes (without optimization techniques like quantization). Its performance is even comparable to some closed-source models.
👍 Multiple Tasks: Wan2.1 excels in Text-to-Video, Image-to-Video, Video Editing, Text-to-Image, and Video-to-Audio, advancing the field of video generation.
👍 Visual Text Generation: Wan2.1 is the first video model capable of generating both Chinese and English text, featuring robust text generation that enhances its practical applications.
👍 Powerful Video VAE: Wan-VAE delivers exceptional efficiency and performance, encoding and decoding 1080P videos of any length while preserving temporal information, making it an ideal foundation for video and image generation.
Очень хорошо сделанная репа с обзором GPU, веса и инструкции:
https://github.com/Wan-Video/Wan2.1/
На первый взгляд отлично исполняет в живую камеру, но пересвечивает объекты.
@cgevent
Про этот видеогенератор я очень подробно писал неделю назад - это та самая видеогенерилка из Qwen Chat
Две модели - 1.3B и 14B - маленькая влезет в 4090 (а на low res и в 3060), большая только в A100 или H100, нужно 80 гиг VRAM.
Маленькая пошустрее, пишут, что 4 минуты на видео. Но надо гонять.
Есть MultiGPU.
Но самое главное, что отличие от Хунька, там есть image2video!
Также есть Prompt Extention (с любой ллм).
И есть генератор картинок!
И есть Video-to-Audio, о чем я уже писал.
В общем вот вам raw data, а я пойду искать где потестить:
👍 Supports Consumer-grade GPUs: The T2V-1.3B model requires only 8.19 GB VRAM, making it compatible with almost all consumer-grade GPUs. It can generate a 5-second 480P video on an RTX 4090 in about 4 minutes (without optimization techniques like quantization). Its performance is even comparable to some closed-source models.
👍 Multiple Tasks: Wan2.1 excels in Text-to-Video, Image-to-Video, Video Editing, Text-to-Image, and Video-to-Audio, advancing the field of video generation.
👍 Visual Text Generation: Wan2.1 is the first video model capable of generating both Chinese and English text, featuring robust text generation that enhances its practical applications.
👍 Powerful Video VAE: Wan-VAE delivers exceptional efficiency and performance, encoding and decoding 1080P videos of any length while preserving temporal information, making it an ideal foundation for video and image generation.
Очень хорошо сделанная репа с обзором GPU, веса и инструкции:
https://github.com/Wan-Video/Wan2.1/
На первый взгляд отлично исполняет в живую камеру, но пересвечивает объекты.
@cgevent
🔥49👍16❤4😱4
Если у вас есть плюс-подписка на chatGPT, то у вас теперь есть/будет Deep Research.
10 запросов в месяц.
https://cdn.openai.com/deep-research-system-card.pdf
@cgevent
10 запросов в месяц.
https://cdn.openai.com/deep-research-system-card.pdf
@cgevent
👍36😁20❤11🔥10👎2😱2
Forwarded from Denis Sexy IT 🤖
Deep Research стал доступен всем платным пользователям (10 запросов в месяц если у вас Plus), поэтому ловите практические советы как лучше его использовать:
— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «
— Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату
И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «
ВАЖНО: не дублируй одну и ту же мысль много раз в тексте, если она уже описана», по умолчанию он так делает — Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату
И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
ChatGPT
ChatGPT helps you get answers, find inspiration, and be more productive.
1❤40👍17👎6🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Киджай, конечно, машина.
Уже готов первый Комфи-вокфлоу для WanX.
Как я понял только image2video пока работает.
И модель пожата в fp8_e4m3fn
https://huggingface.co/Kijai/WanVideo_comfy/tree/main
Код:
https://github.com/kijai/ComfyUI-WanVideoWrapper
Как упихать это в 16 гиг посмотрите тут:
https://github.com/kijai/ComfyUI-WanVideoWrapper/issues/2
Тестовое видео.. такое .. конечно.
@cgevent
Уже готов первый Комфи-вокфлоу для WanX.
Как я понял только image2video пока работает.
И модель пожата в fp8_e4m3fn
https://huggingface.co/Kijai/WanVideo_comfy/tree/main
Код:
https://github.com/kijai/ComfyUI-WanVideoWrapper
Как упихать это в 16 гиг посмотрите тут:
https://github.com/kijai/ComfyUI-WanVideoWrapper/issues/2
Тестовое видео.. такое .. конечно.
@cgevent
🔥16👍7😁2
😁91🔥26👍12😱7❤5
This media is not supported in your browser
VIEW IN TELEGRAM
Мы вчера тут выпивали за Maya Cloth и симуляторы тканей, но прошел ровно день, и Клод пришел за Maya Fluids.
Как, впрочем, я и предсказывал в посте выше.
Из интересного:
это все написано с помощью claude 3.7 sonnet (extended thinking)
с трех попыток
на одну попытку(промпт) уходило 5 секунд (Maya Fluids Джос и Данкан писали год)
код написан Клодом на С с использованием SDL2 (кроссплатформенная библиотека для обеспечения низкоуровневого доступа к аудио, клавиатуре, мыши, джойстику и графическому оборудованию через OpenGL и Direct3D)
А теперь (внимание!) промпт:
"generate a fluid simulation C program using any rendering library of your choice! go crazy"
Все сделано прям в чате, без всякого апи.
код можно посмотреть тут, он довольно .. спорный, но мне понравился комент в твитторе - "если бы вы видели многочисленный студенческий код для решения урчп в механике сплошных сред, то этот код показался бы вам очень хорошим"
Grok 3 не осилил задачу.Аклодасилил .
У меня больше нет вопросов, все вопросы я поставил в этом посте.
Если вы хотите выжать еще подробностей, почитайте твиттор.
@cgevent
Как, впрочем, я и предсказывал в посте выше.
Из интересного:
это все написано с помощью claude 3.7 sonnet (extended thinking)
с трех попыток
на одну попытку(промпт) уходило 5 секунд (Maya Fluids Джос и Данкан писали год)
код написан Клодом на С с использованием SDL2 (кроссплатформенная библиотека для обеспечения низкоуровневого доступа к аудио, клавиатуре, мыши, джойстику и графическому оборудованию через OpenGL и Direct3D)
А теперь (внимание!) промпт:
"generate a fluid simulation C program using any rendering library of your choice! go crazy"
Все сделано прям в чате, без всякого апи.
код можно посмотреть тут, он довольно .. спорный, но мне понравился комент в твитторе - "если бы вы видели многочисленный студенческий код для решения урчп в механике сплошных сред, то этот код показался бы вам очень хорошим"
Grok 3 не осилил задачу.
У меня больше нет вопросов, все вопросы я поставил в этом посте.
Если вы хотите выжать еще подробностей, почитайте твиттор.
@cgevent
1🔥46👍10❤3😁3
Ну что, наморщим лобики, и попытаемся родить запрос?
Примечательно, что первой подсказкой от chatGPT стоит "research purchases"
Подписка Plus, появилось утром.
@cgevent
Примечательно, что первой подсказкой от chatGPT стоит "research purchases"
Подписка Plus, появилось утром.
@cgevent
🔥27👍7😁5
Там какой-то парад бесплатных релизов для vibe-программистов.
Я так понимаю, великая битва за пользователя началась.
Гугл бахнул бесплатную версию своего AI-ассистента для кодирования, Gemini Code Assist
https://blog.google/technology/developers/gemini-code-assist-free/
Микрософт тут же ответил симметрично и с горочкой, сделав свои Copilot Voice and Think Deeper(!) бесплатными, и, нмнтчку, безлимитными (это как? безлимитный ризонинг?):
https://www.theverge.com/news/619199/microsoft-copilot-free-unlimited-voice-think-deeper-open-ai-o1-reasoning-model-ai
Все это на базе o1 reasoning model
А тут еще у OpenAI воды отходят: вот вот бахнут gpt-4.5...
@cgevent
Я так понимаю, великая битва за пользователя началась.
Гугл бахнул бесплатную версию своего AI-ассистента для кодирования, Gemini Code Assist
https://blog.google/technology/developers/gemini-code-assist-free/
Микрософт тут же ответил симметрично и с горочкой, сделав свои Copilot Voice and Think Deeper(!) бесплатными, и, нмнтчку, безлимитными (это как? безлимитный ризонинг?):
https://www.theverge.com/news/619199/microsoft-copilot-free-unlimited-voice-think-deeper-open-ai-o1-reasoning-model-ai
Все это на базе o1 reasoning model
А тут еще у OpenAI воды отходят: вот вот бахнут gpt-4.5...
@cgevent
1🔥43😱13❤4👍4
Forwarded from Наталья
Миллиард на репетиторах и рекламодателях
Автор канала «Индекс дятла» изучил 300+ прогнозов известных предпринимателей со всего мира и выбрал для вас три изменения, которые ждут нас в этом году. А ещё предположил, как на этом можно заработать шестизначные суммы:
1) Google выпустит ИИ-репетитора для учеников 1-11 классов. И запустит передел рынка образования размером 5 триллионов долларов. Как заработать на этом? Например, помогать учителям с авторской методикой создавать цифровых двойников — AI-ассистентов, обученных на сотнях записей их уроков.
2) Выйдет первая «бесконечная» многопользовательская онлайн-игра. Новые уровни будут генерироваться под каждого участника в зависимости от его решений и опыта. Как заработать на этом? Например, создавать персонажей, которые будут нативно рекламировать ваш бренд или товар прямо в игре.
3) Pixar выпустит короткометражный мультфильм, полностью созданный с помощью ИИ. Он станет хитом и запустит революцию в кино. Как заработать на этом? Например, научиться писать сценарии для ИИ-анимации и продавать их рекламодателям, которые хотят сэкономить на роликах.
Следующие пять лет станут для одних временем Великой депрессии, а для других — Золотой лихорадки.
Присоединяйтесь к 22 тысячам тех, кто ищет возможности заработать на новых технологиях и изменениях. Подписывайтесь на «Индекс дятла». Каждый день — одна сумасшедшая, но стоящая идея на миллиард в вашу копилку здесь: @dindex.
Реклама ИП Торбичев Андрей Константинович ИНН: 235307703247 erid 2Vtzqw3YqBC
Автор канала «Индекс дятла» изучил 300+ прогнозов известных предпринимателей со всего мира и выбрал для вас три изменения, которые ждут нас в этом году. А ещё предположил, как на этом можно заработать шестизначные суммы:
1) Google выпустит ИИ-репетитора для учеников 1-11 классов. И запустит передел рынка образования размером 5 триллионов долларов. Как заработать на этом? Например, помогать учителям с авторской методикой создавать цифровых двойников — AI-ассистентов, обученных на сотнях записей их уроков.
2) Выйдет первая «бесконечная» многопользовательская онлайн-игра. Новые уровни будут генерироваться под каждого участника в зависимости от его решений и опыта. Как заработать на этом? Например, создавать персонажей, которые будут нативно рекламировать ваш бренд или товар прямо в игре.
3) Pixar выпустит короткометражный мультфильм, полностью созданный с помощью ИИ. Он станет хитом и запустит революцию в кино. Как заработать на этом? Например, научиться писать сценарии для ИИ-анимации и продавать их рекламодателям, которые хотят сэкономить на роликах.
Следующие пять лет станут для одних временем Великой депрессии, а для других — Золотой лихорадки.
Присоединяйтесь к 22 тысячам тех, кто ищет возможности заработать на новых технологиях и изменениях. Подписывайтесь на «Индекс дятла». Каждый день — одна сумасшедшая, но стоящая идея на миллиард в вашу копилку здесь: @dindex.
Реклама ИП Торбичев Андрей Константинович ИНН: 235307703247 erid 2Vtzqw3YqBC
👎53😁21👍14❤3🔥1😱1