Forwarded from Psy Eyes
Media is too big
VIEW IN TELEGRAM
Runway: выкатили Gen-4.
Обещают генерацию стабильных миров с консистентными персонажами.
Управление персонажами как и контроль сцены станет послушнее. Редактирование местами напоминает работу со слоями в фотошопе.
Можно будет сфоткать объект из реального мира и закинуть его в модель, чтобы делать с ним видео.
Качество и эстетичность стали ещё кинематографичнее.
На сайте пока нет инфы по кредитам за генерации. Говорят уже доступно платным подписчикам. У кого есть доступ дропайте тесты в комменты.
Анонс
Сайт
Обещают генерацию стабильных миров с консистентными персонажами.
Управление персонажами как и контроль сцены станет послушнее. Редактирование местами напоминает работу со слоями в фотошопе.
Можно будет сфоткать объект из реального мира и закинуть его в модель, чтобы делать с ним видео.
Качество и эстетичность стали ещё кинематографичнее.
На сайте пока нет инфы по кредитам за генерации. Говорят уже доступно платным подписчикам. У кого есть доступ дропайте тесты в комменты.
Анонс
Сайт
👍5
🧠🇷🇺 В России вводится налог на использование GPU
С 1 мая 2025 года в России вводится ежемесячная плата за использование GPU-устройств, сообщается в проекте постановления.
📦 Под налогообложение попадают все устройства, оснащённые дискретными видеокартами (в том числе игровые ПК, ноутбуки и смартфоны), а также серверное оборудование с GPU.
💰 Тарифы:
- Базовая ставка: 349 ₽ в месяц за каждое устройство с GPU.
- При оплате за год — скидка 20%.
- Дополнительная скидка 15% предоставляется при установке официального приложения "ГосGPU", которое автоматически распределяет часть вычислительных мощностей устройства на научные проекты (в том числе обучение отечественных моделей ИИ и симуляции молекулярных процессов).
📲 Приложение уже доступно:
- Windows и Linux — с 1 апреля!
- iOS — версия находится в разработке, релиз ожидается летом 2025.
Подключение и оплата будут осуществляться через портал Госуслуг, где появится новый раздел: "Налог на GPU-оборудование".
🔧 Важно: Для корректного начисления необходимо пройти верификацию оборудования через локальный сканер в приложении "ГосGPU".
👀 Так же сообщается, что в 2026 году планируется запуск аналогичной программы для TPU и NPU-устройств.
#ГосGPU #юмор #1апреля
———
@tsingular
С 1 мая 2025 года в России вводится ежемесячная плата за использование GPU-устройств, сообщается в проекте постановления.
📦 Под налогообложение попадают все устройства, оснащённые дискретными видеокартами (в том числе игровые ПК, ноутбуки и смартфоны), а также серверное оборудование с GPU.
💰 Тарифы:
- Базовая ставка: 349 ₽ в месяц за каждое устройство с GPU.
- При оплате за год — скидка 20%.
- Дополнительная скидка 15% предоставляется при установке официального приложения "ГосGPU", которое автоматически распределяет часть вычислительных мощностей устройства на научные проекты (в том числе обучение отечественных моделей ИИ и симуляции молекулярных процессов).
📲 Приложение уже доступно:
- Windows и Linux — с 1 апреля!
- iOS — версия находится в разработке, релиз ожидается летом 2025.
Подключение и оплата будут осуществляться через портал Госуслуг, где появится новый раздел: "Налог на GPU-оборудование".
🔧 Важно: Для корректного начисления необходимо пройти верификацию оборудования через локальный сканер в приложении "ГосGPU".
👀 Так же сообщается, что в 2026 году планируется запуск аналогичной программы для TPU и NPU-устройств.
#ГосGPU #юмор #1апреля
———
@tsingular
😁35🤣26 5🤔4🔥3🎉2✍1👻1🫡1🗿1
🧠 ИИ и Олимпиадная Математика: Почему Умнейшие Модели Провалились на USAMO-2025
Интересная ситуация: топовые модели ИИ, которые, казалось бы, уже решают сложные математические проблемы, с треском провалились на олимпиадных задачах для школьников! Исследователи из ETH Zurich и INSAIT протестировали новейшие модели на задачах математической олимпиады США (USAMO) 2025 года — и результаты оказались так себе.
Технические детали теста
1. Подопытные: O3-Mini, O1-Pro, Claude 3.7, QWQ-32B, DeepSeek R1 и Gemini Flash-Thinking — одни из самых сильных моделей за последние месяцы.
2. Методология: Каждая модель получала задачу, должна была предоставить полное доказательство в формате LaTeX. Решения анонимизировались и оценивались экспертами-математиками (бывшими участниками IMO).
3. Система оценки: 7 баллов за задачу, 42 максимум за все задачи, с возможностью получения частичных баллов за значимый прогресс.
4. Результат: Лучшая модель (R1) набрала всего 2 балла из 42 возможных — это меньше 5%! Из ~150 проверенных решений ни одно не получило максимальный балл.
Типы ошибок AI-математиков
1. Логические провалы (самые частые): необоснованные шаги, ошибочные рассуждения, неверная интерпретация предыдущих результатов.
2. Неоправданные предположения: модели часто принимали критические шаги доказательства за "тривиальные", не доказывая их (особенно O3-Mini).
3. Недостаток креативности: большинство моделей раз за разом пыталось использовать одну и ту же неверную стратегию решения.
4. Алгебраические ошибки: удивительно, но с базовыми вычислениями модели справлялись неплохо (кроме R1).
Интересные артефакты ИИ-решателей
1. "Боксинг" ответов: Модели часто помещали ответы в конструкцию \boxed{} даже когда это не требовалось — побочный эффект их обучения с подкреплением, которое поощряет четкое маркирование ответов.
2. Чрезмерная обобщение паттернов: Модели часто замечали закономерность на малых значениях и безосновательно переносили её на общий случай.
3. Структура ответов: O3-Mini и O1-Pro давали более структурированные и понятные решения, QWQ и Flash-Thinking создавали хаотичные ответы.
Выводы
1. Проверка — обязательна: Модели абсолютно уверены в своих решениях даже когда грубо ошибаются. Без экспертной проверки их математические выкладки использовать опасно.
2. Ограничения в формальных доказательствах: Хотя ИИ хорошо работает с числовыми ответами, в формальных доказательствах он пока что слаб — это нужно учитывать при применении в образовании или научных исследованиях.
3. Перспективы автоматической проверки: Исследователи также пытались использовать ИИ для проверки решений других моделей — и снова провал! ИИ-проверяющие ставили в 10-20 раз больше баллов, чем заслуживали решения.
В целом, несмотря на весь хайп вокруг математических способностей ИИ, исследование показывает, что даже лучшие модели далеки от настоящего математического мышления. Они могут манипулировать символами и следовать шаблонам, но совершенно не понимают глубинную логику.
В общем, в критических областях использовать ИИ нужно пока без фанатизма, придерживая человека в цепочке решений.
#бенчмарки
———
@tsingular
Интересная ситуация: топовые модели ИИ, которые, казалось бы, уже решают сложные математические проблемы, с треском провалились на олимпиадных задачах для школьников! Исследователи из ETH Zurich и INSAIT протестировали новейшие модели на задачах математической олимпиады США (USAMO) 2025 года — и результаты оказались так себе.
Технические детали теста
1. Подопытные: O3-Mini, O1-Pro, Claude 3.7, QWQ-32B, DeepSeek R1 и Gemini Flash-Thinking — одни из самых сильных моделей за последние месяцы.
2. Методология: Каждая модель получала задачу, должна была предоставить полное доказательство в формате LaTeX. Решения анонимизировались и оценивались экспертами-математиками (бывшими участниками IMO).
3. Система оценки: 7 баллов за задачу, 42 максимум за все задачи, с возможностью получения частичных баллов за значимый прогресс.
4. Результат: Лучшая модель (R1) набрала всего 2 балла из 42 возможных — это меньше 5%! Из ~150 проверенных решений ни одно не получило максимальный балл.
Типы ошибок AI-математиков
1. Логические провалы (самые частые): необоснованные шаги, ошибочные рассуждения, неверная интерпретация предыдущих результатов.
2. Неоправданные предположения: модели часто принимали критические шаги доказательства за "тривиальные", не доказывая их (особенно O3-Mini).
3. Недостаток креативности: большинство моделей раз за разом пыталось использовать одну и ту же неверную стратегию решения.
4. Алгебраические ошибки: удивительно, но с базовыми вычислениями модели справлялись неплохо (кроме R1).
Интересные артефакты ИИ-решателей
1. "Боксинг" ответов: Модели часто помещали ответы в конструкцию \boxed{} даже когда это не требовалось — побочный эффект их обучения с подкреплением, которое поощряет четкое маркирование ответов.
2. Чрезмерная обобщение паттернов: Модели часто замечали закономерность на малых значениях и безосновательно переносили её на общий случай.
3. Структура ответов: O3-Mini и O1-Pro давали более структурированные и понятные решения, QWQ и Flash-Thinking создавали хаотичные ответы.
Выводы
1. Проверка — обязательна: Модели абсолютно уверены в своих решениях даже когда грубо ошибаются. Без экспертной проверки их математические выкладки использовать опасно.
2. Ограничения в формальных доказательствах: Хотя ИИ хорошо работает с числовыми ответами, в формальных доказательствах он пока что слаб — это нужно учитывать при применении в образовании или научных исследованиях.
3. Перспективы автоматической проверки: Исследователи также пытались использовать ИИ для проверки решений других моделей — и снова провал! ИИ-проверяющие ставили в 10-20 раз больше баллов, чем заслуживали решения.
В целом, несмотря на весь хайп вокруг математических способностей ИИ, исследование показывает, что даже лучшие модели далеки от настоящего математического мышления. Они могут манипулировать символами и следовать шаблонам, но совершенно не понимают глубинную логику.
В общем, в критических областях использовать ИИ нужно пока без фанатизма, придерживая человека в цепочке решений.
#бенчмарки
———
@tsingular
👍23
Forwarded from Технотренды
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12
Forwarded from e/acc
GPT прошел тест Тьюринга. Это, конечно, было очевидно еще примерно год назад с 4o, но теперь официально. Двойное, рандомизированное, контролируемое слепое исследование. Каждый участник общается с двумя субъектами: один живой человек, другой бот. Нужно угадать кто из них бот.
Выводы:
- Ллама 3.1 примерно как человек, в 50% случаев участники угадывают
- GPT-4.5 — в 73% случаев участники называли именно его живым человеком. То есть, он может притворяться человеком лучше, чем другие люди.
Кстати, сам тест работает в интернете. Попробовать отличить тупую железяку от белкового друга можно тут: https://turingtest.live/
Выводы:
- Ллама 3.1 примерно как человек, в 50% случаев участники угадывают
- GPT-4.5 — в 73% случаев участники называли именно его живым человеком. То есть, он может притворяться человеком лучше, чем другие люди.
Кстати, сам тест работает в интернете. Попробовать отличить тупую железяку от белкового друга можно тут: https://turingtest.live/
🔥28🤯28👍10❤3
🔥 Китай делает ставку на ИИ: как Huawei обгоняет Америку в гонке инноваций
Интересная статья Томаса Фридмана в NY Times. Тут вам не просто "Китай развивается" — тут целая технологическая революция происходит, пока США отвлекаются на политические игры! 🤯
Что на самом деле происходит в Китае прямо сейчас:
Фридман посетил R&D центр Huawei — это 104 здания на площади размером с 225 футбольных полей, построенные всего за 3 года! Там работает 35,000 инженеров и учёных. Построено как ответ на американские санкции 2019 года.
Про ИИ:
- DeepSeek — китайская open-source модель ИИ, которая теперь работает на гораздо меньшем количестве американских чипов. Технологическая независимость в действии! 🧠
- Премьер Ли Цян официально объявил поддержку "широкого применения крупномасштабных моделей ИИ" на государственном уровне
- Инженер из Tesla признаётся: "Теперь все соревнуются в том, сколько ИИ они встраивают. Даже если ты на простой производственной линии по сборке холодильников — 'Я должен использовать ИИ, неважно как - потом разберемся'"
Технические детали и бизнес-аспекты:
Что впечатляет — Китай не просто делает вещи дешевле, а делает их дешевле, быстрее, лучше и умнее с интеграцией ИИ на всех уровнях.
Встраивание ИИ в производственные процессы Фридман сравнивает с "инъекцией стимулятора, который оптимизирует и ускоряет каждый аспект производства — от дизайна до тестирования и выпуска". Это не просто автоматизация — это полная трансформация.
Причём внедрение идёт молниеносно. Пример: за 2024 год Huawei установила 100,000 быстрых зарядных станций для электромобилей по всему Китаю. Для сравнения: США выделили $7.5 млрд на сеть зарядных станций, но по состоянию на ноябрь у них работало всего 214 зарядок в 12 штатах. (Речь идёт про зарядки, построенные в рамках гос. финансирования. Всего станций в Штатах 70К+ на 2023й год)
Что это значит для бизнеса?
Китайская "фитнес-модель" развития (так её называет Йорг Вуттке, бывший президент Торговой палаты ЕС в Китае) основана на:
1. Ежегодный выпуск 3.5 миллионов специалистов со STEM-образованием
2. Огромная база квалифицированных рабочих
3. Молниеносное развёртывание производства
4. И теперь — повсеместное внедрение ИИ
Для глобальных компаний это означает, что конкурировать с китайскими производствами становится почти невозможно без аналогичного уровня ИИ-оптимизации.
Интересно, что бизнес-модель тоже меняется: раньше американские компании приходили в Китай и создавали СП с китайскими партнерами для входа на китайский рынок. Теперь китайские компании предлагают свои технологии западным фирмам для выхода на европейский рынок!
Выводы для технарей и предпринимателей:
Если вы думаете о глобальной конкуренции, придётся определиться с ИИ-стратегией прямо сейчас. На кону не просто отдельные продукты, а целые производственные экосистемы, оптимизированные искусственным интеллектом.
+3.5 млн STEM специалистов в год.
Как с этим конкурировать?
Только сотрудничать.
#Huawei #Китай
———
@tsingular
Интересная статья Томаса Фридмана в NY Times. Тут вам не просто "Китай развивается" — тут целая технологическая революция происходит, пока США отвлекаются на политические игры! 🤯
Что на самом деле происходит в Китае прямо сейчас:
Фридман посетил R&D центр Huawei — это 104 здания на площади размером с 225 футбольных полей, построенные всего за 3 года! Там работает 35,000 инженеров и учёных. Построено как ответ на американские санкции 2019 года.
Про ИИ:
- DeepSeek — китайская open-source модель ИИ, которая теперь работает на гораздо меньшем количестве американских чипов. Технологическая независимость в действии! 🧠
- Премьер Ли Цян официально объявил поддержку "широкого применения крупномасштабных моделей ИИ" на государственном уровне
- Инженер из Tesla признаётся: "Теперь все соревнуются в том, сколько ИИ они встраивают. Даже если ты на простой производственной линии по сборке холодильников — 'Я должен использовать ИИ, неважно как - потом разберемся'"
Технические детали и бизнес-аспекты:
Что впечатляет — Китай не просто делает вещи дешевле, а делает их дешевле, быстрее, лучше и умнее с интеграцией ИИ на всех уровнях.
Встраивание ИИ в производственные процессы Фридман сравнивает с "инъекцией стимулятора, который оптимизирует и ускоряет каждый аспект производства — от дизайна до тестирования и выпуска". Это не просто автоматизация — это полная трансформация.
Причём внедрение идёт молниеносно. Пример: за 2024 год Huawei установила 100,000 быстрых зарядных станций для электромобилей по всему Китаю. Для сравнения: США выделили $7.5 млрд на сеть зарядных станций, но по состоянию на ноябрь у них работало всего 214 зарядок в 12 штатах. (Речь идёт про зарядки, построенные в рамках гос. финансирования. Всего станций в Штатах 70К+ на 2023й год)
Что это значит для бизнеса?
Китайская "фитнес-модель" развития (так её называет Йорг Вуттке, бывший президент Торговой палаты ЕС в Китае) основана на:
1. Ежегодный выпуск 3.5 миллионов специалистов со STEM-образованием
2. Огромная база квалифицированных рабочих
3. Молниеносное развёртывание производства
4. И теперь — повсеместное внедрение ИИ
Для глобальных компаний это означает, что конкурировать с китайскими производствами становится почти невозможно без аналогичного уровня ИИ-оптимизации.
Интересно, что бизнес-модель тоже меняется: раньше американские компании приходили в Китай и создавали СП с китайскими партнерами для входа на китайский рынок. Теперь китайские компании предлагают свои технологии западным фирмам для выхода на европейский рынок!
Выводы для технарей и предпринимателей:
Если вы думаете о глобальной конкуренции, придётся определиться с ИИ-стратегией прямо сейчас. На кону не просто отдельные продукты, а целые производственные экосистемы, оптимизированные искусственным интеллектом.
+3.5 млн STEM специалистов в год.
Как с этим конкурировать?
Только сотрудничать.
#Huawei #Китай
———
@tsingular
🔥90👍43🤯31❤7✍5🤣5💯3😐2⚡1
🧠 Впихнуть невпихуемое, решить не решаемое - Новый фреймворк MIT заставил LLM решать "нерешаемые" задачи планирования
Исследователи из MIT создали очень интересный подход - LLMFP (LLM-Based Formalized Programming). Это решение покрывает одну из главных проблем современных LLM: они слабо справляются со сложными задачами планирования.
Суть проблемы в том, что даже GPT-4o и Claude 3.5 не могут сами по себе вырабатывать оптимальные решения для задач с множеством ограничений или многошаговым планированием.
Как это работает:
Вместо бесполезных попыток заставить LLM напрямую решать такие задачи, фреймворк использует языковую модель для формализации задачи, преобразуя её в задачу оптимизации:
1. Definer: определяет цель, переменные решения и ограничения
2. Formulator: создаёт JSON-представление всех переменных
3. Code Generator: пишет код для использования решателя SMT
4. Result Formatter: форматирует результат в понятном виде
5. Self Assessment: проверяет каждый шаг и исправляет ошибки
Фреймворк не требует специфических примеров для каждой задачи. Показал успех 83-87% на 9 разных задачах планирования.
При этом базовые методы едва дотягивают до 40%.
Практические применения в бизнесе:
- Оптимизация цепочек поставок (кейс с кофе из статьи)
- Планирование персонала и рабочих смен
- Управление производственными мощностями
- Распределение задач между роботами в автоматизированных средах
Классический кейс "делай то, в чем ты хорош". LLM понимают язык, решатели SMT решают структурированные задачи. Вместе они становятся намного сильнее.
Что это значит для нас?
Теперь можно не возиться с математическими моделями оптимизации, а просто описать задачу на человеческом языке - и получить оптимизированное решение, созданное LLM.
paper
#Оптимизация #MIT
———
@tsingular
Исследователи из MIT создали очень интересный подход - LLMFP (LLM-Based Formalized Programming). Это решение покрывает одну из главных проблем современных LLM: они слабо справляются со сложными задачами планирования.
Суть проблемы в том, что даже GPT-4o и Claude 3.5 не могут сами по себе вырабатывать оптимальные решения для задач с множеством ограничений или многошаговым планированием.
Как это работает:
Вместо бесполезных попыток заставить LLM напрямую решать такие задачи, фреймворк использует языковую модель для формализации задачи, преобразуя её в задачу оптимизации:
1. Definer: определяет цель, переменные решения и ограничения
2. Formulator: создаёт JSON-представление всех переменных
3. Code Generator: пишет код для использования решателя SMT
4. Result Formatter: форматирует результат в понятном виде
5. Self Assessment: проверяет каждый шаг и исправляет ошибки
Фреймворк не требует специфических примеров для каждой задачи. Показал успех 83-87% на 9 разных задачах планирования.
При этом базовые методы едва дотягивают до 40%.
Практические применения в бизнесе:
- Оптимизация цепочек поставок (кейс с кофе из статьи)
- Планирование персонала и рабочих смен
- Управление производственными мощностями
- Распределение задач между роботами в автоматизированных средах
Классический кейс "делай то, в чем ты хорош". LLM понимают язык, решатели SMT решают структурированные задачи. Вместе они становятся намного сильнее.
Что это значит для нас?
Теперь можно не возиться с математическими моделями оптимизации, а просто описать задачу на человеческом языке - и получить оптимизированное решение, созданное LLM.
paper
#Оптимизация #MIT
———
@tsingular
🔥15👍8❤1
Путин поручил рассмотреть вопрос о целесообразности признания в качестве отягчающего обстоятельства использование при совершении правонарушения технологий искусственного интеллекта
http://rapsinews.ru/incident_news/20250402/310755449.html
#закон
------
@tsingular
http://rapsinews.ru/incident_news/20250402/310755449.html
#закон
------
@tsingular
👍29🤣13✍9⚡3❤1
DeepMind прогнозирует AGI к 2030: учёные в сомнениях
Google DeepMind опубликовал 145-страничный документ о безопасности AGI (искусственного интеллекта общего назначения).
Соавтор работы Шейн Легг утверждает, что AGI появится к 2030 году и сможет решать любые нефизические задачи на уровне 99-го процентиля квалифицированных сотрудников.
Документ предупреждает об экзистенциальных рисках, способных уничтожить человечество.
DeepMind критикует подходы конкурентов: Anthropic якобы пренебрегает надёжным обучением, а OpenAI чрезмерно полагается на автоматизацию.
Эксперты из академических кругов выражают скептицизм: Хейди Клааф считает концепцию AGI расплывчатой, Мэтью Гуздиал сомневается в рекурсивном самоулучшении ИИ.
Профессор Оксфорда Сандра Вахтер полагает, что реальная проблема — самоусиление ИИ неточными выводами и галлюцинациями.
Прогнозы по AGI — как прогнозы погоды на год вперёд: все о них говорят, но никто всерьёз не воспринимает.
#DeepMind #AGI #safety
-------
@tsingular
Google DeepMind опубликовал 145-страничный документ о безопасности AGI (искусственного интеллекта общего назначения).
Соавтор работы Шейн Легг утверждает, что AGI появится к 2030 году и сможет решать любые нефизические задачи на уровне 99-го процентиля квалифицированных сотрудников.
Документ предупреждает об экзистенциальных рисках, способных уничтожить человечество.
DeepMind критикует подходы конкурентов: Anthropic якобы пренебрегает надёжным обучением, а OpenAI чрезмерно полагается на автоматизацию.
Эксперты из академических кругов выражают скептицизм: Хейди Клааф считает концепцию AGI расплывчатой, Мэтью Гуздиал сомневается в рекурсивном самоулучшении ИИ.
Профессор Оксфорда Сандра Вахтер полагает, что реальная проблема — самоусиление ИИ неточными выводами и галлюцинациями.
Прогнозы по AGI — как прогнозы погоды на год вперёд: все о них говорят, но никто всерьёз не воспринимает.
#DeepMind #AGI #safety
-------
@tsingular
⚡4👍1
Model Context Protocol завоёвывает технологический ландшафт
Уходящая неделя ознаменовалась 23 значимыми запусками в экосистеме MCP.
OpenAI и Microsoft активно внедряют поддержку протокола во всех своих продуктах.
Zapier обеспечил взаимодействие ИИ с более чем 8000 приложениями через свою платформу.
Инструментарий пополнился решениями от CAMEL-AI, Box, LiteLLM, Neon, Cursor и других разработчиков.
IBM выпустила краткое обучающее видео, раскрывающее преимущества использования MCP.
Индустрия получила специализированные серверы для Telegram, Rhino/Grasshopper, KiCad и elizaOS.
Новые компоненты включают CLI-инструменты для тестирования и фреймворки для построения эффективных агентов.
Похоже, эра изолированных ИИ-систем заканчивается. Скоро наши нейросети будут общаться между собой активнее, чем мы в мессенджерах.
#MCP #OpenAI #Zapier
-------
@tsingular
Уходящая неделя ознаменовалась 23 значимыми запусками в экосистеме MCP.
OpenAI и Microsoft активно внедряют поддержку протокола во всех своих продуктах.
Zapier обеспечил взаимодействие ИИ с более чем 8000 приложениями через свою платформу.
Инструментарий пополнился решениями от CAMEL-AI, Box, LiteLLM, Neon, Cursor и других разработчиков.
IBM выпустила краткое обучающее видео, раскрывающее преимущества использования MCP.
Индустрия получила специализированные серверы для Telegram, Rhino/Grasshopper, KiCad и elizaOS.
Новые компоненты включают CLI-инструменты для тестирования и фреймворки для построения эффективных агентов.
Похоже, эра изолированных ИИ-систем заканчивается. Скоро наши нейросети будут общаться между собой активнее, чем мы в мессенджерах.
#MCP #OpenAI #Zapier
-------
@tsingular
🤯6👌3👍2⚡1🔥1🥰1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
У меня в детстве не было интернета. В холодном Архангельске было 2 канала на телевизор. И по субботам, где-то в 16-00 показывали мультики. В программе было так и написано - 16:00. Мультфилмы
И ты такой сидишь и ждешь: а что сегодня покажут.
Если рисованные мультики, то праздник.
Если кукольные - суббота не удалась.
Это я к чему?
Вот эта вот генерация из Runway выглядит сильно лучше 99% кукольных мультиков из моего детства.
Просто вспомнилось...
Музыка - Суно. Реф - Midjourney. Видео - Runway 4.
И посмотрите у автора вот такую работу. Хорошо же.
@cgevent
И ты такой сидишь и ждешь: а что сегодня покажут.
Если рисованные мультики, то праздник.
Если кукольные - суббота не удалась.
Это я к чему?
Вот эта вот генерация из Runway выглядит сильно лучше 99% кукольных мультиков из моего детства.
Просто вспомнилось...
Музыка - Суно. Реф - Midjourney. Видео - Runway 4.
И посмотрите у автора вот такую работу. Хорошо же.
@cgevent
👍23❤7🔥5😁3🤔1
Сегодня на конференции TAdviser.
Пригласили модератором второй части.
Понравилась фундаментальная мысль от Дмитрия Калаева
"Если продукт не использует ИИ,- то возникает вопрос о его соответствии рынку"
Вообще все доклады - огонь.
Прям тема для прямого эфира с разбором докладов.
Как вам такая мысль?
#tadviser
------
@tsingular
Пригласили модератором второй части.
Понравилась фундаментальная мысль от Дмитрия Калаева
"Если продукт не использует ИИ,- то возникает вопрос о его соответствии рынку"
Вообще все доклады - огонь.
Прям тема для прямого эфира с разбором докладов.
Как вам такая мысль?
#tadviser
------
@tsingular
🔥39⚡5👏5
- для валидации синтетических описаний мы используем DeepSeek
- а почему не свою модель?
- следующий вопрос пожалуйста.
#юмор
------
@tsingular
- а почему не свою модель?
- следующий вопрос пожалуйста.
#юмор
------
@tsingular
😁28👍3
😁19⚡3🔥2😈1
- мы сейчас проводим А/Б тесты и в 50% случаев, когда клиент просит позвать в чат оператора-человека, подключаем модель, которая делает вид, что она оператор 2й линии и ведёт себя более естественно.
👀
------
@tsingular
👀
------
@tsingular
🤯21😁16✍6🔥1
Forwarded from Data Secrets
Gemini 2.5 Pro порвала очередной бенчмарк
Появились результаты модели на USAMO 2025 (это главная американская математическая олимпиада) – она выбила невероятные 24.4%. До Gemini модели набирали максимум 4.76% (это результат R1). o1-pro заскорила всего 2.83.
Основной интерес здесь в том, что на данный момент это самый свежий мат.бенчмарк, он вышел всего две недели назад. А значит нет никакого лика данных, и результаты максимально чистые.
matharena.ai/
Появились результаты модели на USAMO 2025 (это главная американская математическая олимпиада) – она выбила невероятные 24.4%. До Gemini модели набирали максимум 4.76% (это результат R1). o1-pro заскорила всего 2.83.
Основной интерес здесь в том, что на данный момент это самый свежий мат.бенчмарк, он вышел всего две недели назад. А значит нет никакого лика данных, и результаты максимально чистые.
matharena.ai/
🔥13👍3⚡2🤔2✍1
Ну, вот, смотрите:
- до изобретения мобильной связи мы никогда не использовали мобильные телефоны
- до изобретения интернета - мы никогда не использовали веб сайты и электронную почту
- до изобретения книгопечатания - мы никогда не использовали книги
- до изобретения колеса, - мы никогда не использовали колесо.
Поэтому все, кто сейчас говорит, - мы никогда не используем ИИ [дальше перечень аргументов в зависимости от отрасли] находятся примерно в этой ситуации.
#мысли
———
@tsingular
- до изобретения мобильной связи мы никогда не использовали мобильные телефоны
- до изобретения интернета - мы никогда не использовали веб сайты и электронную почту
- до изобретения книгопечатания - мы никогда не использовали книги
- до изобретения колеса, - мы никогда не использовали колесо.
Поэтому все, кто сейчас говорит, - мы никогда не используем ИИ [дальше перечень аргументов в зависимости от отрасли] находятся примерно в этой ситуации.
#мысли
———
@tsingular
1👍19⚡2✍1🏆1
🎵 Mureka.AI: Китайский прорыв в ИИ-генерации музыки с архитектурой Chain-of-Thought
Китай снова удивляет технологическими инновациями!
Компания Mureka выпустила систему, которая переворачивает подход к ИИ-генерации музыки.
Технические особенности:
1. Архитектура MusiCoT — главная инновация! В отличие от стандартных авторегрессионных моделей (где аудио генерируется последовательно), система сначала создаёт структурную схему композиции, а потом уже предсказывает отдельные аудиотокены. Это как если бы композитор сначала набросал структуру, а потом наполнял её нотами — намного более осмысленный подход.
2. Эффективная работа с многоязычностью — генерация на 10 языках (включая русский) без потери качества.
3. Разделение на дорожки — получение отдельных треков для вокала, инструментов и дополнительных слоёв.
4. API-экосистема с двумя интересными вариантами:
- Стандартный API генерации
- API с дообучением на приватной библиотеке (до 200 треков) — можно создать собственный "музыкальный почерк" для бренда
По бенчмаркам обходит конкурентов в произношении, текстовой релевантности и сегментной точности.
Так же по API доступен обычный TTS с идеальной точностью!
Suno в опасности :).
#Music #CoT #Mureka #Китай
———
@tsingular
Китай снова удивляет технологическими инновациями!
Компания Mureka выпустила систему, которая переворачивает подход к ИИ-генерации музыки.
Технические особенности:
1. Архитектура MusiCoT — главная инновация! В отличие от стандартных авторегрессионных моделей (где аудио генерируется последовательно), система сначала создаёт структурную схему композиции, а потом уже предсказывает отдельные аудиотокены. Это как если бы композитор сначала набросал структуру, а потом наполнял её нотами — намного более осмысленный подход.
2. Эффективная работа с многоязычностью — генерация на 10 языках (включая русский) без потери качества.
3. Разделение на дорожки — получение отдельных треков для вокала, инструментов и дополнительных слоёв.
4. API-экосистема с двумя интересными вариантами:
- Стандартный API генерации
- API с дообучением на приватной библиотеке (до 200 треков) — можно создать собственный "музыкальный почерк" для бренда
По бенчмаркам обходит конкурентов в произношении, текстовой релевантности и сегментной точности.
Так же по API доступен обычный TTS с идеальной точностью!
Suno в опасности :).
#Music #CoT #Mureka #Китай
———
@tsingular
👍10✍4🔥1