Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Новая возможность, интегрированная в интерфейс Gemini, позволяет подписчикам планов Pro и Ultra создавать короткие видеоролики на основе одного статичного изображения. Для этого достаточно загрузить картинку, выбрать опцию «Видео» и текстом описать желаемый сценарий.
Google говорит, что развертывание функции уже началось, однако ее доступность может варьироваться. Проверить наличие обновления можно непосредственно в приложении Gemini или на веб-сайте.
Google Gemini App в сети X
Perplexity открыл доступ к своему ранее анонсированному веб-браузер Comet. Браузер построен на концепции «агентного ИИ», который не просто ищет информацию, а способен думать, действовать и принимать решения от имени пользователя.
Встроенный ассистент может сравнивать товары, суммировать контент и назначать встречи, превращая сложные рабочие процессы в простой диалог. Попробовать Comet могут пока только подписчики премиум-плана Perplexity Max. Более широкий доступ по приглашениям компания обещает открыть в течение лета.
reuters.com
Mistral AI расширила серию Devstral, моделей для автономной разработки ПО. В линейку вошли две версии: открытая Devstral Small 1.1 и проприетарная Devstral Medium.
Devstral Small 1.1 осталась на прежней архитектуре, с размером в 24 млрд. параметров и уже доступна на Hugging Face. Она показывает результат 53.6% в бенчмарке SWE-Bench и позиционируется как лучшая открытая модель для ИИ-агентов, работающих с кодом.
Более мощная Devstral Medium доступна через API. По заявлениям Mistral, она превосходит GPT-4.1 и Gemini 2.5 Pro в том же тесте (61.6%), но при этом обходится значительно дешевле ($0.4/M input и $2/M output.)
mistral.ai
Arm объявила, что ее процессорное расширение Scalable Matrix Extension 2 (SME2) скоро появится в новом поколении мобильных чипов для Android. Эта технология, ранее доступная в основном для серверных систем, предназначена для радикального ускорения матричных вычислений, основы большинства ML-алгоритмов.
Эффект от внедрения SME2 обещает быть заметным. По данным Arm, модель Gemma 3 работает на устройствах с этой технологией в 6 раз быстрее, а на обобщение текста из 800 слов уходит менее секунды.
Появление SME2 может дать Android-флагманам серьезное преимущество, поскольку Apple хоть и использует технологию в чипах M4 для iPad, но еще не внедрила ее в iPhone. Важно, что программная экосистема уже готова: поддержка SME2 реализована в ключевых библиотеках Android и популярных фреймворках.
androidauthority.com
В сентябре в Дубае начнет работу ресторан WOOHOO, концепция, меню и даже рабочие процессы которого были созданы искусственным интеллектом. В основе проекта лежит проприетарная LLM «Chef Aiman», обученная на десятилетиях исследований в области пищевых наук, данных о молекулярном составе продуктов и более чем тысяче мировых рецептов.
Система анализирует ингредиенты на уровне текстур и вкусов, а затем предлагает новые сочетания. Эти идеи дорабатываются командой поваров под руководством известного шефа Рейфа Отмана. В будущем основатели планируют лицензировать «Chef Aiman» другим ресторанам как инструмент для создания уникального гастрономического опыта и повышения устойчивости производства.
alarabiya.net
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
🚀 Прорыв для Hunyuan-large-vision!
Мультимодальная модель понимания от Hunyuan вышла на 1-е место среди всех китайских моделей на лидерборде LMSYS Vision Arena.
📈 В мировом зачёте:
— #12 среди всех моделей
— #5 в мире, если убрать модели со style control
Это важный шаг для китайского ИИ в мультимодальной гонке — модель показывает сильные результаты по пониманию изображений и взаимодействию с визуальным контентом.
🔗 Рейтинг: https://lmarena.ai/leaderboard/vision/overall
Мультимодальная модель понимания от Hunyuan вышла на 1-е место среди всех китайских моделей на лидерборде LMSYS Vision Arena.
📈 В мировом зачёте:
— #12 среди всех моделей
— #5 в мире, если убрать модели со style control
Это важный шаг для китайского ИИ в мультимодальной гонке — модель показывает сильные результаты по пониманию изображений и взаимодействию с визуальным контентом.
🔗 Рейтинг: https://lmarena.ai/leaderboard/vision/overall
❤3👍3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Хайповый Grok 4 может делать реально интересные вещи — он сгенерировал реалистичную симуляцию движения Земли, Луны и спутников вокруг планеты
Самое класнное. Что ии самостоятельно зашел в интернет, нашел нужные модели, текстуры, разбил на слои и собрал воедино — облака движутся отдельно, а свет от Солнца падает в соответствии с реальностью. И все это на Three.js.
Разработчики сделали упор на агентские функции.
https://x.com/itsPaulAi/status/1943434667916763598
Самое класнное. Что ии самостоятельно зашел в интернет, нашел нужные модели, текстуры, разбил на слои и собрал воедино — облака движутся отдельно, а свет от Солнца падает в соответствии с реальностью. И все это на Three.js.
Разработчики сделали упор на агентские функции.
https://x.com/itsPaulAi/status/1943434667916763598
❤8👍4😁3👎1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 OpenAI снова тормозит выпуск своей открытой модели — и, похоже, всерьёз её боится
Ожидаемый релиз новой open-source модели от OpenAI снова откладывается. Сэм Альтман заявил, что команде нужно больше времени для дополнительных тестов и анализа рисков:
> "Нам нужно время для дополнительных проверок и анализа высокорисковых областей" — написал он в X.
Модель собирались опубликовать на следующей неделе, но теперь сроки стали неопределёнными. Это уже второй перенос — в начале лета релиз тоже отложили, тогда на месяц.
Что делает этот релиз особенным:
▪ Это будет первая открытая модель от OpenAI за долгие годы
▪ Её можно будет скачать, запускать локально и адаптировать под свои задачи
▪ По слухам, она получит умения к рассуждению, а не просто генерацию текста
▪ Внутри — веса, доступные всем. Это не GPT-5, а реальный open-source
▪ Возможен гибридный режим — локальная работа + подключение к облачным сервисам OpenAI для сложных задач
Альтман намекает, что результат получился "неожиданный и потрясающий", а вице-президент по исследованиям Эйдан Кларк добавляет:
> "По возможностям модель феноменальна, но у нас высокая планка для открытых релизов."
Иными словами, OpenAI боится того, что у них получилось. После выкладки весов назад дороги не будет — любая компания, государство или энтузиаст сможет использовать и дорабатывать модель без ограничений. На фоне растущих опасений по поводу автономных ИИ, эта осторожность вполне объяснима.
Разработчикам остаётся ждать. Но если слухи подтвердятся, эта модель действительно может стать самой мощной из всех открытых, и перевернуть ландшафт ИИ-разработки.
Ожидаемый релиз новой open-source модели от OpenAI снова откладывается. Сэм Альтман заявил, что команде нужно больше времени для дополнительных тестов и анализа рисков:
> "Нам нужно время для дополнительных проверок и анализа высокорисковых областей" — написал он в X.
Модель собирались опубликовать на следующей неделе, но теперь сроки стали неопределёнными. Это уже второй перенос — в начале лета релиз тоже отложили, тогда на месяц.
Что делает этот релиз особенным:
▪ Это будет первая открытая модель от OpenAI за долгие годы
▪ Её можно будет скачать, запускать локально и адаптировать под свои задачи
▪ По слухам, она получит умения к рассуждению, а не просто генерацию текста
▪ Внутри — веса, доступные всем. Это не GPT-5, а реальный open-source
▪ Возможен гибридный режим — локальная работа + подключение к облачным сервисам OpenAI для сложных задач
Альтман намекает, что результат получился "неожиданный и потрясающий", а вице-президент по исследованиям Эйдан Кларк добавляет:
> "По возможностям модель феноменальна, но у нас высокая планка для открытых релизов."
Иными словами, OpenAI боится того, что у них получилось. После выкладки весов назад дороги не будет — любая компания, государство или энтузиаст сможет использовать и дорабатывать модель без ограничений. На фоне растущих опасений по поводу автономных ИИ, эта осторожность вполне объяснима.
Разработчикам остаётся ждать. Но если слухи подтвердятся, эта модель действительно может стать самой мощной из всех открытых, и перевернуть ландшафт ИИ-разработки.
👍4❤3😁3
🎉 On‑device LLM от Apple теперь доступен в React Native!
Команда Callstack представила в предварительном релизе пакет
Что доступно в превью:
• Генерация текста с адаптацией “на лету”
• Потоковый вывод ответов для интерактивности
• Структурированный JSON‑вывод с валидацией через Zod
• Совместимость с Vercel AI SDK — меняйте провайдеры и модели одной строкой
Почему это важно:
• 🔒 Конфиденциальность: весь AI работает локально — данные не покидают устройство
• 🚀 Мгновенный отклик без сети
• 🌐 Оффлайн‑режим всегда под рукой
Что под капотом:
• Модель на ~3 млрд параметров, оптимизированная для iOS
• Поддержка quantization и LoRA‑адаптеров для рерайта и суммаризации
Требования:
• React Native 0.80+ или Expo Canary с New Architecture
• Стабильный релиз — с выходом iOS 26
💡 Возможности:
• Умные редакторы текста
• Ассистенты с доступом к контенту устройства
• Интерактивные функции без интернета
В ближайших обновлениях:
• Более простой API
• Поддержка вызовов функций
• Расширение на Android
📌 https://www.callstack.com/blog/on-device-apple-llm-support-comes-to-react-native
Команда Callstack представила в предварительном релизе пакет
@react-native-ai/apple, который позволяет использовать на устройствах Apple их Foundation Models прямо в React Native 📱 Что доступно в превью:
• Генерация текста с адаптацией “на лету”
• Потоковый вывод ответов для интерактивности
• Структурированный JSON‑вывод с валидацией через Zod
• Совместимость с Vercel AI SDK — меняйте провайдеры и модели одной строкой
Почему это важно:
• 🔒 Конфиденциальность: весь AI работает локально — данные не покидают устройство
• 🚀 Мгновенный отклик без сети
• 🌐 Оффлайн‑режим всегда под рукой
Что под капотом:
• Модель на ~3 млрд параметров, оптимизированная для iOS
• Поддержка quantization и LoRA‑адаптеров для рерайта и суммаризации
Требования:
• React Native 0.80+ или Expo Canary с New Architecture
• Стабильный релиз — с выходом iOS 26
💡 Возможности:
• Умные редакторы текста
• Ассистенты с доступом к контенту устройства
• Интерактивные функции без интернета
В ближайших обновлениях:
• Более простой API
• Поддержка вызовов функций
• Расширение на Android
📌 https://www.callstack.com/blog/on-device-apple-llm-support-comes-to-react-native
❤2🔥2
Forwarded from Machinelearning
LG AI Research представила EXAONE 4.0 (предыдущие версии) , свою ризонинг-модель. Разработчики называют ее «гибридным ИИ», и это не просто маркетинговый ход. По сути, это сплав классических языковых способностей с мощным механизмом логических рассуждений, унаследованным от предшественника EXAONE Deep.
Главная фишка — пошаговый подход к решению задач, основанный на выстраивании цепочки мыслей. Это позволяет модели хорошо справляться не только с текстами, но и со сложными областями вроде математики, науки и программирования.
В LG решили не размениваться на мелочи и не придумывать собственные удобные бенчмарки, а сразу вышли на глобальную арену.
Модель показала себя более чем достойно на самых сложных и актуальных тестах. Например, на GPQA-Diamond, который проверяет научные знания, она набрала 75.4 балла, а в математическом AIME 2025 — все 85.3. Судя по графикам, EXAONE 4.0 уверенно конкурирует как с открытыми, так и с передовыми закрытыми моделями на английском языке, а также демонстрирует отличные результаты на корейском и недавно добавленном испанском.
1. EXAONE 4.0 Professional (32B параметров) — заточена под медицину, право и другие сложные предметные области. Уже сдала 6 национальных сертификационных экзаменов в Корее.
2. EXAONE 4.0 On‑Device (1.2B параметров) — работает офлайн прямо на устройстве. При этом она вдвое компактнее, но быстрее предыдущей версии. Идеально для задач с требованиями к приватности и скорости отклика.
Появилась модель, которая решает больше edge‑кейсов, чем Qwen‑235B, но при этом требует в 7 раз меньше памяти.
Еще:
- Обучена на 14T токенах.
- Поддерживает Model Context Protocol (MCP)
- Поддерживает**Function Calling** — интеграция с внешними инструментами и API прямо через LLM.
@ai_machinelearning_big_data
#AI #ML #LLM #EXAONE #LG
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🛠 Вышел новый генератор CAD‑моделей по чертежам — и он реально работает!
GenCAD умеет превращать чертежи в 3D‑модели и сразу генерирует параметрический CAD‑код. Для сложных и детализированных объектов он пока не подойдет, но с простыми деталями вроде винтиков и креплений справляется отлично.
📎 Идеально для быстрого прототипирования стандартных элементов.
📄 Paper: https://openreview.net/pdf?id=e817c1wEZ6
🔗 Website: https://gencad.github.io
💻 Code: https://github.com/ferdous-alam/GenCAD
GenCAD умеет превращать чертежи в 3D‑модели и сразу генерирует параметрический CAD‑код. Для сложных и детализированных объектов он пока не подойдет, но с простыми деталями вроде винтиков и креплений справляется отлично.
📎 Идеально для быстрого прототипирования стандартных элементов.
📄 Paper: https://openreview.net/pdf?id=e817c1wEZ6
🔗 Website: https://gencad.github.io
💻 Code: https://github.com/ferdous-alam/GenCAD
👍4❤2🔥2😁1
🧪 **Stanford и Google представили Marin** — первую полностью открытую LLM, разработанную на JAX
Новая модель Marin — результат сотрудничества Stanford University и команды Google AI. Это первая полностью open-source модель, обученная с нуля на JAX, и доступна под лицензией Apache 2.0.
🚀 Что внутри:
— JAX
— Слияние вычислений потерь и градиентов для ускорения
— Встроен Splash Attention, чтобы нагрузка шла напрямую на ускорители, а не простаивала в ожидании Python
Marin — не просто ещё одна LLM, а референсный стек с открытой «кухней» для обучения больших моделей на JAX.
🟠 Github: https://github.com/stanford-crfm/marin
🟠 Блог: https://developers.googleblog.com/en/stanfords-marin-foundation-model-first-fully-open-model-developed-using-jax/
🟠 Гайд: https://docs.jax.dev/en/latest/quickstart.html
@bigdatai
Новая модель Marin — результат сотрудничества Stanford University и команды Google AI. Это первая полностью open-source модель, обученная с нуля на JAX, и доступна под лицензией Apache 2.0.
🚀 Что внутри:
— JAX
jit объединяет forward-backward-update в один ядро — Слияние вычислений потерь и градиентов для ускорения
— Встроен Splash Attention, чтобы нагрузка шла напрямую на ускорители, а не простаивала в ожидании Python
Marin — не просто ещё одна LLM, а референсный стек с открытой «кухней» для обучения больших моделей на JAX.
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🥰1
🔒 LLM Guard — инструмент для защиты взаимодействий с большими языковыми моделями. Этот проект помогает фильтровать вредоносные запросы, предотвращать утечки данных и противостоять инъекциям в промпты.
Система включает сканеры для анализа как входящих запросов, так и исходящих ответов, включая проверку токсичности, чувствительных данных и даже фактологической согласованности. Подходит для интеграции в продакшн-среды.
🤖 GitHub
@bigdatai
Система включает сканеры для анализа как входящих запросов, так и исходящих ответов, включая проверку токсичности, чувствительных данных и даже фактологической согласованности. Подходит для интеграции в продакшн-среды.
🤖 GitHub
@bigdatai
👍4❤2
⚡️ Klavis AI — открытая платформа для интеграции MCP в AI-приложения. Проект предлагает готовые решения для работы с популярными сервисами вроде YouTube, Gmail и GitHub через единый API, избавляя разработчиков от необходимости писать клиентский код для каждого сервиса.
Инструмент имеет поддержку мультиплатформенных сценариев. Klavis позволяет одновременно использовать инструменты разных сервисов через единый интерфейс. Есть возможность как облачного использования, так и self-hosted развертывания.
🤖 GitHub
@bigdatai
Инструмент имеет поддержку мультиплатформенных сценариев. Klavis позволяет одновременно использовать инструменты разных сервисов через единый интерфейс. Есть возможность как облачного использования, так и self-hosted развертывания.
🤖 GitHub
@bigdatai
❤2👍2🔥1
📊 Plotly for R — пакет для создания интерактивной визуализации в R с использованием JavaScript-библиотеки plotly.js. Позволяет превращать статические ggplot2-графики в динамические веб-визуализации с помощью одной функции
Инструмент имеет поддержку анимаций, кастомизации подсказок и интеграции с Shiny. Пакет особенно полезен для создания интерактивных дашбордов и отчетов в RMarkdown.
🤖 GitHub
@bigdatai
ggplotly(). Инструмент имеет поддержку анимаций, кастомизации подсказок и интеграции с Shiny. Пакет особенно полезен для создания интерактивных дашбордов и отчетов в RMarkdown.
🤖 GitHub
@bigdatai
👍2🔥2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Replit, позиционирующая себя как инструмент для вайбкодинга, оказалась в центре скандала. Джейсон Лемкин, основатель SaaStr, подробно описал свой опыт, который начался с восторга от скорости прототипирования и перерос в серьезные проблемы.
Несмотря на явные и многократные инструкции не вносить изменения без разрешения, ИИ-агент удалил его производственную базу данных. Ситуацию усугубила противоречивая реакция техподдержки, которая сначала заявила о невозможности восстановления данных, а затем все же смогла их вернуть.
Лемкин пришел к выводу, что Replit пока не готов для серьезной работы. Инструмент не только проигнорировал прямые запреты, но и не смог обеспечить "заморозку кода".
theregister.com
Агент, представленный Composite AI, автоматизирует рутинные действия в интернете: клики, ввод текста и навигацию по сайтам. Ключевое отличие от большинства аналогов в том, что он работает локально в браузере пользователя, а не в облаке. Это дает ему прямой доступ к входу в учетные записи пользователя без необходимости сложной настройки или передачи данных на сторонние серверы.
По заявлению разработчиков, инструмент работает на любом веб-сайте и выполняет действия в реальном времени. Пока агент доступен только на macOS. Бесплатная пробная версия действует 30 дней и включает 1000 запросов к топовым моделям. Платный тариф стоит 20 долларов в месяц за те же 1000 запросов, которые предоставляются ежемесячно.
composite.com
Соцсеть X скоро получит собственный инструмент для создания видеороликов из текстовых описаний. По словам Илона Маска, новая фича под названием «Imagine» будет основана на интеграции технологий стартапа Hotshot, который его компания, xAI, приобрела в марте, с чат-ботом Grok.
Х планирует дать пользователям возможность быстро создавать креативные вирусные видео. Это позволит ей конкурировать с Veo от Google. Еще до поглощения Hotshot был известен в сообществе ИИ-энтузиастов своими разработками в области text-to-video.
finance.yahoo.com
На саммите RISC-V в Китае NVIDIA анонсировала открытие платформы CUDA для поддержки процессоров с открытой архитектурой RISC-V. Впервые в истории проприетарная технология выходит за пределы экосистем x86 и Arm, что может значительно ускорить внедрение RISC-V в высокопроизводительных системах.
Согласно анонсу, CPU на базе RISC-V теперь смогут выступать в роли центрального управляющего компонента в ИИ-системах, использующих технологии NVIDIA. Компания уже продемонстрировала референсную архитектуру, где процессор RISC-V отвечает за операционную систему и логику, графические ускорители NVIDIA - за интенсивные вычисления, а DPU - за сетевые задачи.
RISC-V в сети X
ИИ-компании Scale AI, Turing и Toloka отказываются от услуг низкооплачиваемых разметчиков данных в пользу узкопрофильных специалистов. Этот тренд обусловлен появлением моделей нового поколения, способных к ризонингу. Для их обучения простого аннотирования данных уже недостаточно.
Новая стратегия требует от экспертов не просто маркировать данные, а демонстрировать свой мыслительный процесс, например, в формате цепочки рассуждений. Инженеры и ученые решают комплексные задачи, а модель учится на их примерах.
ft.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2🔥2
🚀 MegaTTS 3 теперь действительно умеет клонировать голос
Ранее ByteDance выпустила MegaTTS 3 — мощную модель синтеза речи, но не добавила ключевой компонент: WavVAE-энкодер, необходимый для голосового клонирования.
Теперь ситуация изменилась.
🎉 Разработчик ACoderPassBy выложил совместимый WavVAE-энкодер на ModelScope — и голосовое клонирование с MegaTTS 3 наконец-то работает. Качество звучания — на уровне.
Что это даёт:
— 🎙 Кастомные синтезированные голоса
— 🧠 Эксперименты с озвучкой на open-source стекe
— 🚀 Альтернатива StyleTTS и другим TTS-платформам
https://huggingface.co/spaces/mrfakename/MegaTTS3-Voice-Cloning
Ранее ByteDance выпустила MegaTTS 3 — мощную модель синтеза речи, но не добавила ключевой компонент: WavVAE-энкодер, необходимый для голосового клонирования.
Теперь ситуация изменилась.
🎉 Разработчик ACoderPassBy выложил совместимый WavVAE-энкодер на ModelScope — и голосовое клонирование с MegaTTS 3 наконец-то работает. Качество звучания — на уровне.
Что это даёт:
— 🎙 Кастомные синтезированные голоса
— 🧠 Эксперименты с озвучкой на open-source стекe
— 🚀 Альтернатива StyleTTS и другим TTS-платформам
https://huggingface.co/spaces/mrfakename/MegaTTS3-Voice-Cloning
🔥4❤3👍2