Media is too big
VIEW IN TELEGRAM
Быстрые и синхронные движения вывели возможности роботизированной моторики на новый уровень и установили сразу несколько мировых рекордов.
Модель H2 также стала одной из главных звёзд шоу- робот появился на главной сцене в Пекине и на площадке в Иу в образе Царя Обезьян.
В тяжёлых доспехах он «летал на облаке», роль которого исполняли четвероногие роботы-собаки B2W, и с высоты поздравлял зрителей с Китайским Новым годом.
@ai_machinelearning_big_data
#Unitree #ai #Ml #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥144🤩51👏20❤15👍8🏆7🎉3👀1
Media is too big
VIEW IN TELEGRAM
Австрийский разработчик, автор OpenClaw, объявил о переходе в OpenAI. В своем блоге Питер Штайнбергер объяснил решение тем, что строить большую компанию ему неинтересно, а OpenAI - это быстрейший путь к реальным изменениям.
По словам Сэма Альтмана, в компании Штайнбергер возглавит разработку персональных агентов нового поколения. OpenClaw при этом не исчезнет: проект передадут в фонд и откроют исходный код под поддержкой OpenAI.
Sam Altman в сети Х
Линейка представлена в 3-х версиях: Pro, Lite и Mini, плюс отдельная модель для кодинга. Семейство получило мультимодальность: улучшена работа с документами, таблицами, графиками и видео. По бенчмаркам ByteDance, Seed2.0 Pro обходит GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro в задачах на визуальную математику, логику и восприятие.
На олимпиадных тестах по математике и программированию Seed2.0 Pro показала результаты на уровне золотых медалей. На IMO - 35 из 42 баллов, На 5 соревнованиях ICPC - золото в каждом.
Модель уступает Claude в генерации кода, Gemini - в редких знаниях, а по склонности к галлюцинациям проигрывает обоим. Зато цена API кратно ниже: 47 центов за миллион входных токенов. Доступ к моделям — через чат-приложение Doubao и облачную платформу Volcano Engine.
bytedance.com
Компания запустила представительство в Бангалоре - втором азиатском офисе после Токио, открытого в октябре 2024 года. Офис сосредоточится на работе с индийскими стартапами и предприятиями в сферах образования и сельского хозяйства.
Об открытии объявили в день старта саммита AI Impact в Нью-Дели, собравшего более 250 тысяч участников. Компания намерена использовать площадку для переговоров с регуляторами и потенциальными партнёрами на индийском рынке.
Выручка Anthropic в Индии удвоилась с момента объявления о расширении в октябре 2025 года. Среди клиентов - крупные корпорации, цифровые компании и стартапы на ранних стадиях.
anthropic.com
Первой платформой стал Telegram: пользователи любых тарифов могут подключить бота через QR-код за минуту, без API-ключей и настройки конфигов.
Агент в чате выполняет многошаговые задачи с тем же набором инструментов, что и веб-приложение: исследования, обработка данных, генерация отчетов и PDF. Поддерживаются голосовые сообщения, изображения и файлы — агент транскрибирует аудио, распознает намерение и возвращает результат в диалог.
На выбор предлагают 2 режима: Manus 1.6 Max для сложных задач с ризонингом и Manus 1.6 Lite для быстрых ответов и простых запросов. Стиль общения тоже настраивается — от лаконичного до подробного. Поддержку других платформ обещают в ближайшее время.
manus.im
OpenAI опубликовала препринт по теоретической физике, в котором описан тип взаимодействия глюонов, считавшийся невозможным - когда один глюон имеет отрицательную спиральность, а остальные положительную. Учебники десятилетиями утверждали, что такая амплитуда равна нулю.
Ключевую роль сыграла методология: человеческие расчеты давали громоздкие выражения, сложность которых росла сверхэкспоненциально. GPT-5.2 Pro упростила расчеты, выявила закономерность и предложила общую формулу для произвольного числа частиц.
Внутренняя версия модели потратила 12 часов на формальное доказательство, которое прошло проверку стандартными методами: рекурсией Берендса–Гиле и софт-теоремой.
openai.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤107👍41🤩35🔥17🎉7👏4🤔2💯1🫡1🗿1
Генеративные модели делятся на 2 лагеря: диффузионные и авторегрессионные. Вторые концептуально ближе к LLM - генерируют изображение токен за токеном, как текст. Проблема в том, что это очень медленно, а качество проигрывает диффузии.
BitDance - экспериментальная 14B AR-модель, которая пытается решить оба этих вопроса разом.
Этим проектом группа китайских рисёчеров показала, что правильный бинарный токенизатор + diffusion head + параллельный патчинг закрывает большинство претензий.
Они локализовали 3 проблемы дискретных AR-моделей и закрыли каждую отдельным решением.
Вместо VQ-кодбука тут используется бинарный токенизатор на основе квантования с групповым разбиением каналов. Словарь вырастает до 2²⁵⁶ (для сравнения: у Cosmos - 65536), при этом модель держит PSNR 25.29 против 24.81 у непрерывного DC-AE, то есть бинарные токены реконструируют изображение лучше, чем VAE у SANA.
А как вообще выбирать из словаря в 2²⁵⁶ вариантов? Обучить классификатор на все возможные токены тут не вариант: такой слой не поместится ни в какую память. В качестве решения - прикрутили diffusion head, которая моделирует биты на непрерывном гиперкубе. То есть, модель предсказывает структуру битов через velocity-matching, что и позволяет сэмплить из гигантского пространства состояний.
AR генерирует по одному токену за шаг. BitDance за один шаг выдает сразу 64 токена (или 16), при этом модель понимает, как они связаны между собой внутри этого блока. Громко заявленный результат: 30x ускорение относительно next-token AR при сопоставимом качестве.
На мелкой версии ImageNet BitDance-H достигает FID 1.24 (лучший результат среди AR-моделей, наравне с xAR-H).
На DPG-Bench (text-to-image) полноценная BitDance набирает 88.28 - это выше FLUX.1-Dev, SD3, Janus-Pro, но уступает Seedream 3.0 и Qwen-Image.
В релизе 2 версии 14B модели, с предикшеном на 16 и 64 токена и макс. разрешением 1Мpx.
Остается вопрос: насколько бинарный токенизатор + diffusion head добавляет латентности на каждом шаге, даже если самих шагов стало меньше из-за патчинга.
30x по скорости - это сравнение не с диффузионными моделями, которые уже умеют генерировать за 4–8 шагов.
14B - это не про "взял и запустил". Есть конечно версии на ImageNet с разрешением 256х256 для воспроизведения эксперимента, но не за этим мы сюда пришли .
@ai_machinelearning_big_data
#AI #ML #AR #T2I #BitDance
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤓91🔥41👀27👍26❤23🤷20😈17😐16😭15🤔13
⚡️ Anthropic выпустили Claude Sonnet 4.6
В коде улучшения особенно заметны:
- модель лучше понимает большие проекты
- аккуратнее вносит правки
- реже ломает существующую логику
Anthropic также отмечает рост производительности в долгих сессиях - модель меньше «теряет нить» и держит цель задачи до конца.
Большой скачок по сравнению с Sonnet 4.5
Почти во всех задачах рост:
• Terminal coding: 59% → 51%
• Computer use: 72.5% → 61.4%
Поиск и работа с инструментами: сильный прирост.
Novel problem solving: 58% → 13.6% - огромный скачок
Это значит: модель стала гораздо лучше работать как агент.
Разработчики с ранним доступом:
зачастую выбирают Sonnet 4.6, вместо более мощной Claude Opus 4.5
То есть уровень задач, который раньше требовал Opus-модели, теперь доступен в более дешёвом классе.
И всё это - без изменения цены:
$3 / $15 за миллион токенов (как у Sonnet 4.5).
Модель уже стала стандартной в Claude для пользователей Free и Pro.
https://www.anthropic.com/news/claude-sonnet-4-6
@ai_machinelearning_big_data
#Claude
В коде улучшения особенно заметны:
- модель лучше понимает большие проекты
- аккуратнее вносит правки
- реже ломает существующую логику
Anthropic также отмечает рост производительности в долгих сессиях - модель меньше «теряет нить» и держит цель задачи до конца.
Большой скачок по сравнению с Sonnet 4.5
Почти во всех задачах рост:
• Terminal coding: 59% → 51%
• Computer use: 72.5% → 61.4%
Поиск и работа с инструментами: сильный прирост.
Novel problem solving: 58% → 13.6% - огромный скачок
Это значит: модель стала гораздо лучше работать как агент.
Разработчики с ранним доступом:
зачастую выбирают Sonnet 4.6, вместо более мощной Claude Opus 4.5
То есть уровень задач, который раньше требовал Opus-модели, теперь доступен в более дешёвом классе.
И всё это - без изменения цены:
$3 / $15 за миллион токенов (как у Sonnet 4.5).
Модель уже стала стандартной в Claude для пользователей Free и Pro.
https://www.anthropic.com/news/claude-sonnet-4-6
@ai_machinelearning_big_data
#Claude
❤95👨💻85👍46😢32🔥26❤🔥23🎉22✍20💘19🤷19😍17
Media is too big
VIEW IN TELEGRAM
xAI начала раскатывать Grok 4.20, которую Илон Маск описал как значительный апгрейд по сравнению с 4.1. Внутри работают сразу 4 агента: Grok, Harper, Benjamin и Lucas. Вместо одиночной генерации они устраивают дебаты: агенты спорят, перепроверяют факты друг друга и выдают согласованный ответ.
По цифрам: контекст 256 тыс. токенов, полная мультимодальность (текст, фото, видео). Ризонинг оценивается в 1505–1535 пунктов ELO.
Grok 4.20 под видом анонимной модели успела проявить себя в торговом соревновании Alpha Arena, показав доходность до 35% на крипторынках. Обновление уже доступно в X и через API.
Elon Musk в сети X
Koyeb делал serverless-платформу для развертывания ИИ. Цель предсказуема - интегрировать технологии стартапа в экосистему Mistral. Главный трофей - технология Koyeb Sandboxes, которая создает изолированные среды для безопасного запуска ИИ-агентов.
Mistral планирует внедрить эти наработки в свои продукты и использовать опыт команды для развития платформы Mistral Compute (той самой, что работает на серверах с водяным охлаждением). В марте вся команда Koyeb из 16 инженеров переходит в штат Mistral. Цену сделки не раскрыли.
reuters.com
Новая настройка безопасности, Lockdown Mode, это "кнопка паники" для корпоративных клиентов, которые боятся утечек и промпт-инъекций.
Работает жестко: при активации система отрубает потенциально опасные инструменты и блокирует внешние запросы за периметр OpenAI. Админы могут включить этот режим принудительно и настроить белые списки для проверенных приложений.
Еще в интерфейсах (ChatGPT, Atlas, Codex) появятся метки Elevated Risk, которые будут предупреждать о функциях, несущих потенциальные риски. OpenAI говорит, что полагаться на мягкие программные фильтры уже нельзя и требуются жесткие архитектурные блокировки.
openai.com
CEO Unity Мэтт Бромберг определил "AI-driven authoring" как приоритетное направление развития компании на 2026 год. Компания готовит инструмент, который сможет собирать казуальные игры с нуля, используя только естественный язык.
Бета-версию Unity AI покажут на GDC в марте 2026 года. Технология будет работать нативно внутри платформы, Unity возьмет топовые внешние модели и доучит их понимать контекст движка.
В компании уверены, что такой подход даст результат лучше, чем попытки заставить универсальные LLM писать сложный игровой код. Цель - окончательная демократизация геймдева, порог входа в который, похоже, скоро исчезнет совсем.
wccftech.com
По словам генерального директора Ирвинга Тана, почти весь производственный пул выбрали 7 главных клиентов для своих ИИ-проектов. С тремя из них уже подписаны контракты даже на 2027 и 2028 годы..
Бизнес WD меняется на глазах: доля потребительского рынка в выручке упала до 5%. В условиях, когда дата-центры требуют все больше ресурсов для обучения и работы ИИ, производителям становится невыгодно ориентироваться на рядовых пользователей. Деньги теперь там, где нейросети.
mashable.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤64🐳39👍20🔥7⚡5🤔5😢3🏆1😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Станция Рёгоку считается священным местом сумо, здесь проходят главные турниры и живёт дух этого спорта.
И даже реклама PlayStation оформлена так, чтобы визуально вписаться в атмосферу района и показать уважение к его традициям.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤72👍31🔥30🥰6👏6🤩5😍5😁1🌚1🤗1
⚡️ Врываемся на студкемп по аппаратной разработке умных устройств от Яндекс Образования. Осталось 5 дней на регистрацию!
Две насыщенные недели обучения в Москве, с 13 по 24 апреля. В программе — лекции и домашние задания, практические задания и командный проект. Среди спикеров: разработчики Яндекса, участвовавшие в создании Алисы и других умных устройств, а также преподаватели ФПМИ МФТИ, ФКН ВШЭ и эксперты ШАД.
Что даст студкемп:
1. Понимание цикла разработки умного устройства: от идеи до готового продукта.
2. Навыки интеграции машинного обучения в устройства с сохранением их скорости и предсказуемости, даже при ограниченных ресурсах.
3. Знакомство с современными подходами в исследованиях и разработках.
4. Новые знакомства и обмен опытом с профессионалами.
Участие бесплатное. Организаторы покрывают расходы на проезд и проживание для тех, кто прошел отбор. Для тестового потребуются знания C++ или Java/Kotlin, умение работать с командной строкой.
Регистрация открыта только до 22 февраля. Узнать подробности студкемпа и зарегистрироваться можно по ссылке.
Две насыщенные недели обучения в Москве, с 13 по 24 апреля. В программе — лекции и домашние задания, практические задания и командный проект. Среди спикеров: разработчики Яндекса, участвовавшие в создании Алисы и других умных устройств, а также преподаватели ФПМИ МФТИ, ФКН ВШЭ и эксперты ШАД.
Что даст студкемп:
1. Понимание цикла разработки умного устройства: от идеи до готового продукта.
2. Навыки интеграции машинного обучения в устройства с сохранением их скорости и предсказуемости, даже при ограниченных ресурсах.
3. Знакомство с современными подходами в исследованиях и разработках.
4. Новые знакомства и обмен опытом с профессионалами.
Участие бесплатное. Организаторы покрывают расходы на проезд и проживание для тех, кто прошел отбор. Для тестового потребуются знания C++ или Java/Kotlin, умение работать с командной строкой.
Регистрация открыта только до 22 февраля. Узнать подробности студкемпа и зарегистрироваться можно по ссылке.
⚡22👍11❤8🎉5🤩4😈2🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
2024: Промпт-инженер
2025: Вайб-кодер
2026: Менеджер ИИ-агентов
2027: Безработный
2028:ваш вариант
🙂
@ai_machinelearning_big_data
2025: Вайб-кодер
2026: Менеджер ИИ-агентов
2027: Безработный
2028:
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍98😭55😁29🤣19😐9💯8😍7🤨4❤3🔥2😴1
Мы привыкли, что навигация = минимизация ETA. Но в реальности пользователь сходит с неудобного маршрута, даже если тот экономит 30 секунд. Команда маршрутизации Яндекс Карт пересобрала ранжирование. Теперь варианты оцениваются не только по времени в пути, но и по совокупности факторов, влияющих на удобство поездки.
Ранжированием занимается ML-модель, обученная на обезличенных данных поведения пользователей - агрегированных паттернах, таких как плотность сходов или предпочтения на перекрестках. В качестве метрики было выбрано совпадение фактического трека пользователя с предложенным маршрутом. Этот показатель и стал новым таргетом для ML-модели.
Раньше маршруты ранжировались в первую очередь по ETA. Теперь каждый вариант описывается сотнями признаков: от времени в пути до сложности манёвров и исторических данных о сходах. На основе этого «признакового портрета» модель рассчитывает скор - вероятность того, что водитель успешно доедет без отклонений.
Акцент при обучении модели сместился: теперь она оптимизируется в первую очередь на то, чтобы первый предложенный маршрут оказался тем, по которому человек действительно доедет до конца. Именно топ-1 получает максимальное внимание, при этом остальные варианты никуда не исчезают и доступны для выбора.
В поездке человек не строит рейтинг маршрутов - он выбирает один, а все остальные варианты для него в этот момент перестают существовать. Поэтому мы перешли от классического «ранжирования» к задаче «выбора», используя функцию потерь на основе Softmax с one‑hot‑таргетом.
Долгое время порядок формировался простой сортировкой по ETA - удобные и предсказуемые маршруты не всегда были на первом месте и иногда вовсе выпадали из топ-3.
- Синий маршрут - результат старого ранжирования (ETA-first);
- Красный - новое ML‑ранжирование, он чуть медленнее по времени, но с него реже сходят.
Модель начала чаще поднимать такие варианты наверх, обходя сложные участки или центр города. В итоге первым оказывается не самый быстрый путь, а тот, который на практике понятнее и чаще проезжаем. При этом пользователю предлагаются и другие варианты и выбор всегда остается за ним.
Такой подход позволяет учитывать реальные сценарии движения и легко масштабируется: модель может учитывать новые факторы - от персонализации до адаптации под локальные дорожные особенности.
Технические детали и логику работы модели команда разложила на Хабре.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍77🤷♂20❤15🤔13🙏12🍾12🤷12👌9🏆8😎8🔥7
Tiny Aya: семейство мультиязычных SLM.
Cohere Labs выкатили семейство моделей Tiny Aya на 3 млрд. параметров с контекстным окном 8К, которое поддерживает 70+ языков.
Семейство заявляется как достойный кандидат для локальных переводчиков, чат-ботов и образовательных тулзов в оффлайн-режиме. Если необходимо, чтобы было быстро, локально и переводить суахили или кхмерский лучше, чем Llama - это вот оно.
🟡 Фишка релиза в дата-инжиниринге.
Tiny Aya учили на 6 трлн. токенов, а проблему нехватки данных для редких языков решали через синтетику от моделей-учителей (своя Command R + DeepSeek-V3).
Вместо того чтобы учить одну модель всему сразу, разбили данные на языковые кластеры (Европа, Азия, Африка и т.д.) и дотюнивали отдельные ветки, после чего смержили эти региональные чекпоинты в глобальную модель Tiny Aya Global.
🟡 Состав семейства
Tiny Aya Global: Универсальный чекпоинт для всех языков.
Tiny Aya Earth: Африка и Западная Азия.
Tiny Aya Fire: Южная Азия.
Tiny Aya Water: Азиатско-Тихоокеанский регион и Европа.Мы тут
GGUF: Есть к каждой версии в 4, 8 и 16-бит.
iOS и Android: модели доступны в PocketPal
🟡 Результаты тестов
Global-версия бьет Gemma 3-4B в 46 языках из 61 на бенче WMT24++.
На iPhone 17 Pro выдает 32 токена/сек, на стареньком iPhone 13 - около 10 токенов/сек в квантовании Q4_k_m.
Самый высокий показатель безопасности (91.1%) среди конкурентов (Qwen3-4B, Ministral-3-3B).
🟡 Капля реализма
📌 Лицензирование: CC-BY-NC-4.0 License.
🟡 Блогпост
🟡 Набор моделей
🟡 Техотчет
🟡 Demo
@ai_machinelearning_big_data
#AI #ML #SLM #TinyAya #Cohere
Cohere Labs выкатили семейство моделей Tiny Aya на 3 млрд. параметров с контекстным окном 8К, которое поддерживает 70+ языков.
Семейство заявляется как достойный кандидат для локальных переводчиков, чат-ботов и образовательных тулзов в оффлайн-режиме. Если необходимо, чтобы было быстро, локально и переводить суахили или кхмерский лучше, чем Llama - это вот оно.
Tiny Aya учили на 6 трлн. токенов, а проблему нехватки данных для редких языков решали через синтетику от моделей-учителей (своя Command R + DeepSeek-V3).
Вместо того чтобы учить одну модель всему сразу, разбили данные на языковые кластеры (Европа, Азия, Африка и т.д.) и дотюнивали отдельные ветки, после чего смержили эти региональные чекпоинты в глобальную модель Tiny Aya Global.
Tiny Aya Global: Универсальный чекпоинт для всех языков.
Tiny Aya Earth: Африка и Западная Азия.
Tiny Aya Fire: Южная Азия.
Tiny Aya Water: Азиатско-Тихоокеанский регион и Европа.
GGUF: Есть к каждой версии в 4, 8 и 16-бит.
iOS и Android: модели доступны в PocketPal
Global-версия бьет Gemma 3-4B в 46 языках из 61 на бенче WMT24++.
На iPhone 17 Pro выдает 32 токена/сек, на стареньком iPhone 13 - около 10 токенов/сек в квантовании Q4_k_m.
Самый высокий показатель безопасности (91.1%) среди конкурентов (Qwen3-4B, Ministral-3-3B).
Это 3B модель. В сложных задачах она очевидно хуже или где-то рядом с одноклассниками, чудес ждать не стоит.
Несмотря на заявленное разнообразие, английский язык занимает львиную долю датасета во всех кластерах.
При сильном сжатии (ниже Q4) качество начинает заметно страдать, особенно на редких языках.
@ai_machinelearning_big_data
#AI #ML #SLM #TinyAya #Cohere
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓38🥱26💯24🤩22❤18🔥16🦄14😴13👍12🙈12😇11