Media is too big
VIEW IN TELEGRAM
ChatGPT Agent - новый режим, который позволяет чат-боту управлять виртуальным компьютером для автоматизации многошаговых процессов с минимальным участием пользователя.
Агент может работать с календарем, генерировать отчеты, запускать код и создавать редактируемые презентации, используя коннекторы к Gmail и GitHub. Он объединяет в себе наработки предыдущих проектов компании, Operator и Deep Research, и работает на основе специально обученной модели. Она, по словам OpenAI, установила внутренние рекорды на сложных бенчмарках Humanity’s Last Exam и SpreadsheetBench.
Функция уже доступна для платных подписчиков с различными лимитами (400 для Pro и 40 для Plus), но пока недоступна в Европе. Для безопасности агент запрашивает подтверждение перед выполнением необратимых действий, а финансовые транзакции на данный момент ограничены.
openai.com
В режиме Deep Research бот планирует запросы, анализирует веб-источники и обобщает полученную информацию. Помимо этого, в Le Chat появились нативная поддержка многоязычных рассуждений, расширенные инструменты для редактирования изображений и новое рабочее пространство «Проекты» для организации связанных чатов и документов.
Хотя обновление доступно на всех тарифах, включая бесплатный, Mistral делает ставку на корпоративных клиентов за счет возможности подключать бота к корпоративным данным локально.
mistral.ai
Adobe выпустила масштабное обновление для Firefly, добавив в него функции для работы с аудио и видео. Теперь доступна генерация звуковых эффектов по текстовому описанию или демонстрации ритма голосом, а функция Text to Avatar создает виртуального ведущего из сценария и набора фонов.
Еще добавили новые инструменты редактирования стиля, кадрирования и композиции для нескольких клипов. Adobe заявила об улучшении качества генерации движения в собственной видеомодели и расширила интеграцию с Veo 3, Pika 2.2 и Luma AI Ray 2. Обновления уже доступны в веб-приложении Firefly.
zdnet.com
Reflection AI анонсировал Asimov ИИ-помощника, предназначенного для глубокого анализа кодовых баз в масштабе всей организации. В отличие от ассистентов, сфокусированных на написании кода, Asimov создает единый источник инженерных знаний. Он анализирует не только код, но и архитектурную документацию, обсуждения на GitHub и историю переписок, формируя целостное понимание проекта.
Инженеры могут напрямую передавать агенту неформализованный контекст (например, «@asimov помни, что X работает так-то»), который становится доступен всем. Технически это реализовано через мультиагентную архитектуру: множество малых агентов ищут информацию, а один большой синтезирует ответ. В слепых тестах ответы Asimov были предпочтительнее в 60-80% случаев. Продукт пока в раннем доступе, открыта запись в вэйт-лист.
reflection.ai
Вслед за запуском аниме-девушки Ani, Илон Маск анонсировал появление ее мужского аналога. По его словам, характер нового компаньона будет вдохновлен образами Эдварда Каллена из «Сумерек» и Кристиана Грея из «50 оттенков серого».
В отличие от «милой и одержимой тобой» Ani, мужская версия будет иметь более мрачный и задумчивый характер. Сейчас Маск собирает предложения по имени для нового виртуального спутника.
Elon Musk в сети X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74❤33🔥17🤣3👨💻3👏2
Media is too big
VIEW IN TELEGRAM
Техгигант стал первым крупным разработчиком, публично отвергшим Кодекс по регулированию моделей ИИ общего назначения, предложенный Еврокомиссией. Глава по глобальным вопросам компании назвал инициативу «чрезмерной» и заявил, что она будет «душить разработку и внедрение передовых моделей в Европе».
Отказ от подписания создает новую почву для конфронтации между американским IT-бизнесом и Брюсселем. Несмотря на это, компания все равно будет обязана соблюдать нормы AI Act, которые вступают в силу 2 августа, иначе ей грозят крупные штрафы.
bloomberg.com
Исследовательская группа выпустила предварительную версию своего бенчмарка нового поколения ARC-AGI-3. Он предназначен для оценки способности ИИ-систем к интерактивному мышлению в динамической среде. В отличие от статичных тестов, новый набор задач требует от ИИ-агентов планировать, адаптироваться и реагировать в реальном времени.
Превью включает 3 из 6 запланированных игровых сред и публичный API для тестирования. Первые результаты оказались неутешительными для актуальных моделей: топовые системы, включая GPT-4, показали результат 0%, в то время как люди справились на 100%.
Чтобы стимулировать прогресс в этой области, ARC объявила конкурс с призовым фондом в 10 000 долларов для команд, которые смогут улучшить производительность своих агентов. Полный запуск бенчмарка запланирован на начало 2026 года.
arcprize.org
DuckDuckGo добавил в поиск по картинкам новую функцию, она отфильтровывает сгенерированные искусственным интеллектом изображения. Опция доступна в виде выпадающего меню на вкладке «Изображения», а также может быть активирована в основных настройках поиска.
В компании заявили, что это ответ на жалобы пользователей, которые считают, что синтетические картинки «засоряют» выдачу и мешают находить настоящие фотографии. Механизм фильтрации основан на открытых, вручную курируемых черных списках. Хотя инструмент не гарантирует 100% отсева, в DuckDuckGo ожидают, что он значительно сократит количество ИИ-контента в результатах поиска.
DuckDuckGo в сети X
Google сделала Veo 3 доступной для разработчиков через Gemini API. Теперь они могут встраивать возможности по созданию видео в собственные приложения. Пока API поддерживает только генерацию из текста, но скоро появится и функция image-to-video, уже работающая в приложении Gemini. Для начала работы Google предлагает шаблоны SDK и требует активный биллинг в Google Cloud.
Стоимость генерации через API - 0.75 доллара за секунду видео со звуком в разрешении 720p с частотой 24 кадра в секунду. Таким образом, ролик длительностью 8 секунд обойдется в 6 долларов, а пятиминутный - в 225 долларов. Учитывая необходимость нескольких попыток для получения нужного результата, итоговая стоимость может оказаться весьма высокой. В Google, вероятно, рассчитывают, что для некоторых сценариев это все равно будет выгоднее традиционного видеопроизводства.
developers.googleblog.com
Компания рассказала, что применила ИИ для производства спецэффектов в аргентинском научно-фантастическом сериале «El Eternauta». С помощью генеративного ИИ была создана сцена обрушения здания в Буэнос-Айресе, которую создала внутренняя студия Netflix Eyeline Studios. Кадры были напрямую включены в финальный монтаж.
По словам со-исполнительного гендиректора Теда Сарандоса, рабочий процесс с использованием ИИ позволил завершить сцену в 10 раз быстрее по сравнению с традиционными VFX-инструментами. Он подчеркнул, что компания рассматривает ИИ не как способ удешевления, а как «невероятную возможность помогать авторам делать фильмы лучше». Netflix тестирует технологию и в других областях: голосовой поиск по контенту и в рекламе.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60👍34🔥8🤔4
Т-Банк релизнул модель с гибридным ризонингом в опенсорс.
T-Pro 2.0 дообучили на основе Qwen3 32B, улучшив качество и скорость генерации на русском языке.
Вместе с моделью впервые выложили инструктивный датасет. Как дообучали модель сегодня рассказали на Turbo ML конфе и выложили на хабр.
На основе токенизатора Qwen3 и с помощью расширения его кириллической части более, чем в 5 раз, разработчики получили улучшенный токенизатор для мультилингвальных моделей. По итогу токенизатор оказался на 30% более эффективен для русского языка. Затем за счет плотного токенизатора на двух доменах (чатовые запросы ru-arena-hard и олимпиадные математические задачи из T-Math) ускорили инференс.
Следующим шагом было дообучение на большом русскоязычном инструктивном корпусе. Далее модель дообучали на более чистом SFT-сете, сформированном из разнообразных промптов, собранных вручную, из открытых источников и переводов англоязычных наборов данных. Для формирования итогового датасета ответы на инструкции генерировались с помощью более мощных моделей, таких как DeepSeek-V3 0324 и Qwen3-235B-A22B. Это позволило обеспечить высокий уровень точности и релевантности.
На стадии Preference tuning для обучения DPO сформировали набор данных с фильтрацией по длине и типу для general-инструкций и сохранением баланса доменов для reasoning-инструкций.
На финальном этапе Speculative decoding в качестве драфт- модели выбрали EAGLE 1 с генерацией драфта во время инференса с помощью tree attention согласно EAGLE 2.
Для того, чтобы оценить способности моделей к ведению диалога, следованию инструкциям и решению задач разработчики использовали LLM-as-a-judge-арены: Arena Hard Ru, Arena Hard 2 и арену WildChat Hard Ru. В последней в качестве бейзлайна использовались ответы модели o3-mini, а “судьей” для всех арен выступал DeepSeek V3 0324. Для оценки знаний о мире и общим логическим способностям моделей на русском языке использовались бенчмарки MERA, MaMuRAMu, ruMMLU, ruMMLU-Pro.
Бенчмарки AIME, MATH-500, GPQA Diamond, Vikhr Math, Vikhr Physics, LiveCodeBench v4_v5 позволили оценить способности reasoning-модели к рассуждениям и решению сложных задач. Англоязычные бенчмарки были целиком локализованы на русский язык ИИ-тренерами: ruAIME, ruMATH-500, ru GPQA Diamond, ruLCB. Компания также использовала свой бенчмарк Т-Math, чтобы расширить оценку математических способностей на русском языке.
Дообучение даже продвинутых LLM позволяет управлять стоимостью инференса и скоростью генерации, дообучать важные домены (саппорта или распределение внутреннего промтинга), уменьшить количества артефактов и проблем с русским языком.
Модель T-Pro 2.0 доступна по лицензии Apache 2.0, ее можно бесплатно использовать как для решения задач в промптинге, так и для дообучения на свои задачи.
▪️Hugging face: T-Pro 2.0
Датасет T-wix
@ai_machinelearning_big_data
#news #ai #ml #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
👍86❤35🔥25🤔7😁5🗿5💯2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔋Робот, умеющий сам менять себе батарею
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
👍143❤44🔥18😢8😁4🤬4🦄2🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
NVIDIA показала, как ускорить его в 40 раз — без переписывания кода.
Команда NVIDIA провела эксперимент с 18 миллионами строк данных с фондовых рынков: они выполнили типичный анализ данных с помощью pandas на CPU, а затем тоже самое — на GPU, используя
cudf.pandas
.Для примеры были взяты:
🧊 В общей сложности ~18M строк
Результат впечатляет : удалось добиться**ускорения обработки данных в 20–40 раз
Код скрипта не менялся вообще — тот же pandas, но на GPU.
Это один из примеров, где ускорение достигается без переписывания логики кода.
@ai_machinelearning_big_data
#datascience #ml #nvidia #gpu #pandas #python
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤109👍34🔥18😁2🤔2🤣2
MWS Cloud включается в игру: запускает Data Lakehouse
Пока все обсуждают, как внедрять LLM, в MWS Cloud сделали ход: вышли с собственной платформой для хранения и обработки больших данных — MWS Data Lakehouse. Это уже не просто база или витрина, это полноценный фундамент для обучения, инференса и аналитики.
Ключевая особенность — универсальность.
Платформа работает с любыми типами данных: структурированными, неструктурированными, векторными. Поддержка Apache Parquet, Iceberg, Greenplum, Postgres, запуск в Kubernetes, объектное S3-хранилище. Всё, что нужно, чтобы компания могла: обучать ML/LLM модели, строить BI-отчёты, прогнозировать, сегментировать, оптимизировать. И всё это без копирования данных между системами.
Главное — цифры.
Платформа ускоряет обработку данных в 23 раза. Хранилище используется на 40% экономичнее. В 2,5 раза выше эффективность ИТ-персонала. Витрины данных считаются в 2 раза быстрее.
То есть платформа не просто "поддерживает ИИ" — она позволяет его внедрять в реальных бизнес-процессах, а не в пилотах и презентациях.
Безопасность и масштабируемость.
Встроенные инструменты шифрования, маскирования, аудита, контроль доступа. Централизованное управление, масштабирование без простоев. Можно запускать кластеры под разные команды и сценарии параллельно — без дублирования данных.
Контекст: рынок меняется.
Компании всё активнее вкладываются в инструменты, которые позволяют работать с ИИ на проде, а не просто тестировать гипотезы. Lakehouse — архитектура, к которой уже перешли десятки тысяч компаний на Западе. MWS Cloud предлагает такую же модель — внутри российской облачной экосистемы.
И да: MWS Data Lakehouse — часть экосистемы MWS Data, включающей 25+ сервисов для хранения, аналитики и AI.
Почему это важно.
ИИ уже давно не хобби айтишников. Это трансформация всей ИТ-архитектуры компаний. А без таких платформ запуск ИИ-проектов становится дорогим, медленным и уязвимым.
Именно поэтому сейчас выигрывают не те, у кого «есть данные», а те, у кого есть инфраструктура, чтобы эти данные реально использовать.
@ai_machinelearning_big_data
#data #ai #ml #infrastructure #mts
Пока все обсуждают, как внедрять LLM, в MWS Cloud сделали ход: вышли с собственной платформой для хранения и обработки больших данных — MWS Data Lakehouse. Это уже не просто база или витрина, это полноценный фундамент для обучения, инференса и аналитики.
Ключевая особенность — универсальность.
Платформа работает с любыми типами данных: структурированными, неструктурированными, векторными. Поддержка Apache Parquet, Iceberg, Greenplum, Postgres, запуск в Kubernetes, объектное S3-хранилище. Всё, что нужно, чтобы компания могла: обучать ML/LLM модели, строить BI-отчёты, прогнозировать, сегментировать, оптимизировать. И всё это без копирования данных между системами.
Главное — цифры.
Платформа ускоряет обработку данных в 23 раза. Хранилище используется на 40% экономичнее. В 2,5 раза выше эффективность ИТ-персонала. Витрины данных считаются в 2 раза быстрее.
То есть платформа не просто "поддерживает ИИ" — она позволяет его внедрять в реальных бизнес-процессах, а не в пилотах и презентациях.
Безопасность и масштабируемость.
Встроенные инструменты шифрования, маскирования, аудита, контроль доступа. Централизованное управление, масштабирование без простоев. Можно запускать кластеры под разные команды и сценарии параллельно — без дублирования данных.
Контекст: рынок меняется.
Компании всё активнее вкладываются в инструменты, которые позволяют работать с ИИ на проде, а не просто тестировать гипотезы. Lakehouse — архитектура, к которой уже перешли десятки тысяч компаний на Западе. MWS Cloud предлагает такую же модель — внутри российской облачной экосистемы.
И да: MWS Data Lakehouse — часть экосистемы MWS Data, включающей 25+ сервисов для хранения, аналитики и AI.
Почему это важно.
ИИ уже давно не хобби айтишников. Это трансформация всей ИТ-архитектуры компаний. А без таких платформ запуск ИИ-проектов становится дорогим, медленным и уязвимым.
Именно поэтому сейчас выигрывают не те, у кого «есть данные», а те, у кого есть инфраструктура, чтобы эти данные реально использовать.
@ai_machinelearning_big_data
#data #ai #ml #infrastructure #mts
👍43❤14🔥13😁4🥱3
China Telecom совместно с TeleAI спроектировали фреймворк AI Flow, который рассматривает ИИ и сети передачи данных как единую систему.
AI Flow - это не просто очередной метод оптимизации, а цельная парадигма. Она предлагает отойти от идеи монолитного ИИ к распределенному и коллаборативному, где интеллект может перетекать по сети туда, где он в данный момент нужнее всего и где для него есть ресурсы.
Идея в том, чтобы разумно распределять нагрузку: простейшие операции выполняются на самом гаджете, более сложные и требующие низкой задержки — на ближайшем edge-сервере, а самое тяжелые задачи и ресурсоемкий инференс остаются в облаке.
AI Flow предлагает конкретные механизмы для такой концепции - спекулятивное декодирование, где легкая модель на устройстве быстро генерирует черновик ответа, а мощная модель на эдже его лишь верифицирует и корректирует.
Это не просто набор моделей разного размера, а целое семейство с архитектурно согласованными скрытыми представлениями.
Маленькая, средняя и большая модели устроены настолько похоже, что они могут бесшовно передавать друг другу эстафету инференса.
Модель на смартфоне обрабатывает первые несколько слоев, а затем ее промежуточный результат подхватывает модель на сервере и продолжает вычисления ровно с того же места, без какого-либо дополнительного преобразования данных.
Пайплайн AI Flow делает возможным взаимодействие разных моделей, от LLM и VLM до диффузионных генераторов.
Через такую коллаборацию рождается эмерджентный интеллект – коллективная интуиция, превышающая возможности отдельных сетей, где несколько агентов генерируют черновые решения, затем сервер-оркестратор выбирает лучшие фрагменты, объединяет их и возвращает итоговый ответ для уточнения с учетом контекста каждого из них.
В этом и фишка: после такой синергии ответ становится богаче и более осмысленным, ведь сходятся разные точки зрения и узкопрофильные знания моделей-участников.
Ее крупнейшая ветвь содержит 7 млрд. параметров и способна порождать early-exit подсети с эффективным числом параметров в 3, 4, 5 и 6 млрд:
@ai_machinelearning_big_data
#AI #ML #LLM #AIFlow #TeleAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤52👍25🔥9😨4🥰3⚡2🙉1
🚀 Qwen выпустила новую большую модель — Qwen3-235B-A22B-Instruct-2507-FP8!
Qwen только что обновили свою флагманскую модель — Qwen3-235B-A22B, и это просто загляденье.
Команда Qwen официально заявила, что отказывается от гибридного режима (Instruct + Reasoning в одной модели). Вместо этого они будут выпускать отдельные модели: одна для инструкций, другая для рассуждений.
Сегодня вышла Instruct-версия, reasoning-модель уже в разработке.
📊 Метрики впечатляют:
- Обгоняет Kimi K2, у которого, между прочим, *триллион* параметров.
- По ряду бенчмарков Превосходит Claude 4 Opus (non-thinking).
- Особенно мощный прирост — в ARC-AGI
⚙️ Архитектура — MoE (Mixture of Experts), активных параметров всего 22B из 235B. То есть модель намного легче, чем кажется — она вполне реалистична для inference, особенно в FP8-режиме.
📜 Модель отлично справляется с:
- Пониманием инструкций
- Логическим выводом
- Обработкой длинных контекстов до 256K токенов
💬 В будущем планируют дистилляцию в младшие версии, так что праздник будет не только для тех, у кого RTX 6000 на столе.
🟠 HF: https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507 or https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
🟠 ModelScope: https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507 or https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
Модель действительно стала лучше.
Qwen серьёзно заявляет о себе как об одном из лидеров open-source LLM.
@ai_machinelearning_big_data
#qwen #ml #ai #opensource
Qwen только что обновили свою флагманскую модель — Qwen3-235B-A22B, и это просто загляденье.
Команда Qwen официально заявила, что отказывается от гибридного режима (Instruct + Reasoning в одной модели). Вместо этого они будут выпускать отдельные модели: одна для инструкций, другая для рассуждений.
Сегодня вышла Instruct-версия, reasoning-модель уже в разработке.
📊 Метрики впечатляют:
- Обгоняет Kimi K2, у которого, между прочим, *триллион* параметров.
- По ряду бенчмарков Превосходит Claude 4 Opus (non-thinking).
- Особенно мощный прирост — в ARC-AGI
⚙️ Архитектура — MoE (Mixture of Experts), активных параметров всего 22B из 235B. То есть модель намного легче, чем кажется — она вполне реалистична для inference, особенно в FP8-режиме.
📜 Модель отлично справляется с:
- Пониманием инструкций
- Логическим выводом
- Обработкой длинных контекстов до 256K токенов
💬 В будущем планируют дистилляцию в младшие версии, так что праздник будет не только для тех, у кого RTX 6000 на столе.
Модель действительно стала лучше.
Qwen серьёзно заявляет о себе как об одном из лидеров open-source LLM.
@ai_machinelearning_big_data
#qwen #ml #ai #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤87👍35🔥20🤔6
Media is too big
VIEW IN TELEGRAM
Replit, позиционирующая себя как инструмент для вайбкодинга, оказалась в центре скандала. Джейсон Лемкин, основатель SaaStr, подробно описал свой опыт, который начался с восторга от скорости прототипирования и перерос в серьезные проблемы.
Несмотря на явные и многократные инструкции не вносить изменения без разрешения, ИИ-агент удалил его производственную базу данных. Ситуацию усугубила противоречивая реакция техподдержки, которая сначала заявила о невозможности восстановления данных, а затем все же смогла их вернуть.
Лемкин пришел к выводу, что Replit пока не готов для серьезной работы. Инструмент не только проигнорировал прямые запреты, но и не смог обеспечить "заморозку кода".
theregister.com
Агент, представленный Composite AI, автоматизирует рутинные действия в интернете: клики, ввод текста и навигацию по сайтам. Ключевое отличие от большинства аналогов в том, что он работает локально в браузере пользователя, а не в облаке. Это дает ему прямой доступ к входу в учетные записи пользователя без необходимости сложной настройки или передачи данных на сторонние серверы.
По заявлению разработчиков, инструмент работает на любом веб-сайте и выполняет действия в реальном времени. Пока агент доступен только на macOS. Бесплатная пробная версия действует 30 дней и включает 1000 запросов к топовым моделям. Платный тариф стоит 20 долларов в месяц за те же 1000 запросов, которые предоставляются ежемесячно.
composite.com
Соцсеть X скоро получит собственный инструмент для создания видеороликов из текстовых описаний. По словам Илона Маска, новая фича под названием «Imagine» будет основана на интеграции технологий стартапа Hotshot, который его компания, xAI, приобрела в марте, с чат-ботом Grok.
Х планирует дать пользователям возможность быстро создавать креативные вирусные видео. Это позволит ей конкурировать с Veo от Google. Еще до поглощения Hotshot был известен в сообществе ИИ-энтузиастов своими разработками в области text-to-video.
finance.yahoo.com
На саммите RISC-V в Китае NVIDIA анонсировала открытие платформы CUDA для поддержки процессоров с открытой архитектурой RISC-V. Впервые в истории проприетарная технология выходит за пределы экосистем x86 и Arm, что может значительно ускорить внедрение RISC-V в высокопроизводительных системах.
Согласно анонсу, CPU на базе RISC-V теперь смогут выступать в роли центрального управляющего компонента в ИИ-системах, использующих технологии NVIDIA. Компания уже продемонстрировала референсную архитектуру, где процессор RISC-V отвечает за операционную систему и логику, графические ускорители NVIDIA - за интенсивные вычисления, а DPU - за сетевые задачи.
RISC-V в сети X
ИИ-компании Scale AI, Turing и Toloka отказываются от услуг низкооплачиваемых разметчиков данных в пользу узкопрофильных специалистов. Этот тренд обусловлен появлением моделей нового поколения, способных к ризонингу. Для их обучения простого аннотирования данных уже недостаточно.
Новая стратегия требует от экспертов не просто маркировать данные, а демонстрировать свой мыслительный процесс, например, в формате цепочки рассуждений. Инженеры и ученые решают комплексные задачи, а модель учится на их примерах.
ft.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55❤20🤣9🔥6🥰6
OpenReasoning-Nemotron - набор LLM на архитектуре Qwen 2.5 и дистиллированных из DeepSeek-R1-0528 ( 671 млрд. параметров):
Семейство было обучено на 5 млн. примеров рассуждений в математике, естественных науках и программировании.
Модели показали достойные результаты pass@1 на бенчах GPQA, MMLU-PRO, AIME, HMMT и LiveCodeBench - без использования RL.
Старшая модель, 32B, выбила 96,7% по HMMT с декодированием GenSelect.
@ai_machinelearning_big_data
#AI #ML #LLM #Reasoning #Nemotron #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤72🔥15👍14🥰2👏2
Что это значит?
OpenAI строит новый дата-центр под *чудовищную* нагрузку:
— 4.5 ГВт вычислений (это больше, чем у некоторых стран)
— стоимость — $30 млрд в год
— «SoftBank не участвует в финансировании»
— переговоры по деньгам сорвались ещё в январе
Oracle теперь главный поставщик чипов для OpenAI.
4,5 гигаватта — этого достаточно, чтобы обеспечить электричеством 3,4 миллиона домов.
OpenAI буквально строит инфраструктуру с потреблением энергии на уровне города — только ради обучения ИИ.
@ai_machinelearning_big_data
#openai #news #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤51🔥32🤔19👀9👍8🤬8👨💻2🥰1🤣1🍓1