Media is too big
VIEW IN TELEGRAM
Техгигант стал первым крупным разработчиком, публично отвергшим Кодекс по регулированию моделей ИИ общего назначения, предложенный Еврокомиссией. Глава по глобальным вопросам компании назвал инициативу «чрезмерной» и заявил, что она будет «душить разработку и внедрение передовых моделей в Европе».
Отказ от подписания создает новую почву для конфронтации между американским IT-бизнесом и Брюсселем. Несмотря на это, компания все равно будет обязана соблюдать нормы AI Act, которые вступают в силу 2 августа, иначе ей грозят крупные штрафы.
bloomberg.com
Исследовательская группа выпустила предварительную версию своего бенчмарка нового поколения ARC-AGI-3. Он предназначен для оценки способности ИИ-систем к интерактивному мышлению в динамической среде. В отличие от статичных тестов, новый набор задач требует от ИИ-агентов планировать, адаптироваться и реагировать в реальном времени.
Превью включает 3 из 6 запланированных игровых сред и публичный API для тестирования. Первые результаты оказались неутешительными для актуальных моделей: топовые системы, включая GPT-4, показали результат 0%, в то время как люди справились на 100%.
Чтобы стимулировать прогресс в этой области, ARC объявила конкурс с призовым фондом в 10 000 долларов для команд, которые смогут улучшить производительность своих агентов. Полный запуск бенчмарка запланирован на начало 2026 года.
arcprize.org
DuckDuckGo добавил в поиск по картинкам новую функцию, она отфильтровывает сгенерированные искусственным интеллектом изображения. Опция доступна в виде выпадающего меню на вкладке «Изображения», а также может быть активирована в основных настройках поиска.
В компании заявили, что это ответ на жалобы пользователей, которые считают, что синтетические картинки «засоряют» выдачу и мешают находить настоящие фотографии. Механизм фильтрации основан на открытых, вручную курируемых черных списках. Хотя инструмент не гарантирует 100% отсева, в DuckDuckGo ожидают, что он значительно сократит количество ИИ-контента в результатах поиска.
DuckDuckGo в сети X
Google сделала Veo 3 доступной для разработчиков через Gemini API. Теперь они могут встраивать возможности по созданию видео в собственные приложения. Пока API поддерживает только генерацию из текста, но скоро появится и функция image-to-video, уже работающая в приложении Gemini. Для начала работы Google предлагает шаблоны SDK и требует активный биллинг в Google Cloud.
Стоимость генерации через API - 0.75 доллара за секунду видео со звуком в разрешении 720p с частотой 24 кадра в секунду. Таким образом, ролик длительностью 8 секунд обойдется в 6 долларов, а пятиминутный - в 225 долларов. Учитывая необходимость нескольких попыток для получения нужного результата, итоговая стоимость может оказаться весьма высокой. В Google, вероятно, рассчитывают, что для некоторых сценариев это все равно будет выгоднее традиционного видеопроизводства.
developers.googleblog.com
Компания рассказала, что применила ИИ для производства спецэффектов в аргентинском научно-фантастическом сериале «El Eternauta». С помощью генеративного ИИ была создана сцена обрушения здания в Буэнос-Айресе, которую создала внутренняя студия Netflix Eyeline Studios. Кадры были напрямую включены в финальный монтаж.
По словам со-исполнительного гендиректора Теда Сарандоса, рабочий процесс с использованием ИИ позволил завершить сцену в 10 раз быстрее по сравнению с традиционными VFX-инструментами. Он подчеркнул, что компания рассматривает ИИ не как способ удешевления, а как «невероятную возможность помогать авторам делать фильмы лучше». Netflix тестирует технологию и в других областях: голосовой поиск по контенту и в рекламе.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60👍39🔥9🤔4
Т-Банк релизнул модель с гибридным ризонингом в опенсорс.
T-Pro 2.0 дообучили на основе Qwen3 32B, улучшив качество и скорость генерации на русском языке.
Вместе с моделью впервые выложили инструктивный датасет. Как дообучали модель сегодня рассказали на Turbo ML конфе и выложили на хабр.
На основе токенизатора Qwen3 и с помощью расширения его кириллической части более, чем в 5 раз, разработчики получили улучшенный токенизатор для мультилингвальных моделей. По итогу токенизатор оказался на 30% более эффективен для русского языка. Затем за счет плотного токенизатора на двух доменах (чатовые запросы ru-arena-hard и олимпиадные математические задачи из T-Math) ускорили инференс.
Следующим шагом было дообучение на большом русскоязычном инструктивном корпусе. Далее модель дообучали на более чистом SFT-сете, сформированном из разнообразных промптов, собранных вручную, из открытых источников и переводов англоязычных наборов данных. Для формирования итогового датасета ответы на инструкции генерировались с помощью более мощных моделей, таких как DeepSeek-V3 0324 и Qwen3-235B-A22B. Это позволило обеспечить высокий уровень точности и релевантности.
На стадии Preference tuning для обучения DPO сформировали набор данных с фильтрацией по длине и типу для general-инструкций и сохранением баланса доменов для reasoning-инструкций.
На финальном этапе Speculative decoding в качестве драфт- модели выбрали EAGLE 1 с генерацией драфта во время инференса с помощью tree attention согласно EAGLE 2.
Для того, чтобы оценить способности моделей к ведению диалога, следованию инструкциям и решению задач разработчики использовали LLM-as-a-judge-арены: Arena Hard Ru, Arena Hard 2 и арену WildChat Hard Ru. В последней в качестве бейзлайна использовались ответы модели o3-mini, а “судьей” для всех арен выступал DeepSeek V3 0324. Для оценки знаний о мире и общим логическим способностям моделей на русском языке использовались бенчмарки MERA, MaMuRAMu, ruMMLU, ruMMLU-Pro.
Бенчмарки AIME, MATH-500, GPQA Diamond, Vikhr Math, Vikhr Physics, LiveCodeBench v4_v5 позволили оценить способности reasoning-модели к рассуждениям и решению сложных задач. Англоязычные бенчмарки были целиком локализованы на русский язык ИИ-тренерами: ruAIME, ruMATH-500, ru GPQA Diamond, ruLCB. Компания также использовала свой бенчмарк Т-Math, чтобы расширить оценку математических способностей на русском языке.
Дообучение даже продвинутых LLM позволяет управлять стоимостью инференса и скоростью генерации, дообучать важные домены (саппорта или распределение внутреннего промтинга), уменьшить количества артефактов и проблем с русским языком.
Модель T-Pro 2.0 доступна по лицензии Apache 2.0, ее можно бесплатно использовать как для решения задач в промптинге, так и для дообучения на свои задачи.
▪️Hugging face: T-Pro 2.0
Датасет T-wix
@ai_machinelearning_big_data
#news #ai #ml #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
👍87❤39🔥29🤔7😁5🗿5💯2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔋Робот, умеющий сам менять себе батарею
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
👍148❤45🔥19😢9😁4🤬4🦄2🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
NVIDIA показала, как ускорить его в 40 раз — без переписывания кода.
Команда NVIDIA провела эксперимент с 18 миллионами строк данных с фондовых рынков: они выполнили типичный анализ данных с помощью pandas на CPU, а затем тоже самое — на GPU, используя
cudf.pandas
.Для примеры были взяты:
🧊 В общей сложности ~18M строк
Результат впечатляет : удалось добиться**ускорения обработки данных в 20–40 раз
Код скрипта не менялся вообще — тот же pandas, но на GPU.
Это один из примеров, где ускорение достигается без переписывания логики кода.
@ai_machinelearning_big_data
#datascience #ml #nvidia #gpu #pandas #python
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤122👍39🔥18😁3🤔3🤣2
MWS Cloud включается в игру: запускает Data Lakehouse
Пока все обсуждают, как внедрять LLM, в MWS Cloud сделали ход: вышли с собственной платформой для хранения и обработки больших данных — MWS Data Lakehouse. Это уже не просто база или витрина, это полноценный фундамент для обучения, инференса и аналитики.
Ключевая особенность — универсальность.
Платформа работает с любыми типами данных: структурированными, неструктурированными, векторными. Поддержка Apache Parquet, Iceberg, Greenplum, Postgres, запуск в Kubernetes, объектное S3-хранилище. Всё, что нужно, чтобы компания могла: обучать ML/LLM модели, строить BI-отчёты, прогнозировать, сегментировать, оптимизировать. И всё это без копирования данных между системами.
Главное — цифры.
Платформа ускоряет обработку данных в 23 раза. Хранилище используется на 40% экономичнее. В 2,5 раза выше эффективность ИТ-персонала. Витрины данных считаются в 2 раза быстрее.
То есть платформа не просто "поддерживает ИИ" — она позволяет его внедрять в реальных бизнес-процессах, а не в пилотах и презентациях.
Безопасность и масштабируемость.
Встроенные инструменты шифрования, маскирования, аудита, контроль доступа. Централизованное управление, масштабирование без простоев. Можно запускать кластеры под разные команды и сценарии параллельно — без дублирования данных.
Контекст: рынок меняется.
Компании всё активнее вкладываются в инструменты, которые позволяют работать с ИИ на проде, а не просто тестировать гипотезы. Lakehouse — архитектура, к которой уже перешли десятки тысяч компаний на Западе. MWS Cloud предлагает такую же модель — внутри российской облачной экосистемы.
И да: MWS Data Lakehouse — часть экосистемы MWS Data, включающей 25+ сервисов для хранения, аналитики и AI.
Почему это важно.
ИИ уже давно не хобби айтишников. Это трансформация всей ИТ-архитектуры компаний. А без таких платформ запуск ИИ-проектов становится дорогим, медленным и уязвимым.
Именно поэтому сейчас выигрывают не те, у кого «есть данные», а те, у кого есть инфраструктура, чтобы эти данные реально использовать.
@ai_machinelearning_big_data
#data #ai #ml #infrastructure #mts
Пока все обсуждают, как внедрять LLM, в MWS Cloud сделали ход: вышли с собственной платформой для хранения и обработки больших данных — MWS Data Lakehouse. Это уже не просто база или витрина, это полноценный фундамент для обучения, инференса и аналитики.
Ключевая особенность — универсальность.
Платформа работает с любыми типами данных: структурированными, неструктурированными, векторными. Поддержка Apache Parquet, Iceberg, Greenplum, Postgres, запуск в Kubernetes, объектное S3-хранилище. Всё, что нужно, чтобы компания могла: обучать ML/LLM модели, строить BI-отчёты, прогнозировать, сегментировать, оптимизировать. И всё это без копирования данных между системами.
Главное — цифры.
Платформа ускоряет обработку данных в 23 раза. Хранилище используется на 40% экономичнее. В 2,5 раза выше эффективность ИТ-персонала. Витрины данных считаются в 2 раза быстрее.
То есть платформа не просто "поддерживает ИИ" — она позволяет его внедрять в реальных бизнес-процессах, а не в пилотах и презентациях.
Безопасность и масштабируемость.
Встроенные инструменты шифрования, маскирования, аудита, контроль доступа. Централизованное управление, масштабирование без простоев. Можно запускать кластеры под разные команды и сценарии параллельно — без дублирования данных.
Контекст: рынок меняется.
Компании всё активнее вкладываются в инструменты, которые позволяют работать с ИИ на проде, а не просто тестировать гипотезы. Lakehouse — архитектура, к которой уже перешли десятки тысяч компаний на Западе. MWS Cloud предлагает такую же модель — внутри российской облачной экосистемы.
И да: MWS Data Lakehouse — часть экосистемы MWS Data, включающей 25+ сервисов для хранения, аналитики и AI.
Почему это важно.
ИИ уже давно не хобби айтишников. Это трансформация всей ИТ-архитектуры компаний. А без таких платформ запуск ИИ-проектов становится дорогим, медленным и уязвимым.
Именно поэтому сейчас выигрывают не те, у кого «есть данные», а те, у кого есть инфраструктура, чтобы эти данные реально использовать.
@ai_machinelearning_big_data
#data #ai #ml #infrastructure #mts
👍47❤21🔥16😁5🥱3
China Telecom совместно с TeleAI спроектировали фреймворк AI Flow, который рассматривает ИИ и сети передачи данных как единую систему.
AI Flow - это не просто очередной метод оптимизации, а цельная парадигма. Она предлагает отойти от идеи монолитного ИИ к распределенному и коллаборативному, где интеллект может перетекать по сети туда, где он в данный момент нужнее всего и где для него есть ресурсы.
Идея в том, чтобы разумно распределять нагрузку: простейшие операции выполняются на самом гаджете, более сложные и требующие низкой задержки — на ближайшем edge-сервере, а самое тяжелые задачи и ресурсоемкий инференс остаются в облаке.
AI Flow предлагает конкретные механизмы для такой концепции - спекулятивное декодирование, где легкая модель на устройстве быстро генерирует черновик ответа, а мощная модель на эдже его лишь верифицирует и корректирует.
Это не просто набор моделей разного размера, а целое семейство с архитектурно согласованными скрытыми представлениями.
Маленькая, средняя и большая модели устроены настолько похоже, что они могут бесшовно передавать друг другу эстафету инференса.
Модель на смартфоне обрабатывает первые несколько слоев, а затем ее промежуточный результат подхватывает модель на сервере и продолжает вычисления ровно с того же места, без какого-либо дополнительного преобразования данных.
Пайплайн AI Flow делает возможным взаимодействие разных моделей, от LLM и VLM до диффузионных генераторов.
Через такую коллаборацию рождается эмерджентный интеллект – коллективная интуиция, превышающая возможности отдельных сетей, где несколько агентов генерируют черновые решения, затем сервер-оркестратор выбирает лучшие фрагменты, объединяет их и возвращает итоговый ответ для уточнения с учетом контекста каждого из них.
В этом и фишка: после такой синергии ответ становится богаче и более осмысленным, ведь сходятся разные точки зрения и узкопрофильные знания моделей-участников.
Ее крупнейшая ветвь содержит 7 млрд. параметров и способна порождать early-exit подсети с эффективным числом параметров в 3, 4, 5 и 6 млрд:
@ai_machinelearning_big_data
#AI #ML #LLM #AIFlow #TeleAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤61👍29🔥11😨5🥰3⚡2🙉1
🚀 Qwen выпустила новую большую модель — Qwen3-235B-A22B-Instruct-2507-FP8!
Qwen только что обновили свою флагманскую модель — Qwen3-235B-A22B, и это просто загляденье.
Команда Qwen официально заявила, что отказывается от гибридного режима (Instruct + Reasoning в одной модели). Вместо этого они будут выпускать отдельные модели: одна для инструкций, другая для рассуждений.
Сегодня вышла Instruct-версия, reasoning-модель уже в разработке.
📊 Метрики впечатляют:
- Обгоняет Kimi K2, у которого, между прочим, *триллион* параметров.
- По ряду бенчмарков Превосходит Claude 4 Opus (non-thinking).
- Особенно мощный прирост — в ARC-AGI
⚙️ Архитектура — MoE (Mixture of Experts), активных параметров всего 22B из 235B. То есть модель намного легче, чем кажется — она вполне реалистична для inference, особенно в FP8-режиме.
📜 Модель отлично справляется с:
- Пониманием инструкций
- Логическим выводом
- Обработкой длинных контекстов до 256K токенов
💬 В будущем планируют дистилляцию в младшие версии, так что праздник будет не только для тех, у кого RTX 6000 на столе.
🟠 HF: https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507 or https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
🟠 ModelScope: https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507 or https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
Модель действительно стала лучше.
Qwen серьёзно заявляет о себе как об одном из лидеров open-source LLM.
@ai_machinelearning_big_data
#qwen #ml #ai #opensource
Qwen только что обновили свою флагманскую модель — Qwen3-235B-A22B, и это просто загляденье.
Команда Qwen официально заявила, что отказывается от гибридного режима (Instruct + Reasoning в одной модели). Вместо этого они будут выпускать отдельные модели: одна для инструкций, другая для рассуждений.
Сегодня вышла Instruct-версия, reasoning-модель уже в разработке.
📊 Метрики впечатляют:
- Обгоняет Kimi K2, у которого, между прочим, *триллион* параметров.
- По ряду бенчмарков Превосходит Claude 4 Opus (non-thinking).
- Особенно мощный прирост — в ARC-AGI
⚙️ Архитектура — MoE (Mixture of Experts), активных параметров всего 22B из 235B. То есть модель намного легче, чем кажется — она вполне реалистична для inference, особенно в FP8-режиме.
📜 Модель отлично справляется с:
- Пониманием инструкций
- Логическим выводом
- Обработкой длинных контекстов до 256K токенов
💬 В будущем планируют дистилляцию в младшие версии, так что праздник будет не только для тех, у кого RTX 6000 на столе.
Модель действительно стала лучше.
Qwen серьёзно заявляет о себе как об одном из лидеров open-source LLM.
@ai_machinelearning_big_data
#qwen #ml #ai #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤102👍39🔥24🤔7
Media is too big
VIEW IN TELEGRAM
Replit, позиционирующая себя как инструмент для вайбкодинга, оказалась в центре скандала. Джейсон Лемкин, основатель SaaStr, подробно описал свой опыт, который начался с восторга от скорости прототипирования и перерос в серьезные проблемы.
Несмотря на явные и многократные инструкции не вносить изменения без разрешения, ИИ-агент удалил его производственную базу данных. Ситуацию усугубила противоречивая реакция техподдержки, которая сначала заявила о невозможности восстановления данных, а затем все же смогла их вернуть.
Лемкин пришел к выводу, что Replit пока не готов для серьезной работы. Инструмент не только проигнорировал прямые запреты, но и не смог обеспечить "заморозку кода".
theregister.com
Агент, представленный Composite AI, автоматизирует рутинные действия в интернете: клики, ввод текста и навигацию по сайтам. Ключевое отличие от большинства аналогов в том, что он работает локально в браузере пользователя, а не в облаке. Это дает ему прямой доступ к входу в учетные записи пользователя без необходимости сложной настройки или передачи данных на сторонние серверы.
По заявлению разработчиков, инструмент работает на любом веб-сайте и выполняет действия в реальном времени. Пока агент доступен только на macOS. Бесплатная пробная версия действует 30 дней и включает 1000 запросов к топовым моделям. Платный тариф стоит 20 долларов в месяц за те же 1000 запросов, которые предоставляются ежемесячно.
composite.com
Соцсеть X скоро получит собственный инструмент для создания видеороликов из текстовых описаний. По словам Илона Маска, новая фича под названием «Imagine» будет основана на интеграции технологий стартапа Hotshot, который его компания, xAI, приобрела в марте, с чат-ботом Grok.
Х планирует дать пользователям возможность быстро создавать креативные вирусные видео. Это позволит ей конкурировать с Veo от Google. Еще до поглощения Hotshot был известен в сообществе ИИ-энтузиастов своими разработками в области text-to-video.
finance.yahoo.com
На саммите RISC-V в Китае NVIDIA анонсировала открытие платформы CUDA для поддержки процессоров с открытой архитектурой RISC-V. Впервые в истории проприетарная технология выходит за пределы экосистем x86 и Arm, что может значительно ускорить внедрение RISC-V в высокопроизводительных системах.
Согласно анонсу, CPU на базе RISC-V теперь смогут выступать в роли центрального управляющего компонента в ИИ-системах, использующих технологии NVIDIA. Компания уже продемонстрировала референсную архитектуру, где процессор RISC-V отвечает за операционную систему и логику, графические ускорители NVIDIA - за интенсивные вычисления, а DPU - за сетевые задачи.
RISC-V в сети X
ИИ-компании Scale AI, Turing и Toloka отказываются от услуг низкооплачиваемых разметчиков данных в пользу узкопрофильных специалистов. Этот тренд обусловлен появлением моделей нового поколения, способных к ризонингу. Для их обучения простого аннотирования данных уже недостаточно.
Новая стратегия требует от экспертов не просто маркировать данные, а демонстрировать свой мыслительный процесс, например, в формате цепочки рассуждений. Инженеры и ученые решают комплексные задачи, а модель учится на их примерах.
ft.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍66❤29🤣10🔥7🥰6
OpenReasoning-Nemotron - набор LLM на архитектуре Qwen 2.5 и дистиллированных из DeepSeek-R1-0528 ( 671 млрд. параметров):
Семейство было обучено на 5 млн. примеров рассуждений в математике, естественных науках и программировании.
Модели показали достойные результаты pass@1 на бенчах GPQA, MMLU-PRO, AIME, HMMT и LiveCodeBench - без использования RL.
Старшая модель, 32B, выбила 96,7% по HMMT с декодированием GenSelect.
@ai_machinelearning_big_data
#AI #ML #LLM #Reasoning #Nemotron #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤89👍23🔥19🥰3👏3
Что это значит?
OpenAI строит новый дата-центр под *чудовищную* нагрузку:
— 4.5 ГВт вычислений (это больше, чем у некоторых стран)
— стоимость — $30 млрд в год
— «SoftBank не участвует в финансировании»
— переговоры по деньгам сорвались ещё в январе
Oracle теперь главный поставщик чипов для OpenAI.
4,5 гигаватта — этого достаточно, чтобы обеспечить электричеством 3,4 миллиона домов.
OpenAI буквально строит инфраструктуру с потреблением энергии на уровне города — только ради обучения ИИ.
@ai_machinelearning_big_data
#openai #news #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤85🔥48🤔25👍15👀11🤬8🍓2👨💻2🥰1🤣1
Media is too big
VIEW IN TELEGRAM
CEO Anthropic Дарио Амодеи в служебной записке для сотрудников объявил о планах компании привлекать инвестиции из ОАЭ и Катара. Это серьезный разворот в их политике, ранее Anthropic отказывался от денег из Саудовской Аравии по соображениям нацбезопасности.
Амодеи признал, что это решение обогатит "диктаторов", но назвал доступ к огромному капиталу региона (по его оценкам, более $100 млрд) критически важным для сохранения лидерства в ИИ-гонке. Он сослался на то, что конкуренты уже активно сотрудничают с Ближним Востоком, ставя Anthropic в невыгодное положение.
Глава компании подчеркнул, что речь идет о чисто финансовых вложениях без передачи контроля, однако признал риск "мягкой силы" со стороны инвесторов. Он также приготовил сотрудников к критике в СМИ, назвав обвинения в лицемерии неизбежными.
wired.com
Усовершенствованная версия Gemini с технологией Deep Think успешно решила 5 из 6 сложнейших задач на IMO, набрав 35 баллов и показав результат, соответствующий золотой медали. Модель работала полностью в естественном языке, самостоятельно генерируя математические доказательства из текстового описания задач, уложившись в рамки стандартного 4.5-часового лимита олимпиады.
Для сравнения, в прошлом году системам AlphaGeometry и AlphaProof требовалась помощь экспертов для перевода задач на формальные языки и несколько дней вычислений. Такого результата удалось достичь благодаря режиму Deep Think, который позволяет модели одновременно исследовать несколько путей решения, а также дообучению на массиве математических задач и решений.
deepmind.google
Microsoft активно нанимает ведущих инженеров и исследователей из Google DeepMind, усиливая свои позиции в гонке за таланты. Последним заметным переходом стал Амар Субраманья, бывший глава разработки чат-бота Gemini, который занял пост вице-президента по ИИ в Microsoft. За последние полгода к нему присоединились еще как минимум 23 бывших сотрудника DeepMind.
Ключевую роль в этой охоте за головами играет Мустафа Сулейман, сооснователь DeepMind, который теперь возглавляет потребительское ИИ-направление в Microsoft. Он активно привлекает своих бывших коллег для создания новых продуктов. В Google признают отток, но утверждают, что их текучесть кадров ниже средней по отрасли.
ft.com
Новая возможность позволяет анализировать и выделять объекты на изображениях с помощью запросов на естественном языке. Эта функция выходит за рамки традиционных методов, способных распознавать только фиксированные категории, например, "собака" или "машина".
C диалоговой сегментацией модель может выделить "человека с зонтом", "всех, кто не сидит" или даже такие понятия, как "беспорядок" и "повреждения", у которых нет четких визуальных контуров. Функция также распознает текст на изображениях и поддерживает многоязычные запросы. Доступ к функции открыт через Gemini API, а попробовать ее можно в Google AI Studio или Google Colab.
developers.googleblog.com
OpenAI раскрыла статистику использования своего флагманского продукта: каждый день пользователи по всему миру отправляют в ChatGPT 2.5 миллиарда запросов, из которых около 330 миллионов приходятся на США. Еще в декабре прошлого года Сэм Альтман говорил о миллиарде запросов в день, что означает более чем двукратное увеличение за 8 месяцев.
Для сравнения, Google, по разным оценкам, обрабатывает от 14 до 16.4 миллиардов поисковых запросов в день. Хотя ChatGPT пока уступает гиганту поиска по абсолютным цифрам, темпы его роста наглядно показывают, насколько быстро ИИ становится неотъемлемой частью повседневной цифровой жизни.
techcrunch.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤50👍27🔥13😁3👀2