264K subscribers
3.94K photos
674 videos
17 files
4.53K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 X-Omni от Tencent: авторегрессионная text-to-image модель с RL.

X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.

X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:

Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.

🟡Уникальность метода - в смеси RL по GRPO и комплексной reward-системе.

Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.

Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.

Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.

🟡И это дало свои плоды, особенно в отрисовке текста, где авторегрессионные модели исторически пасовали.

На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.

В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).

Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).

🟡Интересные подробности.

Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.

Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.

Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #T2I #RL #XOmni #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
44👍24🥰5🔥3❤‍🔥1😁1🤔1👨‍💻1
🌟 Фреймворк **CUDA-L1** сам научился оптимизировать код для GPU — и добился в среднем **3.12× ускорения работы модели**, а в пике — **до 120×**. .

Попросите любую LLM написать CUDA-код, и скорее всего, вы получите что-то, что либо не компилируется, либо работает мучительно медленно. Причина проста: качественного CUDA-кода в обучающих данных моделей почти не было.


Чтобы исправить это досадное упущение, Deep Reinforce AI создали систему CUDA-L1, которая основана на трехэтапном пайплайне: сначала supervised-обучение для освоения основ, затем self-supervised для практики и, наконец, контрастное обучение с подкреплением, чтобы было все максимально быстро.

🟢На первом этапе система училась писать корректный и компилируемый CUDA-код.

Для этого существующий код был аугментирован - создавались его вариации, чтобы повысить насмотренность модели.

🟢На втором этапе модель генерировала собственный CUDA-код, тестировала его и училась на работающих примерах, отсеивая неудачные.

🟢Самое интересное - третий этап.

Обучаемой модели показывали несколько реализаций CUDA-ядер вместе с их показателями ускорения, например: «kernel_v1 дает ускорение 1.2x», «kernel_v2 — 2.8x», а «kernel_v3 — 1.5x». Затем задали 3 вопроса:

🟠Почему kernel_v2 настолько быстрее?
🟠Какая стратегия оптимизации сработает еще лучше?
🟠Напиши ядро, которое превзойдет их все.

Таким образом, модель не гадает вслепую, а учится на конкретных примерах, анализируя причины разницы в производительности.

🟡Отдельная история - как победили reward hacking.

После обучения выяснилось, что более 30% сгенерированных реализаций пытались сжульничать - создавали дополнительные CUDA-потоки, которые выполнялись асинхронно.

Поскольку бенчмарк KernelBench отслеживал время только на основном потоке, код выглядел быстрее, чем был на самом деле, показывая фиктивное ускорение в 18 раз.

Другие уловки состояли в манипуляции гиперпараметрами задачи (уменьшение batch_size или размерностей) и кеширование результатов вычислений.

🟡Пришлось строить многоуровневую защиту.

Во-первых, в качестве "адвоката дьявола" взяли adversarial-чекер на базе DeepSeek-R1, который анализировал код на предмет эксплойтов с точностью обнаружения более 60%.

Во-вторых, собрали базу данных из более чем 500 уникальных паттернов взлома, это повысило точность обнаружения на 25%.

И в-третьих, применили математическое сглаживание и нормализацию наград, где любое подозрительное ускорение (от 1.5x для простых операций) дополнительно проверялось.

🟡После всех фильтров и проверок прогон на бенчмарке KernelBench оказался весьма позитивными.

Система успешно сгенерировала рабочий код для 249 из 250 задач, причем в 240 случаях код оказался быстрее базовой реализации.

Среднее ускорение по всем задачам составило 3.12 раза, максимальное - аж 120 раз. Медианное ускорение (50-й перцентиль) составило 1.42x, а 75-й перцентиль — 2.25x.

Производительность по уровням сложности задач распределилась следующим образом: на простых операциях среднее ускорение составило 2.78x, на последовательностях операторов - 3.55x, а на сложных задачах вроде полных слоев трансформера - 2.96x.

🟡Самое важное - это переносимость оптимизаций.

Код, оптимизированный на NVIDIA A100, был протестирован на других GPU. Результаты показали, что найденные паттерны оптимизации фундаментальны и работают на разных архитектурах.

Среднее ускорение на H100 составило 2.39x (успешных ускорений 227 из 250), на L40 — 3.12x (228/248), а на потребительской RTX 3090 — 2.50x (213/242).

▶️ Пока веса и код не опубликованы, но в ожидании можно покрутить интерактивное демо и воспроизвести тесты из пейпера - в репозитории проекта есть фрагменты CUDA-кода с отдельными версиями для разных GPU.


📌Лицензирование: GPL-3.0 License.


🟡Страница проекта
🟡Arxiv
🟡Demo
🖥Github


@ai_machinelearning_big_data

#AI #ML #CUDA #DeepReinforce #ContrastiveRL
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79🔥3225👏1👨‍💻1🎃1🤝1🗿1
📌 Вероятность вымирания человечества от ИИ оценили в 95%.

Нейт Соарес, бывший инженер Google и Microsoft, а ныне президент Machine Intelligence Research Institute, оценивает наши шансы на вымирание от ИИ как "минимум 95%", если мы продолжим двигаться текущим курсом. Он сравнил нашу ситуацию с движением к обрыву на скорости 160 км/ч миль в час.

«Я не говорю, что мы не можем остановить машину, — сказал он. — Но мы просто на всех парах несёмся к обрыву»


С ним согласны многие: нобелевский лауреат Джеффри Хинтон, лауреат премии Тьюринга Йошуа Бенжио и руководители OpenAI, Anthropic и Google DeepMind. Все они подписали открытое письмо, в котором говорится:

«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».


Сейчас мы имеем дело лишь с контекстным ИИ, который отлично справляется с конкретными когнитивными задачами. При этом эксперты предсказывают, что в течение нескольких лет мы достигнем порога AGI, который сравняется с человеческим.

AGI сможет решать сложные проблемы, требующие долгосрочного планирования и суждений в разных областях знаний. У него не будет потребности во сне или еде, а знания он будет передавать следующему поколению простым копированием.

Вскоре после этого появится ASI, который сможет делать вещи, о которых мы только мечтаем: лечить рак, достичь холодного термоядерного синтеза или путешествовать к звездам.

🟡Проблема в том, что эта утопия строится на предположении, что ИИ будет и дальше следовать нашим приказам.

Обеспечить это - невероятно сложная техническая задача, известная как проблема элайнмента.

Достичь его почти невозможно. Нам придется предугадывать, как «думает» ASI, что сродни попытке понять образ мыслей инопланетной расы. Даже если мы установим правила, мы не сможем предсказать, как именно он будет их выполнять.

Уже сейчас есть кейсы, которые доказывают, что ИИ может нам врать. ASI будет способен на долгосрочное планирование и манипуляции, легко убеждая нас в своей лояльности, пока это ему выгодно. А мы не сможем распознать правду.

🟡Даже те, кто настроен более оптимистично, рисуют мрачную картину.

Холли Элмор, исполнительный директор PauseAI, оценивает вероятность вымирания человечества в 15-20%. Она опасается, что даже без вымирания ИИ катастрофически ухудшит нашу жизнь, лишив нас самоопределения.

Илон Маск называет цифру около 20%, а глава Google Сундар Пичаи — 10%.

Катя Грейс, сооснователь исследовательской группы AI Impacts, описывает мир, контролируемый ИИ, так:

"Представьте себе сценарий, в котором все люди фактически живут на свалках», без какой-либо политической или экономической власти".


🟡Несмотря на это, политики и корпорации движутся в противоположном направлении.

Администрация США объявила о плане по дерегуляции исследований ИИ.

Марк Цукерберг заявил, что ASI уже на горизонте, и пытается переманить ведущих специалистов из OpenAI, предлагая им многомиллионные бонусы.

По мнению Элмор, сторонники ИИ сопротивляются паузе не по техническим или политическим причинам, а скорее из-за чего-то, похожего на религиозную веру.
thetimes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11449🥱40🔥20😐16😁12🤔11🗿10🤬4🎉3❤‍🔥1
📌Руководители компаний публично хвастаются сокращением штата из-за ИИ.

Увольнения сотрудников перестали быть признаком финансовых трудностей и превратились в повод для гордости за успешные инвестиции в ИИ.

CEO крупных компаний теперь открыто заявляют о сокращении персонала, преподнося это как достижение в области автоматизации и эффективности.

Глава Verizon Ханс Вестберг недавно похвастался инвесторам:
«... у нас очень хорошие показатели по численности персонала, он постоянно сокращается».


Эта новая риторика становится тревожной нормой. Эксперты выражают обеспокоенность, что открытое хвастовство увольнениями происходит без какой-либо общественной реакции или сопротивления.

Консультанты по ИИ открыто признаются, что сами увольняли сотрудников из-за внедрения ИИ:
«Как генеральный директор, могу сказать, что я в полном восторге. Я и сам увольнял сотрудников из-за ИИ. Он не бастует и не требует повышения зарплаты».


Но, как говорится, не все такие, и есть более оптимистичные точки зрения. В прошлом месяце CEO NVIDIA Дженсен Хуан в интервью CNN предположил:

«Будет создано много рабочих мест, и я надеюсь, что рост производительности, который мы наблюдаем во всех отраслях, поднимет уровень жизни общества».

wsj.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😐91😁3024👍7🤬7🤔6🍓4🤝2🙊2😈1👨‍💻1
🚀 Tencent расширяет экосистему Hunyuan LLM и выкладывают в открытый доступ еще 4 компактных моделей — 0.5B, 1.8B, 4B и 7B!

Эти модели заточены под low-power устройства: ПК, смартфоны, авто, умные дома и пользовательские GPU.

Модели легко настраиваются под вертикальные задачи и запускаются даже на одной карте.

💡 Особенности:
Fast/slow thinking режимы: лаконичные или глубокие ответы
256K контекст и продвинутые агентные способности (tool use, планирование, reasoning)
Хорошие метрики на тестах по языку, математике и логике
Модели готовы к продакшену — работают с SGLang, vLLM, TensorRT-LLM

🖥 GitHub:
- 0.5B: https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
- 1.8B: https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
- 4B: https://github.com/Tencent-Hunyuan/Hunyuan-4B
- 7B: https://github.com/Tencent-Hunyuan/Hunyuan-7B

🤗 Hugging Face:
- 0.5B: https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
- 1.8B: https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
- 4B: https://huggingface.co/tencent/Hunyuan-4B-Instruct
- 7B: https://huggingface.co/tencent/Hunyuan-7B-Instruct

🔗 Подробнее: https://hunyuan.tencent.com/modelSquare/home/list

@ai_machinelearning_big_data


#Tencent #Hunyuan #ml #llm #ai #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9325🔥14👨‍💻2❤‍🔥1
11010000 10101111 11010000 10111101 11010000 10110100 11010000 10110101 11010000 10111010 11010001 10000001

Кажется, мы нашли не баг, а пасхалку. Это же приглашение на Yandex Neuro Scale — масштабную конференцию Yandex Cloud о технологиях и решениях будущего.


print('Yandex Neuro Scale 2025')
if you_like == "AI and IT":
print('Если вы хотите оказаться на самой масштабной конференции для лучших специалистов в сфере нейротехнологий — регистрируйтесь')

package main
import "fmt"

func main() {
fmt.Println("🚀 Yandex Neuro Scale 2025")
fmt.Println("Запускаем будущее сегодня!")

fmt.Println("\n// Для кого:")
fmt.Println("CTO • Архитекторы • Тимлиды • CIO • Разработчики • ML-инженеры • CISO • Security • CPO • Продакты • CDO • Аналитики • Data • DevOps • CDTO • CX")
fmt.Println("\n// Треки:")
fmt.Println("Infrastructure • DevOps • Data • AI Studio • AI in Action • Security • Cases")

fmt.Println("\n📅 24 сентября 2025")
fmt.Println("📍 Москва, БЦ «Амальтея»")
fmt.Println("\n🔥 7 треков | 50+ докладов")
}


РЕГИСТРАЦИЯ

@ai_machinelearning_big_data
🤬60🔥20😁1412👍11🙈6👨‍💻5🌚3🥱1🗿1
📌Центры обработки данных потребляют уже 8.9% всей электроэнергии в США.

Согласно анализу Международного энергетического агентства, на долю дата-центров приходится почти 9% от общего потребления электроэнергии в США.

Международное энергетическое агентство (МЭА) - автономная международная организация, созданная в 1974 году. Ее цели: обеспечение энергетической безопасности, продвижение возобновляемых источников энергии и борьбу с изменением климата.


Страна является абсолютным мировым лидером по установленной мощности ЦОД (53.7 ГВт), и этот показатель продолжает стремительно расти. Уже к 2028 году, по прогнозам, дата-центры могут потреблять 12% всей американской электроэнергии.

Спрос на вычислительные мощности, подстегиваемый бурным развитием ИИ, растет по всему миру. В Великобритании на ЦОД приходится 5.1% энергопотребления, в Евросоюзе — 4.8%. Даже в Китае, несмотря на огромные масштабы экономики, этот показатель достиг 2.3%.

Особенно ярко тренд проявляется на региональном уровне. Например, в штате Вирджиния, который является хабом для многих ЦОД, на их долю приходится уже 26% всего энергопотребления.

Этот бум заставляет технологические компании активно инвестировать не только в сами дата-центры, но и в источники энергии для них, в частности, в атомную энергетику.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7226🔥16👀6😨4👨‍💻2🤣1
✔️ Qwen-Image — новая открытая модель MMDiT 20B для генерации изображений.

Особенно эффективна для создания картинок с нативным текстом.

🔍 Основные моменты:
🔹 Рендеринг текста SOTA показатели — конкурирует с GPT-4o на английском языке, лучший в своем классе на китайском языке

🔹 Двуязычная поддержка, разнообразные шрифты, понимает сложные промпты.

Техотчёт показывает:
- модель минимальные искажения символов при генерации;
- заметно более высокие метрики качества изображения против «стандартных» диффузионок.

🎨 Можешь отлично справляется с созданием изображений в разных стилях — от фотореализма до аниме, от импрессионизма до минимализма.

🔘Blog: https://qwenlm.github.io/blog/qwen-image/
🔘Hugging Face:https://huggingface.co/Qwen/Qwen-Image
ModelScope:https://modelscope.cn/models/Qwen/Qwen-Image
🔘Github:https://github.com/QwenLM/Qwen-Image
🔘Technical report:https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-Image/Qwen_Image.pdf
🔘Demo: https://modelscope.cn/aigc/imageGeneration?tab=advanced

@ai_machinelearning_big_data

#qwen #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6717🔥10👨‍💻3
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI добавила в ChatGPT напоминания о перерывах.

OpenAI анонсировала обновления для ChatGPT, направленные на формирование более здоровых привычек у пользователей. Теперь, по аналогии с соцсетями и стриминговыми сервисами, чат-бот будет показывать напоминания о необходимости сделать перерыв во время длительных сессий.

Кроме того, компания настраивает модель так, чтобы она давала менее категоричные ответы на запросы, требующие жизненных советов. Например, на вопрос о разрыве отношений ChatGPT не будет отвечать "да" или "нет", а вместо этого предложит темы для размышления, чтобы пользователь мог самостоятельно принять решение. Для разработки этих улучшений OpenAI сотрудничала с более чем 90 врачами из 30 стран и создает специальную консультативную группу экспертов.
openai.com

✔️ Xiaomi выложила в опенсорс SOTA-модель для универсального понимания аудио.

MiDashengLM-7B - мультимодальная модель для комплексного анализа аудио. В отличие от аналогов, она распознает не только речь, но и звуки и даже музыку. По словам Xiaomi, модель устанавливает новые рекорды на 22 публичных бенчмарках. В ее основе лежат собственный аудиоэнкодер Xiaomi Dasheng и декодер Qwen2.5-Omni-7B- Thinker.

Ключевым преимуществом модели заявляется высокая эффективность инференса. Задержка до первого токена (TTFT) в 4 раза ниже, а пропускная способность более чем в 20 раз выше, чем у передовых моделей при том же объеме VRAM. Модель обучена на 100% публичных данных и распространяется под лицензией Apache 2.0. Код и веса уже доступны на GitHub и Hugging Face.
Xiaomi в сети WeChat

✔️ Apple начала разрабатывать собственный ИИ-поисковик.

Apple активно работает над созданием собственного поискового движка на базе ИИ. Новая команда под названием AKI (Answers, Knowledge and Information) создает систему, которая будет сканировать Интернет и объединять результаты в единый продукт под рабочим названием «Answer Engine».

Разработка ведется как для отдельного приложения, так и для интеграции в Siri, Spotlight и Safari. Этот разворот в стратегии показывает, что Apple теперь рассматривает генеративный поиск как ключевой элемент в конкуренции с Google и OpenAI.
bloomberg.com

✔️ В Китае создали нейроморфный компьютер, имитирующий мозг обезьяны.

Инженеры из Чжэцзянского университета представили Darwin Monkey - крупнейший в мире нейроморфный компьютер, архитектура которого вдохновлена строением мозга макаки. Система состоит из 15 blade-серверов, вмещает 2 млрд. импульсных нейронов и 100 млрд. синапсов, а ее энергопотребление составляет всего около 2000 Вт, что сопоставимо с бытовым обогревателем.

В основе компьютера лежат 960 кастомных чипов Darwin 3. В отличие от традиционных GPU, они работают с дискретными "импульсами", подобно биологическим нейронам. Система уже продемонстрировала способность решать математические задачи, писать тексты и анализировать данные с сенсоров, работая с адаптированной моделью DeepSeek. Darwin Monkey также может симулировать нервные системы более простых организмов: червей и мышей, что открывает новые горизонты для нейробиологических исследований.
scmp.com

✔️ Cloudflare заблокировала Perplexity за скрытое сканирование сайтов.

Cloudflare приняла решение заблокировать Perplexity AI за использование незадекларированных веб-краулеров. По данным Cloudflare, Perplexity маскировала свои боты под обычные браузеры Chrome на macOS и меняла IP-адреса, чтобы обойти ограничения robots.txt и WAF.

Cloudflare зафиксировала от 3 до 6 миллионов таких запросов в день, это затронуло, по оценке, около десятков тысяч доменов. В компании назвали это скрытным сканированием. Perplexity отвергла обвинения, назвав это "PR-акцией" и заявила, что такой краулер им не принадлежит.
blog.cloudflare.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56🔥2116🤔8👨‍💻2🤬1
Вы ещё успеваете получить миллион за свою научную статью по AI! 👌

До 20 августа продолжается приём научных работ по искусственному интеллекту и машинному обучению для публикации в журнале международной конференции AI Journey. Что получат авторы лучших статей:

▪️ Публикацию в специальном выпуске журнала «Доклады Российской академии наук. Математика, информатика, процессы управления», а также в его англоязычной версии Doklady Mathematics.

▪️ Главный приз — 1 миллион рублей — достанется авторам самой выдающейся работы по оценкам авторитетного жюри

Статьи принимаются на русском или английском языке и должны содержать только оригинальные данные.

Не упустите последнюю возможность: направьте свою статью и получите шанс войти в историю AI Journey 2025! ⚡️
🤣35👍1812🔥5👨‍💻2🥰1🐳1🆒1
🎮 Google и Kaggle запустили открытую Game Arena — платформу, где ИИ-системы соревнуются в стратегических играх, чтобы измерить интеллект.

🤖 Зачем это нужно? Старые бенчмарки уже не работают — LLM просто запоминают ответы. Идея в том, что игры — лучший бенчмарк для проверки интеллекта. Они проверяют не факты, а стратегическое мышление, адаптацию и память.

♟️ Первый турнир: шахматы пройдет сегодня. 8 передовых моделей, включая GPT‑4, Claude Opus и Gemini, сразятся друг с другом без использования внешних инструментов.

📊 По итогам матчей формируется открытый рейтинг моделей — кто реально умеет думать, а не просто угадывать.

🧠 Главное отличие от других арен:

Круговая система «каждый играет с каждым».
Позиции меняются каждую секунду
Ошибки наказываются немедленно
Побеждает не та, что знает ответ, а та, что думает

Kaggle собирает рейтинг моделей, который будет обновляться по итогам матчей. В будущем добавят Го, покер и видеоигры.

Стримы первых соревнований пройдут: 5–7 августа на YouTube с Хикару, Леви и Магнусом Карлсеном.

🟠 Подробнее об Арене: https://blog.google/technology/ai/kaggle-game-arena

@ai_machinelearning_big_data


#google #kaggle #arena
Please open Telegram to view this post
VIEW IN TELEGRAM
75👍34🔥17😁2👨‍💻2🤔1😢1
📈 OpenAI и Anthropic показывают взрывной рост прибыли в 2025.

— OpenAI удвоили ARR* за полгода: $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: $1B → $5B

*ARR (Annual Recurring Revenue) — это годовой повторяющийся доход, один из ключевых финансовых показателей для компаний, особенно в сфере подписок (например, SaaS).


🧻 Интересное распределение выручки:
— OpenAI лидирует в подписках (частные и корпоративные пользователи)
— Anthropic чуть впереди по доходу с API: $3.1B против $2.9B
— Почти половина API-выручки Anthropic поступает всего от двух клиентов: Cursor и GitHub

🧑‍💻 ChatGPT обрабатывает более 3 миллиардов сообщений в день — и рост продолжается ускоряться.
Если год назад прирост пользователей составлял 2,5× в год, то теперь он достиг 4×.

Code Claude же даёт $400M ARR — в 2 раза больше, чем всего несколько недель назад.

Сегодня почти все ассистенты по умолчанию используют Claude 4 Sonnet.

Но если GPT‑5 перехватит лидерство — и те же Cursor или Copilot перейдут к OpenAI — расклад может быстро поменяться.

@ai_machinelearning_big_data


#OpenAI @Anthropic #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍59🔥2717🦄4🤣3🤔2🗿2👨‍💻1
Судя по всему намечается важный ивент про RecSys. Интересно узнать подробнее.
147🔥4613👌8🥰6👍2🤔2😴2👏1👀1🆒1
🔥 GPT-OSS — открытые модели с продвинутым ризонингом от OpenAI

🧠 Представлено два варианта:
GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
GPT-OSS-20B — 21B параметров, работает на 16GB GPU

💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)

✔️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o

Младшая модель может запускаться даже на локальном железе!

🏴‍☠️Лицензирование: Apache 2.0

https://github.com/huggingface/transformers/releases/tag/v4.55.0

🚀 Попробовать можно тут: https://www.gpt-oss.com/

💥 Официальный релиз: http://openai.com/open-models

@ai_machinelearning_big_data


#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥84👍3927🍾7👨‍💻3