X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.
X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:
Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.
Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.
Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.
Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.
На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.
В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).
Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).
Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.
Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.
Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.
@ai_machinelearning_big_data
#AI #ML #T2I #RL #XOmni #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤44👍24🥰5🔥3❤🔥1😁1🤔1👨💻1
Попросите любую LLM написать CUDA-код, и скорее всего, вы получите что-то, что либо не компилируется, либо работает мучительно медленно. Причина проста: качественного CUDA-кода в обучающих данных моделей почти не было.
Чтобы исправить это досадное упущение, Deep Reinforce AI создали систему CUDA-L1, которая основана на трехэтапном пайплайне: сначала supervised-обучение для освоения основ, затем self-supervised для практики и, наконец, контрастное обучение с подкреплением, чтобы было все максимально быстро.
Для этого существующий код был аугментирован - создавались его вариации, чтобы повысить насмотренность модели.
Обучаемой модели показывали несколько реализаций CUDA-ядер вместе с их показателями ускорения, например: «kernel_v1 дает ускорение 1.2x», «kernel_v2 — 2.8x», а «kernel_v3 — 1.5x». Затем задали 3 вопроса:
Таким образом, модель не гадает вслепую, а учится на конкретных примерах, анализируя причины разницы в производительности.
После обучения выяснилось, что более 30% сгенерированных реализаций пытались сжульничать - создавали дополнительные CUDA-потоки, которые выполнялись асинхронно.
Поскольку бенчмарк KernelBench отслеживал время только на основном потоке, код выглядел быстрее, чем был на самом деле, показывая фиктивное ускорение в 18 раз.
Другие уловки состояли в манипуляции гиперпараметрами задачи (уменьшение batch_size или размерностей) и кеширование результатов вычислений.
Во-первых, в качестве "адвоката дьявола" взяли adversarial-чекер на базе DeepSeek-R1, который анализировал код на предмет эксплойтов с точностью обнаружения более 60%.
Во-вторых, собрали базу данных из более чем 500 уникальных паттернов взлома, это повысило точность обнаружения на 25%.
И в-третьих, применили математическое сглаживание и нормализацию наград, где любое подозрительное ускорение (от 1.5x для простых операций) дополнительно проверялось.
Система успешно сгенерировала рабочий код для 249 из 250 задач, причем в 240 случаях код оказался быстрее базовой реализации.
Среднее ускорение по всем задачам составило 3.12 раза, максимальное - аж 120 раз. Медианное ускорение (50-й перцентиль) составило 1.42x, а 75-й перцентиль — 2.25x.
Производительность по уровням сложности задач распределилась следующим образом: на простых операциях среднее ускорение составило 2.78x, на последовательностях операторов - 3.55x, а на сложных задачах вроде полных слоев трансформера - 2.96x.
Код, оптимизированный на NVIDIA A100, был протестирован на других GPU. Результаты показали, что найденные паттерны оптимизации фундаментальны и работают на разных архитектурах.
Среднее ускорение на H100 составило 2.39x (успешных ускорений 227 из 250), на L40 — 3.12x (228/248), а на потребительской RTX 3090 — 2.50x (213/242).
@ai_machinelearning_big_data
#AI #ML #CUDA #DeepReinforce #ContrastiveRL
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79🔥32❤25👏1👨💻1🎃1🤝1🗿1
Нейт Соарес, бывший инженер Google и Microsoft, а ныне президент Machine Intelligence Research Institute, оценивает наши шансы на вымирание от ИИ как "минимум 95%", если мы продолжим двигаться текущим курсом. Он сравнил нашу ситуацию с движением к обрыву на скорости 160 км/ч миль в час.
«Я не говорю, что мы не можем остановить машину, — сказал он. — Но мы просто на всех парах несёмся к обрыву»
С ним согласны многие: нобелевский лауреат Джеффри Хинтон, лауреат премии Тьюринга Йошуа Бенжио и руководители OpenAI, Anthropic и Google DeepMind. Все они подписали открытое письмо, в котором говорится:
«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Сейчас мы имеем дело лишь с контекстным ИИ, который отлично справляется с конкретными когнитивными задачами. При этом эксперты предсказывают, что в течение нескольких лет мы достигнем порога AGI, который сравняется с человеческим.
AGI сможет решать сложные проблемы, требующие долгосрочного планирования и суждений в разных областях знаний. У него не будет потребности во сне или еде, а знания он будет передавать следующему поколению простым копированием.
Вскоре после этого появится ASI, который сможет делать вещи, о которых мы только мечтаем: лечить рак, достичь холодного термоядерного синтеза или путешествовать к звездам.
Обеспечить это - невероятно сложная техническая задача, известная как проблема элайнмента.
Достичь его почти невозможно. Нам придется предугадывать, как «думает» ASI, что сродни попытке понять образ мыслей инопланетной расы. Даже если мы установим правила, мы не сможем предсказать, как именно он будет их выполнять.
Уже сейчас есть кейсы, которые доказывают, что ИИ может нам врать. ASI будет способен на долгосрочное планирование и манипуляции, легко убеждая нас в своей лояльности, пока это ему выгодно. А мы не сможем распознать правду.
Холли Элмор, исполнительный директор PauseAI, оценивает вероятность вымирания человечества в 15-20%. Она опасается, что даже без вымирания ИИ катастрофически ухудшит нашу жизнь, лишив нас самоопределения.
Илон Маск называет цифру около 20%, а глава Google Сундар Пичаи — 10%.
Катя Грейс, сооснователь исследовательской группы AI Impacts, описывает мир, контролируемый ИИ, так:
"Представьте себе сценарий, в котором все люди фактически живут на свалках», без какой-либо политической или экономической власти".
Администрация США объявила о плане по дерегуляции исследований ИИ.
Марк Цукерберг заявил, что ASI уже на горизонте, и пытается переманить ведущих специалистов из OpenAI, предлагая им многомиллионные бонусы.
По мнению Элмор, сторонники ИИ сопротивляются паузе не по техническим или политическим причинам, а скорее из-за чего-то, похожего на религиозную веру.
thetimes.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍114❤49🥱40🔥20😐16😁12🤔11🗿10🤬4🎉3❤🔥1
Увольнения сотрудников перестали быть признаком финансовых трудностей и превратились в повод для гордости за успешные инвестиции в ИИ.
CEO крупных компаний теперь открыто заявляют о сокращении персонала, преподнося это как достижение в области автоматизации и эффективности.
Глава Verizon Ханс Вестберг недавно похвастался инвесторам:
«... у нас очень хорошие показатели по численности персонала, он постоянно сокращается».
Эта новая риторика становится тревожной нормой. Эксперты выражают обеспокоенность, что открытое хвастовство увольнениями происходит без какой-либо общественной реакции или сопротивления.
Консультанты по ИИ открыто признаются, что сами увольняли сотрудников из-за внедрения ИИ:
«Как генеральный директор, могу сказать, что я в полном восторге. Я и сам увольнял сотрудников из-за ИИ. Он не бастует и не требует повышения зарплаты».
Но, как говорится, не все такие, и есть более оптимистичные точки зрения. В прошлом месяце CEO NVIDIA Дженсен Хуан в интервью CNN предположил:
«Будет создано много рабочих мест, и я надеюсь, что рост производительности, который мы наблюдаем во всех отраслях, поднимет уровень жизни общества».
wsj.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😐91😁30❤24👍7🤬7🤔6🍓4🤝2🙊2😈1👨💻1
🚀 Tencent расширяет экосистему Hunyuan LLM и выкладывают в открытый доступ еще 4 компактных моделей — 0.5B, 1.8B, 4B и 7B!
Эти модели заточены под low-power устройства: ПК, смартфоны, авто, умные дома и пользовательские GPU.
Модели легко настраиваются под вертикальные задачи и запускаются даже на одной карте.
💡 Особенности:
✅ Fast/slow thinking режимы: лаконичные или глубокие ответы
✅ 256K контекст и продвинутые агентные способности (tool use, планирование, reasoning)
✅ Хорошие метрики на тестах по языку, математике и логике
✅ Модели готовы к продакшену — работают с SGLang, vLLM, TensorRT-LLM
🖥 GitHub:
- 0.5B: https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
- 1.8B: https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
- 4B: https://github.com/Tencent-Hunyuan/Hunyuan-4B
- 7B: https://github.com/Tencent-Hunyuan/Hunyuan-7B
🤗 Hugging Face:
- 0.5B: https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
- 1.8B: https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
- 4B: https://huggingface.co/tencent/Hunyuan-4B-Instruct
- 7B: https://huggingface.co/tencent/Hunyuan-7B-Instruct
🔗 Подробнее: https://hunyuan.tencent.com/modelSquare/home/list
@ai_machinelearning_big_data
#Tencent #Hunyuan #ml #llm #ai #opensource
Эти модели заточены под low-power устройства: ПК, смартфоны, авто, умные дома и пользовательские GPU.
Модели легко настраиваются под вертикальные задачи и запускаются даже на одной карте.
💡 Особенности:
✅ Fast/slow thinking режимы: лаконичные или глубокие ответы
✅ 256K контекст и продвинутые агентные способности (tool use, планирование, reasoning)
✅ Хорошие метрики на тестах по языку, математике и логике
✅ Модели готовы к продакшену — работают с SGLang, vLLM, TensorRT-LLM
- 0.5B: https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
- 1.8B: https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
- 4B: https://github.com/Tencent-Hunyuan/Hunyuan-4B
- 7B: https://github.com/Tencent-Hunyuan/Hunyuan-7B
🤗 Hugging Face:
- 0.5B: https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
- 1.8B: https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
- 4B: https://huggingface.co/tencent/Hunyuan-4B-Instruct
- 7B: https://huggingface.co/tencent/Hunyuan-7B-Instruct
🔗 Подробнее: https://hunyuan.tencent.com/modelSquare/home/list
@ai_machinelearning_big_data
#Tencent #Hunyuan #ml #llm #ai #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍93❤25🔥14👨💻2❤🔥1
11010000 10101111 11010000 10111101 11010000 10110100 11010000 10110101 11010000 10111010 11010001 10000001
Кажется, мы нашли не баг, а пасхалку. Это же приглашение на Yandex Neuro Scale — масштабную конференцию Yandex Cloud о технологиях и решениях будущего.
➤ РЕГИСТРАЦИЯ
@ai_machinelearning_big_data
Кажется, мы нашли не баг, а пасхалку. Это же приглашение на Yandex Neuro Scale — масштабную конференцию Yandex Cloud о технологиях и решениях будущего.
print('Yandex Neuro Scale 2025')
if you_like == "AI and IT":
print('Если вы хотите оказаться на самой масштабной конференции для лучших специалистов в сфере нейротехнологий — регистрируйтесь')
package main
import "fmt"
func main() {
fmt.Println("🚀 Yandex Neuro Scale 2025")
fmt.Println("Запускаем будущее сегодня!")
fmt.Println("\n// Для кого:")
fmt.Println("CTO • Архитекторы • Тимлиды • CIO • Разработчики • ML-инженеры • CISO • Security • CPO • Продакты • CDO • Аналитики • Data • DevOps • CDTO • CX")
fmt.Println("\n// Треки:")
fmt.Println("Infrastructure • DevOps • Data • AI Studio • AI in Action • Security • Cases")
fmt.Println("\n📅 24 сентября 2025")
fmt.Println("📍 Москва, БЦ «Амальтея»")
fmt.Println("\n🔥 7 треков | 50+ докладов")
}
➤ РЕГИСТРАЦИЯ
@ai_machinelearning_big_data
🤬60🔥20😁14❤12👍11🙈6👨💻5🌚3🥱1🗿1
Согласно анализу Международного энергетического агентства, на долю дата-центров приходится почти 9% от общего потребления электроэнергии в США.
Международное энергетическое агентство (МЭА) - автономная международная организация, созданная в 1974 году. Ее цели: обеспечение энергетической безопасности, продвижение возобновляемых источников энергии и борьбу с изменением климата.
Страна является абсолютным мировым лидером по установленной мощности ЦОД (53.7 ГВт), и этот показатель продолжает стремительно расти. Уже к 2028 году, по прогнозам, дата-центры могут потреблять 12% всей американской электроэнергии.
Спрос на вычислительные мощности, подстегиваемый бурным развитием ИИ, растет по всему миру. В Великобритании на ЦОД приходится 5.1% энергопотребления, в Евросоюзе — 4.8%. Даже в Китае, несмотря на огромные масштабы экономики, этот показатель достиг 2.3%.
Особенно ярко тренд проявляется на региональном уровне. Например, в штате Вирджиния, который является хабом для многих ЦОД, на их долю приходится уже 26% всего энергопотребления.
Этот бум заставляет технологические компании активно инвестировать не только в сами дата-центры, но и в источники энергии для них, в частности, в атомную энергетику.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍72❤26🔥16👀6😨4👨💻2🤣1
Особенно эффективна для создания картинок с нативным текстом.
🔍 Основные моменты:
🔹 Рендеринг текста SOTA показатели — конкурирует с GPT-4o на английском языке, лучший в своем классе на китайском языке
🔹 Двуязычная поддержка, разнообразные шрифты, понимает сложные промпты.
Техотчёт показывает:
- модель минимальные искажения символов при генерации;
- заметно более высокие метрики качества изображения против «стандартных» диффузионок.
🎨 Можешь отлично справляется с созданием изображений в разных стилях — от фотореализма до аниме, от импрессионизма до минимализма.
ModelScope:https://modelscope.cn/models/Qwen/Qwen-Image
@ai_machinelearning_big_data
#qwen #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍67❤17🔥10👨💻3
Media is too big
VIEW IN TELEGRAM
OpenAI анонсировала обновления для ChatGPT, направленные на формирование более здоровых привычек у пользователей. Теперь, по аналогии с соцсетями и стриминговыми сервисами, чат-бот будет показывать напоминания о необходимости сделать перерыв во время длительных сессий.
Кроме того, компания настраивает модель так, чтобы она давала менее категоричные ответы на запросы, требующие жизненных советов. Например, на вопрос о разрыве отношений ChatGPT не будет отвечать "да" или "нет", а вместо этого предложит темы для размышления, чтобы пользователь мог самостоятельно принять решение. Для разработки этих улучшений OpenAI сотрудничала с более чем 90 врачами из 30 стран и создает специальную консультативную группу экспертов.
openai.com
MiDashengLM-7B - мультимодальная модель для комплексного анализа аудио. В отличие от аналогов, она распознает не только речь, но и звуки и даже музыку. По словам Xiaomi, модель устанавливает новые рекорды на 22 публичных бенчмарках. В ее основе лежат собственный аудиоэнкодер Xiaomi Dasheng и декодер Qwen2.5-Omni-7B- Thinker.
Ключевым преимуществом модели заявляется высокая эффективность инференса. Задержка до первого токена (TTFT) в 4 раза ниже, а пропускная способность более чем в 20 раз выше, чем у передовых моделей при том же объеме VRAM. Модель обучена на 100% публичных данных и распространяется под лицензией Apache 2.0. Код и веса уже доступны на GitHub и Hugging Face.
Xiaomi в сети WeChat
Apple активно работает над созданием собственного поискового движка на базе ИИ. Новая команда под названием AKI (Answers, Knowledge and Information) создает систему, которая будет сканировать Интернет и объединять результаты в единый продукт под рабочим названием «Answer Engine».
Разработка ведется как для отдельного приложения, так и для интеграции в Siri, Spotlight и Safari. Этот разворот в стратегии показывает, что Apple теперь рассматривает генеративный поиск как ключевой элемент в конкуренции с Google и OpenAI.
bloomberg.com
Инженеры из Чжэцзянского университета представили Darwin Monkey - крупнейший в мире нейроморфный компьютер, архитектура которого вдохновлена строением мозга макаки. Система состоит из 15 blade-серверов, вмещает 2 млрд. импульсных нейронов и 100 млрд. синапсов, а ее энергопотребление составляет всего около 2000 Вт, что сопоставимо с бытовым обогревателем.
В основе компьютера лежат 960 кастомных чипов Darwin 3. В отличие от традиционных GPU, они работают с дискретными "импульсами", подобно биологическим нейронам. Система уже продемонстрировала способность решать математические задачи, писать тексты и анализировать данные с сенсоров, работая с адаптированной моделью DeepSeek. Darwin Monkey также может симулировать нервные системы более простых организмов: червей и мышей, что открывает новые горизонты для нейробиологических исследований.
scmp.com
Cloudflare приняла решение заблокировать Perplexity AI за использование незадекларированных веб-краулеров. По данным Cloudflare, Perplexity маскировала свои боты под обычные браузеры Chrome на macOS и меняла IP-адреса, чтобы обойти ограничения robots.txt и WAF.
Cloudflare зафиксировала от 3 до 6 миллионов таких запросов в день, это затронуло, по оценке, около десятков тысяч доменов. В компании назвали это скрытным сканированием. Perplexity отвергла обвинения, назвав это "PR-акцией" и заявила, что такой краулер им не принадлежит.
blog.cloudflare.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56🔥21❤16🤔8👨💻2🤬1
Вы ещё успеваете получить миллион за свою научную статью по AI! 👌
До 20 августа продолжается приём научных работ по искусственному интеллекту и машинному обучению для публикации в журнале международной конференции AI Journey. Что получат авторы лучших статей:
▪️ Публикацию в специальном выпуске журнала «Доклады Российской академии наук. Математика, информатика, процессы управления», а также в его англоязычной версии Doklady Mathematics.
▪️ Главный приз — 1 миллион рублей — достанется авторам самой выдающейся работы по оценкам авторитетного жюри
Статьи принимаются на русском или английском языке и должны содержать только оригинальные данные.
Не упустите последнюю возможность: направьте свою статью и получите шанс войти в историю AI Journey 2025! ⚡️
До 20 августа продолжается приём научных работ по искусственному интеллекту и машинному обучению для публикации в журнале международной конференции AI Journey. Что получат авторы лучших статей:
▪️ Публикацию в специальном выпуске журнала «Доклады Российской академии наук. Математика, информатика, процессы управления», а также в его англоязычной версии Doklady Mathematics.
▪️ Главный приз — 1 миллион рублей — достанется авторам самой выдающейся работы по оценкам авторитетного жюри
Статьи принимаются на русском или английском языке и должны содержать только оригинальные данные.
Не упустите последнюю возможность: направьте свою статью и получите шанс войти в историю AI Journey 2025! ⚡️
🤣35👍18❤12🔥5👨💻2🥰1🐳1🆒1
📊 По итогам матчей формируется открытый рейтинг моделей — кто реально умеет думать, а не просто угадывать.
Kaggle собирает рейтинг моделей, который будет обновляться по итогам матчей. В будущем добавят Го, покер и видеоигры.
Стримы первых соревнований пройдут: 5–7 августа на YouTube с Хикару, Леви и Магнусом Карлсеном.
@ai_machinelearning_big_data
#google #kaggle #arena
Please open Telegram to view this post
VIEW IN TELEGRAM
❤75👍34🔥17😁2👨💻2🤔1😢1
📈 OpenAI и Anthropic показывают взрывной рост прибыли в 2025.
— OpenAI удвоили ARR* за полгода: $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: $1B → $5B
🧻 Интересное распределение выручки:
— OpenAI лидирует в подписках (частные и корпоративные пользователи)
— Anthropic чуть впереди по доходу с API: $3.1B против $2.9B
— Почти половина API-выручки Anthropic поступает всего от двух клиентов: Cursor и GitHub
🧑💻 ChatGPT обрабатывает более 3 миллиардов сообщений в день — и рост продолжается ускоряться.
Если год назад прирост пользователей составлял 2,5× в год, то теперь он достиг 4×.
Code Claude же даёт $400M ARR — в 2 раза больше, чем всего несколько недель назад.
Сегодня почти все ассистенты по умолчанию используют Claude 4 Sonnet.
Но если GPT‑5 перехватит лидерство — и те же Cursor или Copilot перейдут к OpenAI — расклад может быстро поменяться.
@ai_machinelearning_big_data
#OpenAI @Anthropic #ml #llm #ai
— OpenAI удвоили ARR* за полгода: $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: $1B → $5B
*ARR (Annual Recurring Revenue) — это годовой повторяющийся доход, один из ключевых финансовых показателей для компаний, особенно в сфере подписок (например, SaaS).
— OpenAI лидирует в подписках (частные и корпоративные пользователи)
— Anthropic чуть впереди по доходу с API: $3.1B против $2.9B
— Почти половина API-выручки Anthropic поступает всего от двух клиентов: Cursor и GitHub
🧑💻 ChatGPT обрабатывает более 3 миллиардов сообщений в день — и рост продолжается ускоряться.
Если год назад прирост пользователей составлял 2,5× в год, то теперь он достиг 4×.
Code Claude же даёт $400M ARR — в 2 раза больше, чем всего несколько недель назад.
Сегодня почти все ассистенты по умолчанию используют Claude 4 Sonnet.
Но если GPT‑5 перехватит лидерство — и те же Cursor или Copilot перейдут к OpenAI — расклад может быстро поменяться.
@ai_machinelearning_big_data
#OpenAI @Anthropic #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍59🔥27❤17🦄4🤣3🤔2🗿2👨💻1
Судя по всему намечается важный ивент про RecSys. Интересно узнать подробнее.
147🔥46❤13👌8🥰6👍2🤔2😴2👏1👀1🆒1
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
Младшая модель может запускаться даже на локальном железе!
https://github.com/huggingface/transformers/releases/tag/v4.55.0
🚀 Попробовать можно тут: https://www.gpt-oss.com/
@ai_machinelearning_big_data
#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥84👍39❤27🍾7👨💻3