⚡️ Вышла M2.5 - новая open-source frontier-модель
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.
OpenAI называет ее моделью для кодинга в реальном времени.
Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.
Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Илон Маск: xAI может построить завод на Луне для производства AI-спутников
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
🚀 GPT-5.2 уже помогает делать открытия в фундаментальной физике
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
🚀 Mistral научили маленькие модели думать как большие
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.
По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.
Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров.
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.
Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.
По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ начинает решать задачи, которые раньше были под силу только топ-математикам.
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
⚡️ Вышел FireRed-Image-Edit-1.0 - новая SOTA для редактирования изображений.
И самое интересное - это open-source и готово к локальному запуску.
Что умеет модель:
- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском
- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов
▪Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
▪Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
▪GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit
@pythonl
И самое интересное - это open-source и готово к локальному запуску.
Что умеет модель:
- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском
- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов
▪Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
▪Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
▪GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit
@pythonl
This media is not supported in your browser
VIEW IN TELEGRAM
💰 Илон Маск сделал громкое заявление:
Звучит радикально, но его логика проста.
Сегодня вся финансовая система построена на одном предположении:
ресурсы ограничены, а жизнь дорогая.
Мы откладываем деньги, потому что:
- нужно платить за жильё
- еду
- медицину
- услуги
- и в старости дохода может не быть
Но Маск считает, что AI и роботизация меняют саму основу экономики.
Что происходит уже сейчас:
- Автоматизация снижает стоимость труда
- Производство становится дешевле
- Услуги заменяются алгоритмами
- Всё больше процессов работает без участия человека
Если этот тренд продолжится, то:
Стоимость производства → стремится к нулю
Стоимость жизни → резко падает
А значит, логика “копить на дорогую жизнь в будущем” перестаёт работать.
Мы можем перейти от экономики дефицита к экономике изобилия.
Где главным ограничением станет не деньги, а:
- смысл деятельности
- самореализация
- ценность идей и творчества
Самый важный вывод не в том, что «копить не нужно».
А в другом:
Мир меняется быстрее, чем наши финансовые привычки.
Модель «учись → работай 40 лет → копи → пенсия» может просто устареть.
В ближайшие 10–15 лет главный актив - это не накопления.
Это:
- навыки адаптации
- умение работать с AI
- гибкость
- способность создавать ценность в новой экономике
Потому что будущее, к которому мы готовимся по старым правилам,
может оказаться совсем другим.
Через 10–20 лет накопления на пенсию могут потерять смысл.
Звучит радикально, но его логика проста.
Сегодня вся финансовая система построена на одном предположении:
ресурсы ограничены, а жизнь дорогая.
Мы откладываем деньги, потому что:
- нужно платить за жильё
- еду
- медицину
- услуги
- и в старости дохода может не быть
Но Маск считает, что AI и роботизация меняют саму основу экономики.
Что происходит уже сейчас:
- Автоматизация снижает стоимость труда
- Производство становится дешевле
- Услуги заменяются алгоритмами
- Всё больше процессов работает без участия человека
Если этот тренд продолжится, то:
Стоимость производства → стремится к нулю
Стоимость жизни → резко падает
А значит, логика “копить на дорогую жизнь в будущем” перестаёт работать.
Мы можем перейти от экономики дефицита к экономике изобилия.
Где главным ограничением станет не деньги, а:
- смысл деятельности
- самореализация
- ценность идей и творчества
Самый важный вывод не в том, что «копить не нужно».
А в другом:
Мир меняется быстрее, чем наши финансовые привычки.
Модель «учись → работай 40 лет → копи → пенсия» может просто устареть.
В ближайшие 10–15 лет главный актив - это не накопления.
Это:
- навыки адаптации
- умение работать с AI
- гибкость
- способность создавать ценность в новой экономике
Потому что будущее, к которому мы готовимся по старым правилам,
может оказаться совсем другим.
⚡️ Пентагон может разорвать сотрудничество с Anthropic.
Причина - компания отказалась разрешить использование своих моделей для «любых законных целей».
Anthropic настаивает на жестких ограничениях:
- запрет на массовую внутреннюю слежку
- запрет на полностью автономное оружие без участия человека
Конфликт обострился после спорного случая использования Claude в военной операции.
Это показало более глубокую проблему.
С одной стороны - Пентагон хочет максимально свободное применение ИИ.
С другой - Anthropic придерживается строгой политики безопасности и этики.
И здесь возникает парадокс:
Высокие этические стандарты начинают мешать бизнесу.
Главный вопрос на будущее:
Сможет ли компания сохранить принципы и при этом конкурировать на рынке, где государственные контракты - это миллиарды?
https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
Причина - компания отказалась разрешить использование своих моделей для «любых законных целей».
Anthropic настаивает на жестких ограничениях:
- запрет на массовую внутреннюю слежку
- запрет на полностью автономное оружие без участия человека
Конфликт обострился после спорного случая использования Claude в военной операции.
Это показало более глубокую проблему.
С одной стороны - Пентагон хочет максимально свободное применение ИИ.
С другой - Anthropic придерживается строгой политики безопасности и этики.
И здесь возникает парадокс:
Высокие этические стандарты начинают мешать бизнесу.
Главный вопрос на будущее:
Сможет ли компания сохранить принципы и при этом конкурировать на рынке, где государственные контракты - это миллиарды?
https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
⚠️ ЕС начал борьбу с «залипающими» алгоритмами соцсетей
Европейская комиссия выпустила предварительные выводы:
дизайн TikTok признан вызывающим зависимость, особенно у детей.
Проверка проходит в рамках закона Digital Services Act (DSA).
Что именно не устраивает регуляторов:
- бесконечная лента (infinite scroll)
- алгоритмы, удерживающие внимание любой ценой
- механики, усиливающие зависимое поведение
TikTok может оспорить решение.
Но если проблемы не будут устранены, штраф может составить
до 6% от глобальной годовой выручки.
И это только начало.
Регуляторы больше не борются с контентом.
Они начинают регулировать саму механику внимания.
Если бесконечный скролл и «допаминовая оптимизация» признают вредными - это может изменить дизайн всей индустрии соцсетей.
politico.eu/article/tiktok-meta-facebook-instagram-brussels-kill-infinite-scrolling/
Европейская комиссия выпустила предварительные выводы:
дизайн TikTok признан вызывающим зависимость, особенно у детей.
Проверка проходит в рамках закона Digital Services Act (DSA).
Что именно не устраивает регуляторов:
- бесконечная лента (infinite scroll)
- алгоритмы, удерживающие внимание любой ценой
- механики, усиливающие зависимое поведение
TikTok может оспорить решение.
Но если проблемы не будут устранены, штраф может составить
до 6% от глобальной годовой выручки.
И это только начало.
Регуляторы больше не борются с контентом.
Они начинают регулировать саму механику внимания.
Если бесконечный скролл и «допаминовая оптимизация» признают вредными - это может изменить дизайн всей индустрии соцсетей.
politico.eu/article/tiktok-meta-facebook-instagram-brussels-kill-infinite-scrolling/
⚡ Anthropic выложили 6 полноценных курсов по ИИ - бесплатно.
По уровню это легко заменяет обучение на десятки или даже сотни тысяч рублей.
Внутри:
- сотни уроков и практики
- интерактивные задания и квизы
- реальные кейсы работы с Claude
- сертификаты после прохождения
Если работаешь с AI, агентами или API - это база, которую сейчас проходят разработчики в топ-компаниях.
Что можно изучить:
• Работа с Claude API
https://anthropic.skilljar.com/claude-with-the-anthropic-api
• Введение в Model Context Protocol (MCP)
https://anthropic.skilljar.com/introduction-to-model-context-protocol
• Claude в Amazon Bedrock
https://anthropic.skilljar.com/claude-in-amazon-bedrock
• Claude в Google Cloud (Vertex AI)
https://anthropic.skilljar.com/claude-with-google-vertex
• Продвинутый MCP
https://anthropic.skilljar.com/model-context-protocol-advanced-topics
• Claude Code на практике
https://anthropic.skilljar.com/claude-code-in-action
Это не «обзорные лекции».
Это реальные навыки для тех, кто хочет строить AI-продукты, агентов и автоматизацию.
По уровню это легко заменяет обучение на десятки или даже сотни тысяч рублей.
Внутри:
- сотни уроков и практики
- интерактивные задания и квизы
- реальные кейсы работы с Claude
- сертификаты после прохождения
Если работаешь с AI, агентами или API - это база, которую сейчас проходят разработчики в топ-компаниях.
Что можно изучить:
• Работа с Claude API
https://anthropic.skilljar.com/claude-with-the-anthropic-api
• Введение в Model Context Protocol (MCP)
https://anthropic.skilljar.com/introduction-to-model-context-protocol
• Claude в Amazon Bedrock
https://anthropic.skilljar.com/claude-in-amazon-bedrock
• Claude в Google Cloud (Vertex AI)
https://anthropic.skilljar.com/claude-with-google-vertex
• Продвинутый MCP
https://anthropic.skilljar.com/model-context-protocol-advanced-topics
• Claude Code на практике
https://anthropic.skilljar.com/claude-code-in-action
Это не «обзорные лекции».
Это реальные навыки для тех, кто хочет строить AI-продукты, агентов и автоматизацию.
⚠️ ИИ вызывает новый дефицит памяти
Дата-центры для AI потребляют столько памяти, что её начинает не хватать остальной электронике.
Что происходит на рынке:
- Контрактные цены на DRAM выросли на 75% всего за месяц
- Поставщики пересматривают цены ежедневно
- Основные объёмы памяти уходят в AI-серверы
Главная причина - переход на HBM (High Bandwidth Memory).
HBM - это многослойная память (8–12 слоёв DRAM), которая работает рядом с ускорителями Nvidia и AMD и обеспечивает экстремальную пропускную способность.
Масштаб потребления:
- Один ускоритель Nvidia Blackwell — до 192 GB HBM
- Система NVL72 - 13.4 TB памяти
Прогнозы:
- Спрос на HBM вырастет на 70% в 2026 году
- Уже сейчас HBM занимает 23% производства DRAM (против 19% в 2025)
Что это значит для рынка:
Обычной памяти становится меньше для:
- смартфонов
- ПК
- автомобилей
- игровых консолей
Выигрывают производители:
Samsung, SK Hynix, Micron - рост маржи.
Проигрывают продуктовые команды и компании,
которые не могут заранее выкупить поставки.
Главный вывод:
ИИ начинает влиять не только на софт и модели.
Он уже перераспределяет физические ресурсы всей индустрии электроники.
Дата-центры для AI потребляют столько памяти, что её начинает не хватать остальной электронике.
Что происходит на рынке:
- Контрактные цены на DRAM выросли на 75% всего за месяц
- Поставщики пересматривают цены ежедневно
- Основные объёмы памяти уходят в AI-серверы
Главная причина - переход на HBM (High Bandwidth Memory).
HBM - это многослойная память (8–12 слоёв DRAM), которая работает рядом с ускорителями Nvidia и AMD и обеспечивает экстремальную пропускную способность.
Масштаб потребления:
- Один ускоритель Nvidia Blackwell — до 192 GB HBM
- Система NVL72 - 13.4 TB памяти
Прогнозы:
- Спрос на HBM вырастет на 70% в 2026 году
- Уже сейчас HBM занимает 23% производства DRAM (против 19% в 2025)
Что это значит для рынка:
Обычной памяти становится меньше для:
- смартфонов
- ПК
- автомобилей
- игровых консолей
Выигрывают производители:
Samsung, SK Hynix, Micron - рост маржи.
Проигрывают продуктовые команды и компании,
которые не могут заранее выкупить поставки.
Главный вывод:
ИИ начинает влиять не только на софт и модели.
Он уже перераспределяет физические ресурсы всей индустрии электроники.
Это первый open-weight релиз в серии Qwen3.5.
Лицензия Apache 2.0.
Что интересного:
• Мультимодальная модель
Понимает текст и изображения
• Создана для AI-агентов
Оптимизирована для реальных задач: планирование, работа с инструментами, многошаговые действия.
• Новая архитектура
Hybrid Linear Attention + Sparse MoE + масштабное обучение с reinforcement learning.
• Высокая скорость
Заявлено что моделька в 8. 6- 9 раз быстрее, чем у предыдущей Qwen3-Max.
• Глобальная модель
Поддержка 201 языков и диалектов.
Модели такого уровня в открытом доступе:
- можно запускать AI у себя, без зависимости от API
- полный контроль над данными
- возможность строить собственных агентов и продукты
- снижение стоимости на масштабах
@ai_machinelearning_big_data
#qwen #ai #llm #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
В Китае изменили правила для PhD.
С 2025 года степень можно получить не только за диссертацию, но и за практический результат: прототип, технологию, патент или внедрённый проект. Закон Degree Law официально разрешает защиту через «практические достижения».
Исследования остаются обязательными. Но в прикладных программах теперь оценивают не только публикации, а реальный эффект - инженерный, промышленный или коммерческий.
Это отражает сдвиг в экономике знаний.
Статья модет устареть очень быстро,
рабочий продукт может создать целый рынок.
PhD В Китае становится про разработку, внедрение и патенты, а не только про публикации.
Экономика талантов переходит от модели - publish or perish
к модели - build and prove impact.
zmescience.com/science/news-science/you-can-now-get-a-phd-in-china-by-inventing-a-product-instead-of-writing-a-100-page-dissertation/
С 2025 года степень можно получить не только за диссертацию, но и за практический результат: прототип, технологию, патент или внедрённый проект. Закон Degree Law официально разрешает защиту через «практические достижения».
Исследования остаются обязательными. Но в прикладных программах теперь оценивают не только публикации, а реальный эффект - инженерный, промышленный или коммерческий.
Это отражает сдвиг в экономике знаний.
Статья модет устареть очень быстро,
рабочий продукт может создать целый рынок.
PhD В Китае становится про разработку, внедрение и патенты, а не только про публикации.
Экономика талантов переходит от модели - publish or perish
к модели - build and prove impact.
zmescience.com/science/news-science/you-can-now-get-a-phd-in-china-by-inventing-a-product-instead-of-writing-a-100-page-dissertation/
Гадание отменяется: инструмент сканирует ваше железо и говорит, какие именно LLM потянет комп без тормозов 😮
Больше не нужно гадать с квантованием или ловить вылеты по памяти — утилита сама калибрует веса под конкретный конфиг.
Внутри зашит умный скоринг для 35+ моделей, откалиброванный под Apple Silicon, NVIDIA и даже Intel Arc. Утилита учитывает пропускную способность памяти, лимиты VRAM и контекстное окно, предлагая готовые команды для запуска через Ollama.
Железо скажет спасибо👌
Больше не нужно гадать с квантованием или ловить вылеты по памяти — утилита сама калибрует веса под конкретный конфиг.
Внутри зашит умный скоринг для 35+ моделей, откалиброванный под Apple Silicon, NVIDIA и даже Intel Arc. Утилита учитывает пропускную способность памяти, лимиты VRAM и контекстное окно, предлагая готовые команды для запуска через Ollama.
Железо скажет спасибо
Please open Telegram to view this post
VIEW IN TELEGRAM