Forwarded from Python/ django
🔥 Linux 7.0 - Торвальд и команда вычистили десятилетия грязного легаси и ОС стала реально быстрее!
Линус Торвальдс наконец пошёл на радикальный шаг и начал массовую зачистку старого кода. То, что копилось годами, просто выкинули. Итог - система стала заметно проще, чище и быстрее.
Что изменилось по факту:
XFS сильно прокачали - файловая система стала надёжнее, меньше рисков потери данных и лучше ведёт себя под нагрузкой
Работа с памятью ускорилась примерно на 20%, плюс подтянули сетевой стек - соединения стабильнее при высоких нагрузках
Контейнеры теперь стартуют быстрее за счёт улучшений в open_tree - меньше оверхеда при разворачивании
В Kconfig наконец дали больше свободы кастомизации - можно заменить Tux на свой логотип
Поддержка железа тоже прокачана - AMD и Intel работают эффективнее без ручных оптимизаций
Главное здесь не список фич, а тренд. Ядро постепенно избавляется от исторического балласта и становится более предсказуемым и удобным для современных нагрузок.
https://github.com/torvalds/linux/releases/tag/v7.0
🐍 Python полезные ресурсы 🚀Max
@pythonl
Линус Торвальдс наконец пошёл на радикальный шаг и начал массовую зачистку старого кода. То, что копилось годами, просто выкинули. Итог - система стала заметно проще, чище и быстрее.
Что изменилось по факту:
XFS сильно прокачали - файловая система стала надёжнее, меньше рисков потери данных и лучше ведёт себя под нагрузкой
Работа с памятью ускорилась примерно на 20%, плюс подтянули сетевой стек - соединения стабильнее при высоких нагрузках
Контейнеры теперь стартуют быстрее за счёт улучшений в open_tree - меньше оверхеда при разворачивании
В Kconfig наконец дали больше свободы кастомизации - можно заменить Tux на свой логотип
Поддержка железа тоже прокачана - AMD и Intel работают эффективнее без ручных оптимизаций
Главное здесь не список фич, а тренд. Ядро постепенно избавляется от исторического балласта и становится более предсказуемым и удобным для современных нагрузок.
https://github.com/torvalds/linux/releases/tag/v7.0
🐍 Python полезные ресурсы 🚀Max
@pythonl
🔥19❤4👍4🤡1
Forwarded from ODS Events
Привет!
Встречайте четырнадцатый выпуск подкаста "Капитанский мостик". Ведущие подкаста Валентин Малых и Дмитрий Колодезев обсуждают последние новости в области технологий, включая конфликты между крупными компаниями, изменения в политике открытости моделей и влияние геополитики на развитие технологий.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Встречайте четырнадцатый выпуск подкаста "Капитанский мостик". Ведущие подкаста Валентин Малых и Дмитрий Колодезев обсуждают последние новости в области технологий, включая конфликты между крупными компаниями, изменения в политике открытости моделей и влияние геополитики на развитие технологий.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
❤2
Forwarded from Китай.AI
🔥 Huawei раскрывает амбициозный трёхлетний план: три поколения Ascend за три года
Несмотря на жёсткие санкции США, Huawei не просто выживает в сфере ИИ-чипов, а уверенно строит собственную империю вычислительной мощности. На конференции Huawei Connect в 2025 году компания официально представила дорожную карту развития Ascend на ближайшие три года.
Что ждёт рынок:
• Ascend 950 (2026 год) — ближайшее поколение
Включает две версии:
- 950PR (уже в производстве): оптимизирован для prefill-этапа инференса и рекомендательных систем. Выдаёт до 1,56 петафлопс в FP4 и в два раза мощнее китайской версии Nvidia H20.
- 950DT (Q4 2026): фокус на decode-этапе инференса и обучении моделей. Использует собственную HBM-память HiZQ 2.0 (до 144 ГБ), пропускную способность памяти 4 ТБ/с и интерконнект 2 ТБ/с.
• Ascend 960 (2027 год)
Удваивает вычислительную мощность, пропускную способность памяти, объём памяти и количество портов интерконнекта по сравнению с 950-й серией. Значительно повысит производительность как в обучении, так и в инференсе. Поддерживает HiF4 - более точный 4-битный формат.
• Ascend 970 (Q4 2028)
Ещё одно удвоение: в два раза больше производительности в FP4 и FP8, удвоенная пропускная способность интерконнекта и рост скорости доступа к памяти минимум в 1,5 раза.
Это уже не просто «замена Nvidia». Huawei переходит от использования базовых компонентов к полноценному доминированию в ключевых характеристиках: вычислительная мощность, память, интерконнект и энергоэффективность. Каждый новый чип становится заметно сильнее предыдущего, а экосистема Atlas и поддержка CUDA делают переход для китайских компаний всё более привлекательным.
Похоже, 2026–2028 годы станут настоящим прорывом для китайского ИИ-железа. Huawei планомерно закрывает отставание и создаёт независимую технологическую базу.
Оригинальная статья
#КитайскийИИ #Huawei #Ascend
Несмотря на жёсткие санкции США, Huawei не просто выживает в сфере ИИ-чипов, а уверенно строит собственную империю вычислительной мощности. На конференции Huawei Connect в 2025 году компания официально представила дорожную карту развития Ascend на ближайшие три года.
Что ждёт рынок:
• Ascend 950 (2026 год) — ближайшее поколение
Включает две версии:
- 950PR (уже в производстве): оптимизирован для prefill-этапа инференса и рекомендательных систем. Выдаёт до 1,56 петафлопс в FP4 и в два раза мощнее китайской версии Nvidia H20.
- 950DT (Q4 2026): фокус на decode-этапе инференса и обучении моделей. Использует собственную HBM-память HiZQ 2.0 (до 144 ГБ), пропускную способность памяти 4 ТБ/с и интерконнект 2 ТБ/с.
• Ascend 960 (2027 год)
Удваивает вычислительную мощность, пропускную способность памяти, объём памяти и количество портов интерконнекта по сравнению с 950-й серией. Значительно повысит производительность как в обучении, так и в инференсе. Поддерживает HiF4 - более точный 4-битный формат.
• Ascend 970 (Q4 2028)
Ещё одно удвоение: в два раза больше производительности в FP4 и FP8, удвоенная пропускная способность интерконнекта и рост скорости доступа к памяти минимум в 1,5 раза.
Это уже не просто «замена Nvidia». Huawei переходит от использования базовых компонентов к полноценному доминированию в ключевых характеристиках: вычислительная мощность, память, интерконнект и энергоэффективность. Каждый новый чип становится заметно сильнее предыдущего, а экосистема Atlas и поддержка CUDA делают переход для китайских компаний всё более привлекательным.
Похоже, 2026–2028 годы станут настоящим прорывом для китайского ИИ-железа. Huawei планомерно закрывает отставание и создаёт независимую технологическую базу.
Оригинальная статья
#КитайскийИИ #Huawei #Ascend
Huawei Central
Huawei AI Chip: Three years, Three major AI chip development
Huawei has undergone major development in the AI chip industry for the past two years, using its Ascend family. But the company is now aiming for big wins! In the next three years, the Chinese OEM targets a dynamic AI semiconductor empire. Unlike big tech…
👍4🔥2🤡1
Forwarded from Анализ данных (Data analysis)
⚡️ NVIDIA раздает жирнейший набор API - почти сотка нейросетей бесплатно
Без лишнего шума: открыли доступ к 95+ моделям сразу. Внутри всё, что сейчас в топе - DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, GLM и ещё пачка инструментов под любые задачи.
Можно собирать свои продукты без вложений: озвучка, чат-боты, липсинк, генерация видео, дизайн. Всё через API, без костылей и с нормальным качеством.
Самое интересное - выкатили доступ к своим моделям. Обязательно попробуй Nemotron: отлично режет шум и вытягивает звук даже с плохого микрофона.
Забирай, пока не прикрыли.
https://build.nvidia.com/models
#NVIDIA
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Без лишнего шума: открыли доступ к 95+ моделям сразу. Внутри всё, что сейчас в топе - DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, GLM и ещё пачка инструментов под любые задачи.
Можно собирать свои продукты без вложений: озвучка, чат-боты, липсинк, генерация видео, дизайн. Всё через API, без костылей и с нормальным качеством.
Самое интересное - выкатили доступ к своим моделям. Обязательно попробуй Nemotron: отлично режет шум и вытягивает звук даже с плохого микрофона.
Забирай, пока не прикрыли.
https://build.nvidia.com/models
#NVIDIA
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
❤5👍3
Forwarded from AI VK Hub
LLM сегодня — уже де-факто стандарт, но ключевой вопрос остаётся открытым: как именно они учатся решать задачи?
Особенно это касается in-context learning (ICL) — способности обучаться «на лету» во время инференса. Работа с ICML 2025 предлагает неожиданный поворот: возможно, ICL — это не фундаментальное свойство, а лишь временный режим работы модели.
Авторы статьи изучают поведение модели по ее поведению в специально подобранных тестах. Это позволяет разделить, на что опирается модель: на контекст или на знания, зашитые в весах. В результате экспериментов было показано, что внутри модели сосуществуют несколько стратегий обучения.
Помимо ICL появляется гибридный режим — context-constrained in-weights learning (CIWL), где модель использует веса, но с учётом ограничений из контекста.
При этом:
Эксперименты сделаны максимально «чисто»:
Ключевой инструмент — набор behavioral evaluators, которые «ломают» разные источники сигналов:
Именно Flip evaluator — центральный: он показывает, какой сигнал выбирает модель при конфликте. Через него авторы восстанавливают динамику стратегий во время обучения.
Работа показывает нетривиальную механику обучения трансформерных моделей: поведение трансформеров — это не одна способность, а динамика стратегий, которые меняются по ходу обучения. И, возможно, ICL — это не фундамент модели, а лишь побочный эффект этой динамики.
А что думаете вы?
Замечали ли вы, что модель «переключает режим» — между использованием контекста и знаниями из весов?👇
Обзор статьи подготовлен командой AI VK
#обзорстатьи
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1
Forwarded from Python/ django
Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang
Код и веса уже на платформе GitVerse.
Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8🙈7👍4🤡3😁1🙏1🙉1🙊1
Forwarded from База знаний AI
В «Газпром нефти» разработали ИИ-агента для проектирования вариантов расстановки нефтяных скважин
В основе ИИ-агента — метод обучения с подкреплением. Он сам ищет оптимальную стратегию, анализирует ошибки и находит неочевидные инженерные решения. Для обучения использовались терабайты данных гидродинамических симуляций, полученных на реальных скважинах.
ИИ-агент обрабатывает миллионы параметров, в том числе геологические особенности месторождений, технические возможности бурения и экономику проекта. Он определяет количество и тип конструкций скважин и предлагает несколько вариантов моделирования.
Инструмент проектирует до 1 тыс. вариантов расстановки нефтяных скважин за час и ускоряет моделирование бурения в пять раз. Решение протестировали на трех нефтепромыслах в Ханты-Мансийском и Ямало-Ненецком автономных округах. Утверждается, что предложенные нейросетью варианты бурения оказались эффективнее и точнее стандартных проектов.
🔗 Источник: https://tass.ru/ekonomika/27100297
***
📎 Группа ученых с участием МФТИ, НИУ ВШЭ и Института искусственного интеллекта AIRI в апреле 2026 года представила ML-систему для предсказания межфазного натяжения между нефтью и соленой водой. Решение предназначено для моделирования нефтяных пластов без дорогостоящих экспериментов.
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
В основе ИИ-агента — метод обучения с подкреплением. Он сам ищет оптимальную стратегию, анализирует ошибки и находит неочевидные инженерные решения. Для обучения использовались терабайты данных гидродинамических симуляций, полученных на реальных скважинах.
ИИ-агент обрабатывает миллионы параметров, в том числе геологические особенности месторождений, технические возможности бурения и экономику проекта. Он определяет количество и тип конструкций скважин и предлагает несколько вариантов моделирования.
Инструмент проектирует до 1 тыс. вариантов расстановки нефтяных скважин за час и ускоряет моделирование бурения в пять раз. Решение протестировали на трех нефтепромыслах в Ханты-Мансийском и Ямало-Ненецком автономных округах. Утверждается, что предложенные нейросетью варианты бурения оказались эффективнее и точнее стандартных проектов.
🔗 Источник: https://tass.ru/ekonomika/27100297
***
📎 Группа ученых с участием МФТИ, НИУ ВШЭ и Института искусственного интеллекта AIRI в апреле 2026 года представила ML-систему для предсказания межфазного натяжения между нефтью и соленой водой. Решение предназначено для моделирования нефтяных пластов без дорогостоящих экспериментов.
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
🤡10❤2👍2
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ В Telegram завезли агентов, которые создают других ботов
Павел Дуров сообщил, что теперь в Telegram можно развернуть бота-агента буквально в пару кликов
Агент может сам создавать новых ботов и управлять ими от вашего имени
Похоже, фича не случайная, её явно готовили под экосистему вроде OpenClaw
Ранее разработчик OpenClaw говорил, что с ним связалась команда Telegram и предложила помощь с интеграцией
Если это так, Telegram превращается не просто в мессенджер
а в платформу для запуска AI-агентов с доступом к миллионам пользователей
https://t.me/durov/490
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Павел Дуров сообщил, что теперь в Telegram можно развернуть бота-агента буквально в пару кликов
Агент может сам создавать новых ботов и управлять ими от вашего имени
Похоже, фича не случайная, её явно готовили под экосистему вроде OpenClaw
Ранее разработчик OpenClaw говорил, что с ним связалась команда Telegram и предложила помощь с интеграцией
Если это так, Telegram превращается не просто в мессенджер
а в платформу для запуска AI-агентов с доступом к миллионам пользователей
https://t.me/durov/490
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
👍14❤3🤬1
Forwarded from NoML Digest
Н.А. Лутовинова (ИПУ РАН), Классические задачи теории расписаний
YouTube->
Дзен->
RuTube->
Файл->
Презентация->
YouTube->
Дзен->
RuTube->
Файл->
Презентация->
🔥3
Forwarded from Machinelearning
⚡️ Qwen3.6-35B-A3B - ставка на эффективную архитектуру, а не на размер
35B параметров, ~3B активных за счёт MoE.
Главное:
- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning
MMMU - 81.7 vs 79.6 MMMU-Pro - 75.3 vs 68.4 MathVista - 86.4 vs 79.8 RealWorldQA - 85.3 vs 70.3.
Практическое значение:
- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач
Apache 2.0 - без ограничений для продакшена
qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B
@ai_machinelearning_big_data
35B параметров, ~3B активных за счёт MoE.
Главное:
- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning
MMMU - 81.7 vs 79.6 MMMU-Pro - 75.3 vs 68.4 MathVista - 86.4 vs 79.8 RealWorldQA - 85.3 vs 70.3.
Практическое значение:
- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач
Apache 2.0 - без ограничений для продакшена
qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B
@ai_machinelearning_big_data
❤6👍3
👍8
Forwarded from Анализ данных (Data analysis)
⚡️ OpenMythos: открытая реконструкция Claude Mythos на PyTorch
Это теоретическую сборка архитектуры Claude Mythos по первым принципам и публичной литературе. Это не веса от Anthropic, а попытка сообщества воспроизвести саму идею.
В основе лежит Recurrent-Depth Transformer: один и тот же параметризованный блок с общими весами прогоняется T раз внутри одного forward pass, так что глубина достигается не новыми слоями, а итерациями. Поверх этого накручен sparse MoE с top-K роутингом, дающий условные вычисления на каждом шаге.
В отличие от классического chain-of-thought, reasoning идёт целиком в непрерывном латентном пространстве, без генерации промежуточных токенов между шагами.
Гипотеза автора: рекурсивный блок плюс разреженные эксперты дают лучший компромисс качество/стоимость инференса и потенциально эмерджентный многошаговый reasoning без раздувания модели.
Схема: Prelude из плотных блоков, зацикленный Shared block с loop-index эмбеддингами и LoRA-адаптерами по глубине, MoE-роутинг, ACT-халтинг для раннего выхода, на выходе RMSNorm и tied LM head.
Полезно тем, кто копает recurrent-depth модели, латентное reasoning и эффективные MoE. Поиграться с архитектурой можно, не дожидаясь релиза весов.
https://github.com/kyegomez/OpenMythos
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Это теоретическую сборка архитектуры Claude Mythos по первым принципам и публичной литературе. Это не веса от Anthropic, а попытка сообщества воспроизвести саму идею.
В основе лежит Recurrent-Depth Transformer: один и тот же параметризованный блок с общими весами прогоняется T раз внутри одного forward pass, так что глубина достигается не новыми слоями, а итерациями. Поверх этого накручен sparse MoE с top-K роутингом, дающий условные вычисления на каждом шаге.
В отличие от классического chain-of-thought, reasoning идёт целиком в непрерывном латентном пространстве, без генерации промежуточных токенов между шагами.
Гипотеза автора: рекурсивный блок плюс разреженные эксперты дают лучший компромисс качество/стоимость инференса и потенциально эмерджентный многошаговый reasoning без раздувания модели.
Схема: Prelude из плотных блоков, зацикленный Shared block с loop-index эмбеддингами и LoRA-адаптерами по глубине, MoE-роутинг, ACT-халтинг для раннего выхода, на выходе RMSNorm и tied LM head.
Полезно тем, кто копает recurrent-depth модели, латентное reasoning и эффективные MoE. Поиграться с архитектурой можно, не дожидаясь релиза весов.
https://github.com/kyegomez/OpenMythos
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
👍8🔥3❤1
Forwarded from Про tech и этих
This media is not supported in your browser
VIEW IN TELEGRAM
Робот-гуманоид побил мировой рекорд человека в полумарафоне. 21,1 км робот Honor пробежал за 50 минут 26 секунд. И никакой тебе одышки.
Человеческий рекорд - 56 минут 42 секунды, и принадлежит он бегуну из Уганды Джейкобу Киплимо.
😎 Читайте Про tech и этих
Теперь и в MAX
Человеческий рекорд - 56 минут 42 секунды, и принадлежит он бегуну из Уганды Джейкобу Киплимо.
Теперь и в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6👍3😢1
Forwarded from ODS Events
Привет!
Встречайте пятнадцатый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают текущие тренды в индустрии искусственного интеллекта, ценовой политики, доверия к крупным компаниям и будущего развития технологий.
⭐️ Приглашенный гость выпуска - Михаил Ожгибесов.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
#КапитанскийМостик
Встречайте пятнадцатый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают текущие тренды в индустрии искусственного интеллекта, ценовой политики, доверия к крупным компаниям и будущего развития технологий.
⭐️ Приглашенный гость выпуска - Михаил Ожгибесов.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
#КапитанскийМостик
🔥1