Data Science by ODS.ai 🦜
41K subscribers
1.15K photos
135 videos
7 files
2.18K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
Всех с праздником!
12🔥4🤡4
Forwarded from Python/ django
🔥 Linux 7.0 - Торвальд и команда вычистили десятилетия грязного легаси и ОС стала реально быстрее!

Линус Торвальдс наконец пошёл на радикальный шаг и начал массовую зачистку старого кода. То, что копилось годами, просто выкинули. Итог - система стала заметно проще, чище и быстрее.

Что изменилось по факту:

XFS сильно прокачали - файловая система стала надёжнее, меньше рисков потери данных и лучше ведёт себя под нагрузкой

Работа с памятью ускорилась примерно на 20%, плюс подтянули сетевой стек - соединения стабильнее при высоких нагрузках

Контейнеры теперь стартуют быстрее за счёт улучшений в open_tree - меньше оверхеда при разворачивании

В Kconfig наконец дали больше свободы кастомизации - можно заменить Tux на свой логотип

Поддержка железа тоже прокачана - AMD и Intel работают эффективнее без ручных оптимизаций

Главное здесь не список фич, а тренд. Ядро постепенно избавляется от исторического балласта и становится более предсказуемым и удобным для современных нагрузок.

https://github.com/torvalds/linux/releases/tag/v7.0

🐍 Python полезные ресурсы 🚀Max

@pythonl
🔥194👍4🤡1
Forwarded from ODS Events
Привет!

Встречайте четырнадцатый выпуск подкаста "Капитанский мостик". Ведущие подкаста Валентин Малых и Дмитрий Колодезев обсуждают последние новости в области технологий, включая конфликты между крупными компаниями, изменения в политике открытости моделей и влияние геополитики на развитие технологий.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
2
Forwarded from Китай.AI
🔥 Huawei раскрывает амбициозный трёхлетний план: три поколения Ascend за три года

Несмотря на жёсткие санкции США, Huawei не просто выживает в сфере ИИ-чипов, а уверенно строит собственную империю вычислительной мощности. На конференции Huawei Connect в 2025 году компания официально представила дорожную карту развития Ascend на ближайшие три года.

Что ждёт рынок:

Ascend 950 (2026 год) — ближайшее поколение
Включает две версии:
- 950PR (уже в производстве): оптимизирован для prefill-этапа инференса и рекомендательных систем. Выдаёт до 1,56 петафлопс в FP4 и в два раза мощнее китайской версии Nvidia H20.
- 950DT (Q4 2026): фокус на decode-этапе инференса и обучении моделей. Использует собственную HBM-память HiZQ 2.0 (до 144 ГБ), пропускную способность памяти 4 ТБ/с и интерконнект 2 ТБ/с.

Ascend 960 (2027 год)
Удваивает вычислительную мощность, пропускную способность памяти, объём памяти и количество портов интерконнекта по сравнению с 950-й серией. Значительно повысит производительность как в обучении, так и в инференсе. Поддерживает HiF4 - более точный 4-битный формат.

Ascend 970 (Q4 2028)
Ещё одно удвоение: в два раза больше производительности в FP4 и FP8, удвоенная пропускная способность интерконнекта и рост скорости доступа к памяти минимум в 1,5 раза.

Это уже не просто «замена Nvidia». Huawei переходит от использования базовых компонентов к полноценному доминированию в ключевых характеристиках: вычислительная мощность, память, интерконнект и энергоэффективность. Каждый новый чип становится заметно сильнее предыдущего, а экосистема Atlas и поддержка CUDA делают переход для китайских компаний всё более привлекательным.

Похоже, 2026–2028 годы станут настоящим прорывом для китайского ИИ-железа. Huawei планомерно закрывает отставание и создаёт независимую технологическую базу.

Оригинальная статья

#КитайскийИИ #Huawei #Ascend
👍4🔥2🤡1
⚡️ NVIDIA раздает жирнейший набор API - почти сотка нейросетей бесплатно

Без лишнего шума: открыли доступ к 95+ моделям сразу. Внутри всё, что сейчас в топе - DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, GLM и ещё пачка инструментов под любые задачи.

Можно собирать свои продукты без вложений: озвучка, чат-боты, липсинк, генерация видео, дизайн. Всё через API, без костылей и с нормальным качеством.

Самое интересное - выкатили доступ к своим моделям. Обязательно попробуй Nemotron: отлично режет шум и вытягивает звук даже с плохого микрофона.
Забирай, пока не прикрыли.

https://build.nvidia.com/models

#NVIDIA

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
5👍3
Forwarded from AI VK Hub
⚙️ LLM меняют стратегию: что происходит внутри модели во время обучения

LLM сегодня — уже де-факто стандарт, но ключевой вопрос остаётся открытым: как именно они учатся решать задачи?

Особенно это касается in-context learning (ICL) — способности обучаться «на лету» во время инференса. Работа с ICML 2025 предлагает неожиданный поворот: возможно, ICL — это не фундаментальное свойство, а лишь временный режим работы модели.

➡️ Что происходит внутри LLM

Авторы статьи изучают поведение модели по ее поведению в специально подобранных тестах. Это позволяет разделить, на что опирается модель: на контекст или на знания, зашитые в весах. В результате экспериментов было показано, что внутри модели сосуществуют несколько стратегий обучения.

Помимо ICL появляется гибридный режим — context-constrained in-weights learning (CIWL), где модель использует веса, но с учётом ограничений из контекста.

При этом:
🟣ICL возникает на ранних этапах и даёт быстрый буст;
🟣затем постепенно «затухает»;
🟣и уступает место CIWL.

➡️ Как это измерили

Эксперименты сделаны максимально «чисто»:
🟣небольшой transformer (2 слоя, attention-only);
🟣синтетическая few-shot задача (Omniglot).

Ключевой инструмент — набор behavioral evaluators, которые «ломают» разные источники сигналов:
🟣ICL evaluator → рушит выученные соответствия;
🟣IWL evaluator → убирает нужный пример из контекста;
🟣CIWL evaluator → сохраняет метку, но ломает связь с примером;
🟣Flip evaluator → создаёт конфликт «контекст vs веса».

Именно Flip evaluator — центральный: он показывает, какой сигнал выбирает модель при конфликте. Через него авторы восстанавливают динамику стратегий во время обучения.

➡️ Почему это важно

Работа показывает нетривиальную механику обучения трансформерных моделей: поведение трансформеров — это не одна способность, а динамика стратегий, которые меняются по ходу обучения. И, возможно, ICL — это не фундамент модели, а лишь побочный эффект этой динамики.

А что думаете вы?
Замечали ли вы, что модель «переключает режим» — между использованием контекста и знаниями из весов?👇

Обзор статьи подготовлен командой AI VK
#обзорстатьи
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21
Forwarded from Python/ django
🚀 GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!

Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang

Код и веса уже на платформе GitVerse.

Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8🙈7👍4🤡3😁1🙏1🙉1🙊1
Forwarded from База знаний AI
В «Газпром нефти» разработали ИИ-агента для проектирования вариантов расстановки нефтяных скважин

В основе ИИ-агента — метод обучения с подкреплением. Он сам ищет оптимальную стратегию, анализирует ошибки и находит неочевидные инженерные решения. Для обучения использовались терабайты данных гидродинамических симуляций, полученных на реальных скважинах.

ИИ-агент обрабатывает миллионы параметров, в том числе геологические особенности месторождений, технические возможности бурения и экономику проекта. Он определяет количество и тип конструкций скважин и предлагает несколько вариантов моделирования.

Инструмент проектирует до 1 тыс. вариантов расстановки нефтяных скважин за час и ускоряет моделирование бурения в пять раз. Решение протестировали на трех нефтепромыслах в Ханты-Мансийском и Ямало-Ненецком автономных округах. Утверждается, что предложенные нейросетью варианты бурения оказались эффективнее и точнее стандартных проектов.

🔗 Источник: https://tass.ru/ekonomika/27100297

***
📎 Группа ученых с участием МФТИ, НИУ ВШЭ и Института искусственного интеллекта AIRI в апреле 2026 года представила ML-систему для предсказания межфазного натяжения между нефтью и соленой водой. Решение предназначено для моделирования нефтяных пластов без дорогостоящих экспериментов.

---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
🤡102👍2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ В Telegram завезли агентов, которые создают других ботов

Павел Дуров сообщил, что теперь в Telegram можно развернуть бота-агента буквально в пару кликов

Агент может сам создавать новых ботов и управлять ими от вашего имени

Похоже, фича не случайная, её явно готовили под экосистему вроде OpenClaw

Ранее разработчик OpenClaw говорил, что с ним связалась команда Telegram и предложила помощь с интеграцией

Если это так, Telegram превращается не просто в мессенджер
а в платформу для запуска AI-агентов с доступом к миллионам пользователей

https://t.me/durov/490

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
👍143🤬1
Forwarded from NoML Digest
Н.А. Лутовинова (ИПУ РАН), Классические задачи теории расписаний

YouTube->
Дзен->
RuTube->
Файл->
Презентация->
🔥3
Forwarded from Machinelearning
⚡️ Qwen3.6-35B-A3B - ставка на эффективную архитектуру, а не на размер

35B параметров, ~3B активных за счёт MoE.

Главное:

- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning

MMMU - 81.7 vs 79.6 MMMU-Pro - 75.3 vs 68.4 MathVista - 86.4 vs 79.8 RealWorldQA - 85.3 vs 70.3.

Практическое значение:

- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач

Apache 2.0 - без ограничений для продакшена

qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B

@ai_machinelearning_big_data
6👍3
⚡️ OpenMythos: открытая реконструкция Claude Mythos на PyTorch

Это теоретическую сборка архитектуры Claude Mythos по первым принципам и публичной литературе. Это не веса от Anthropic, а попытка сообщества воспроизвести саму идею.

В основе лежит Recurrent-Depth Transformer: один и тот же параметризованный блок с общими весами прогоняется T раз внутри одного forward pass, так что глубина достигается не новыми слоями, а итерациями. Поверх этого накручен sparse MoE с top-K роутингом, дающий условные вычисления на каждом шаге.

В отличие от классического chain-of-thought, reasoning идёт целиком в непрерывном латентном пространстве, без генерации промежуточных токенов между шагами.

Гипотеза автора: рекурсивный блок плюс разреженные эксперты дают лучший компромисс качество/стоимость инференса и потенциально эмерджентный многошаговый reasoning без раздувания модели.

Схема: Prelude из плотных блоков, зацикленный Shared block с loop-index эмбеддингами и LoRA-адаптерами по глубине, MoE-роутинг, ACT-халтинг для раннего выхода, на выходе RMSNorm и tied LM head.

Полезно тем, кто копает recurrent-depth модели, латентное reasoning и эффективные MoE. Поиграться с архитектурой можно, не дожидаясь релиза весов.

https://github.com/kyegomez/OpenMythos

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
👍8🔥31
Forwarded from Colonelcassad
Мусорные контейнеры в Домодедово.
Я понял, это намек...😀
🤡8😁3🤬1
Forwarded from Про tech и этих
This media is not supported in your browser
VIEW IN TELEGRAM
Робот-гуманоид побил мировой рекорд человека в полумарафоне. 21,1 км робот Honor пробежал за 50 минут 26 секунд. И никакой тебе одышки.

Человеческий рекорд - 56 минут 42 секунды, и принадлежит он бегуну из Уганды Джейкобу Киплимо.

😎 Читайте Про tech и этих
Теперь и в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6👍3😢1
Forwarded from ODS Events
Привет!

Встречайте пятнадцатый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают текущие тренды в индустрии искусственного интеллекта, ценовой политики, доверия к крупным компаниям и будущего развития технологий.
⭐️ Приглашенный гость выпуска - Михаил Ожгибесов.

Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

#КапитанскийМостик
🔥1