Data Science by ODS.ai 🦜
41K subscribers
1.15K photos
135 videos
7 files
2.18K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
Forwarded from ODS Events
Привет!

Встречайте четырнадцатый выпуск подкаста "Капитанский мостик". Ведущие подкаста Валентин Малых и Дмитрий Колодезев обсуждают последние новости в области технологий, включая конфликты между крупными компаниями, изменения в политике открытости моделей и влияние геополитики на развитие технологий.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
2
Forwarded from Китай.AI
🔥 Huawei раскрывает амбициозный трёхлетний план: три поколения Ascend за три года

Несмотря на жёсткие санкции США, Huawei не просто выживает в сфере ИИ-чипов, а уверенно строит собственную империю вычислительной мощности. На конференции Huawei Connect в 2025 году компания официально представила дорожную карту развития Ascend на ближайшие три года.

Что ждёт рынок:

Ascend 950 (2026 год) — ближайшее поколение
Включает две версии:
- 950PR (уже в производстве): оптимизирован для prefill-этапа инференса и рекомендательных систем. Выдаёт до 1,56 петафлопс в FP4 и в два раза мощнее китайской версии Nvidia H20.
- 950DT (Q4 2026): фокус на decode-этапе инференса и обучении моделей. Использует собственную HBM-память HiZQ 2.0 (до 144 ГБ), пропускную способность памяти 4 ТБ/с и интерконнект 2 ТБ/с.

Ascend 960 (2027 год)
Удваивает вычислительную мощность, пропускную способность памяти, объём памяти и количество портов интерконнекта по сравнению с 950-й серией. Значительно повысит производительность как в обучении, так и в инференсе. Поддерживает HiF4 - более точный 4-битный формат.

Ascend 970 (Q4 2028)
Ещё одно удвоение: в два раза больше производительности в FP4 и FP8, удвоенная пропускная способность интерконнекта и рост скорости доступа к памяти минимум в 1,5 раза.

Это уже не просто «замена Nvidia». Huawei переходит от использования базовых компонентов к полноценному доминированию в ключевых характеристиках: вычислительная мощность, память, интерконнект и энергоэффективность. Каждый новый чип становится заметно сильнее предыдущего, а экосистема Atlas и поддержка CUDA делают переход для китайских компаний всё более привлекательным.

Похоже, 2026–2028 годы станут настоящим прорывом для китайского ИИ-железа. Huawei планомерно закрывает отставание и создаёт независимую технологическую базу.

Оригинальная статья

#КитайскийИИ #Huawei #Ascend
👍4🔥2🤡1
⚡️ NVIDIA раздает жирнейший набор API - почти сотка нейросетей бесплатно

Без лишнего шума: открыли доступ к 95+ моделям сразу. Внутри всё, что сейчас в топе - DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, GLM и ещё пачка инструментов под любые задачи.

Можно собирать свои продукты без вложений: озвучка, чат-боты, липсинк, генерация видео, дизайн. Всё через API, без костылей и с нормальным качеством.

Самое интересное - выкатили доступ к своим моделям. Обязательно попробуй Nemotron: отлично режет шум и вытягивает звук даже с плохого микрофона.
Забирай, пока не прикрыли.

https://build.nvidia.com/models

#NVIDIA

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
5👍3
Forwarded from AI VK Hub
⚙️ LLM меняют стратегию: что происходит внутри модели во время обучения

LLM сегодня — уже де-факто стандарт, но ключевой вопрос остаётся открытым: как именно они учатся решать задачи?

Особенно это касается in-context learning (ICL) — способности обучаться «на лету» во время инференса. Работа с ICML 2025 предлагает неожиданный поворот: возможно, ICL — это не фундаментальное свойство, а лишь временный режим работы модели.

➡️ Что происходит внутри LLM

Авторы статьи изучают поведение модели по ее поведению в специально подобранных тестах. Это позволяет разделить, на что опирается модель: на контекст или на знания, зашитые в весах. В результате экспериментов было показано, что внутри модели сосуществуют несколько стратегий обучения.

Помимо ICL появляется гибридный режим — context-constrained in-weights learning (CIWL), где модель использует веса, но с учётом ограничений из контекста.

При этом:
🟣ICL возникает на ранних этапах и даёт быстрый буст;
🟣затем постепенно «затухает»;
🟣и уступает место CIWL.

➡️ Как это измерили

Эксперименты сделаны максимально «чисто»:
🟣небольшой transformer (2 слоя, attention-only);
🟣синтетическая few-shot задача (Omniglot).

Ключевой инструмент — набор behavioral evaluators, которые «ломают» разные источники сигналов:
🟣ICL evaluator → рушит выученные соответствия;
🟣IWL evaluator → убирает нужный пример из контекста;
🟣CIWL evaluator → сохраняет метку, но ломает связь с примером;
🟣Flip evaluator → создаёт конфликт «контекст vs веса».

Именно Flip evaluator — центральный: он показывает, какой сигнал выбирает модель при конфликте. Через него авторы восстанавливают динамику стратегий во время обучения.

➡️ Почему это важно

Работа показывает нетривиальную механику обучения трансформерных моделей: поведение трансформеров — это не одна способность, а динамика стратегий, которые меняются по ходу обучения. И, возможно, ICL — это не фундамент модели, а лишь побочный эффект этой динамики.

А что думаете вы?
Замечали ли вы, что модель «переключает режим» — между использованием контекста и знаниями из весов?👇

Обзор статьи подготовлен командой AI VK
#обзорстатьи
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21
Forwarded from Python/ django
🚀 GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!

Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang

Код и веса уже на платформе GitVerse.

Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8🙈7👍4🤡3😁1🙏1🙉1🙊1
Forwarded from База знаний AI
В «Газпром нефти» разработали ИИ-агента для проектирования вариантов расстановки нефтяных скважин

В основе ИИ-агента — метод обучения с подкреплением. Он сам ищет оптимальную стратегию, анализирует ошибки и находит неочевидные инженерные решения. Для обучения использовались терабайты данных гидродинамических симуляций, полученных на реальных скважинах.

ИИ-агент обрабатывает миллионы параметров, в том числе геологические особенности месторождений, технические возможности бурения и экономику проекта. Он определяет количество и тип конструкций скважин и предлагает несколько вариантов моделирования.

Инструмент проектирует до 1 тыс. вариантов расстановки нефтяных скважин за час и ускоряет моделирование бурения в пять раз. Решение протестировали на трех нефтепромыслах в Ханты-Мансийском и Ямало-Ненецком автономных округах. Утверждается, что предложенные нейросетью варианты бурения оказались эффективнее и точнее стандартных проектов.

🔗 Источник: https://tass.ru/ekonomika/27100297

***
📎 Группа ученых с участием МФТИ, НИУ ВШЭ и Института искусственного интеллекта AIRI в апреле 2026 года представила ML-систему для предсказания межфазного натяжения между нефтью и соленой водой. Решение предназначено для моделирования нефтяных пластов без дорогостоящих экспериментов.

---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
🤡102👍2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ В Telegram завезли агентов, которые создают других ботов

Павел Дуров сообщил, что теперь в Telegram можно развернуть бота-агента буквально в пару кликов

Агент может сам создавать новых ботов и управлять ими от вашего имени

Похоже, фича не случайная, её явно готовили под экосистему вроде OpenClaw

Ранее разработчик OpenClaw говорил, что с ним связалась команда Telegram и предложила помощь с интеграцией

Если это так, Telegram превращается не просто в мессенджер
а в платформу для запуска AI-агентов с доступом к миллионам пользователей

https://t.me/durov/490

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
👍143🤬1
Forwarded from NoML Digest
Н.А. Лутовинова (ИПУ РАН), Классические задачи теории расписаний

YouTube->
Дзен->
RuTube->
Файл->
Презентация->
🔥3
Forwarded from Machinelearning
⚡️ Qwen3.6-35B-A3B - ставка на эффективную архитектуру, а не на размер

35B параметров, ~3B активных за счёт MoE.

Главное:

- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning

MMMU - 81.7 vs 79.6 MMMU-Pro - 75.3 vs 68.4 MathVista - 86.4 vs 79.8 RealWorldQA - 85.3 vs 70.3.

Практическое значение:

- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач

Apache 2.0 - без ограничений для продакшена

qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B

@ai_machinelearning_big_data
6👍3
⚡️ OpenMythos: открытая реконструкция Claude Mythos на PyTorch

Это теоретическую сборка архитектуры Claude Mythos по первым принципам и публичной литературе. Это не веса от Anthropic, а попытка сообщества воспроизвести саму идею.

В основе лежит Recurrent-Depth Transformer: один и тот же параметризованный блок с общими весами прогоняется T раз внутри одного forward pass, так что глубина достигается не новыми слоями, а итерациями. Поверх этого накручен sparse MoE с top-K роутингом, дающий условные вычисления на каждом шаге.

В отличие от классического chain-of-thought, reasoning идёт целиком в непрерывном латентном пространстве, без генерации промежуточных токенов между шагами.

Гипотеза автора: рекурсивный блок плюс разреженные эксперты дают лучший компромисс качество/стоимость инференса и потенциально эмерджентный многошаговый reasoning без раздувания модели.

Схема: Prelude из плотных блоков, зацикленный Shared block с loop-index эмбеддингами и LoRA-адаптерами по глубине, MoE-роутинг, ACT-халтинг для раннего выхода, на выходе RMSNorm и tied LM head.

Полезно тем, кто копает recurrent-depth модели, латентное reasoning и эффективные MoE. Поиграться с архитектурой можно, не дожидаясь релиза весов.

https://github.com/kyegomez/OpenMythos

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
👍9🔥31
Forwarded from Colonelcassad
Мусорные контейнеры в Домодедово.
Я понял, это намек...😀
🤡8😁3🤬1
Forwarded from Про tech и этих
This media is not supported in your browser
VIEW IN TELEGRAM
Робот-гуманоид побил мировой рекорд человека в полумарафоне. 21,1 км робот Honor пробежал за 50 минут 26 секунд. И никакой тебе одышки.

Человеческий рекорд - 56 минут 42 секунды, и принадлежит он бегуну из Уганды Джейкобу Киплимо.

😎 Читайте Про tech и этих
Теперь и в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
😁7👍31😢1
Forwarded from ODS Events
Привет!

Встречайте пятнадцатый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают текущие тренды в индустрии искусственного интеллекта, ценовой политики, доверия к крупным компаниям и будущего развития технологий.
⭐️ Приглашенный гость выпуска - Михаил Ожгибесов.

Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

#КапитанскийМостик
🔥1
Forwarded from Machinelearning
✔️ KIMI K2.6 за ночь обогнала LM Studio на маке!

В блоге о запуске новой модели Kimi есть история, от которой немного отвисает челюсть.

Моделька сама, без человека, поставила себе на мак Qwen3.5-0.8B и решила, что дефолтный инференс её не устраивает. Дальше она села писать свой, причём не на привычном питоне или C++, а на Zig.

В итоге скорость генерации выросла примерно с 15 до 193 токенов в секунду. То есть больше чем в десять раз.

И это оказалось на 20 процентов быстрее, чем LM Studio, которой пользуются тысячи людей именно для локального запуска моделей.

Больше 4000 вызовов инструментов, 12 часов непрерывной работы и 14 итераций, пока всё не сошлось.

Метрики K2.6 выглядят пртилично: SOTA среди опенсорса на HLE с тулзами, сильные результаты на SWE-Bench Pro, BrowseComp и математических бенчах с питоном.

Но запоминается больше всего этот эпизод с Zig. Потому что одно дело проходить тесты, и совсем другое- взять незнакомый язык и переписать на нём чужой рантайм так, чтобы он обогнал популярный продукт.

🔗 API: https://platform.moonshot.ai
🔗 Tech blog: https://kimi.com/blog/kimi-k2-6
🔗 Weights & code: https://huggingface.co/moonshotai/Kimi-K2.6

@ai_machinelearning_big_data

#KIMI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🤡1
Forwarded from AI VK Hub
🧠 MLR-Bench — на пути автоматизации научных исследований

Идея автоматизации науки давно витает в воздухе — и постепенно становится предметом системного исследования. В этой работе авторы представляют MLR-Bench — бенчмарк для оценки качества научных работ, сгенерированных LLM и агентными системами.

Бенчмарк включает:
🟣201 научную задачу (на основе анализа публикаций топ-конференций за последние 3 года);
🟣MLR-Judge — систему оценки по критериям новизны, значимости и последовательности;
🟣MLR-Agent — агента, способного генерировать идеи, планировать исследования, писать и запускать код, а также оформлять текст статьи.

Агент может работать в двух режимах: end-to-end или пошагово (идея → план → эксперименты → текст).

Авторы статьи показывают, что MLR-Bench даёт довольно хорошие результаты при оценке работ.

Сравнение с 10 ML-экспертами показывает, что распределение различий между экспертами ≈ различиям между LLM и экспертами. Помимо этого, оценки MLR-Judge во многих случаях напрямую согласуются с экспертными.

Кроме того, авторы отмечают ряд закономерностей в поведении агентов при написании работ. Во-первых, действительно новые идеи встречаются редко — чаще это комбинации существующих подходов. При этом моделям сложно убедительно объяснить значимость и полезность предложенного метода.

Во-вторых, заметны проблемы с кодом. Частая ситуация: код не запускается (например, из-за зависимостей), но агент при этом генерирует правдоподобные результаты и аккуратные графики, как будто всё отработало корректно. И это не полностью исправляется даже явными инструкциями.

Общий вывод авторов довольно сдержанный:
➡️ пока рано говорить об автоматизации научных исследований

Во многом из-за непрозрачности процесса — не всегда понятно, как получен результат и можно ли ему доверять. Авторы позиционируют работу как один из первых шагов к повышению доверия к AI-исследованиям.

Как вам кажется: мы движемся к автоматизации науки — или к росту числа «красивых, но сомнительных» результатов?

И главный вопрос: долго ли продержится классическая наука в текущем виде? 👇

Обзор статьи подготовлен командой AI VK
#обзорстатьи
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉1
Forwarded from Russian OSINT
🤖 Любимая платформа вайбкодеров Lovable допустила 🚰 утечку переписок пользователей с ИИ

Популярная платформа для создания веб-приложений Lovable с помощью 🤖ИИ (реализующая концепцию «vibe coding») оказалась в центре скандала, связанного с утечкой данных и переписок с ИИ. Lovable сейчас пользуется около 8 миллионов пользователей.

Исследователь
обнаружил критическую уязвимость (BOLA — Broken Object Level Authorization) и забил 🥁тревогу. API платформы корректно проверяло токены аутентификации Firebase (подтверждая, что вы — зарегистрированный пользователь), но полностью игнорировало проверку прав собственности на эндпоинтах /projects/{id}/*. Это означает, что любой зарегистрированный пользователь мог подставить ID чужого проекта в запрос и система отдавала данные, считая, что раз токен валиден, доступ разрешен.

Как утверждает ресёрчер, любой пользователь с бесплатным аккаунтом мог через простые API-запросы получить доступ к чужим проектам. Виден был исходный код, ключи от баз данных (credentials), личные данные реальных людей (имена, ссылки на LinkedIn) и, что самое страшное, полная история общения разработчиков с ИИ-чатом.

Что это значит? Пользователи использовали нейросеть как помощника при разработке и без задней мысли скидывали ей логи с ошибками, обсуждали схемы баз данных и делились учетными данными, включая пароли. В логах фигурировала чувствительная информация, вплоть до идентификаторов клиентов платежной системы (Stripe Customer ID).

Исследователь заявил, что первый отчет об уязвимости был отправлен через платформу HackerOne еще 48 дней назад, но ему присвоили статус «triaged» (взят в работу) и по факту проигнорировали. Более того, Lovable закрыли эту уязвимость только для новых проектов, оставив старые полностью открытыми для несанкционированного доступа.

Как такое могло произойти? Изначально Lovable работали по принципу GitHub. Если проект имел статус «Публичный» (а на бесплатном тарифе все проекты были именно такими), то публичным было всё: и код, и история чата с ИИ. Компания считала это нормальным образовательным процессом. Зачем? 🤔Чтобы люди смотрели, как другие создают приложения, и учились.

Разработчики Lovable не учли, что пользователи трактовали слово «Публичный» иначе. Люди думали, что открытым будет только готовый опубликованный сайт, а их рабочая переписка с ИИ (где они «светили» секреты) остается приватной. Осознав ошибку, Lovable разрешили всем делать проекты закрытыми и программно заблокировали доступ к чатам публичных проектов. Но во время обновления серверов в феврале они случайно откатили этот патч и снова выставили чаты на всеобщее обозрение.

Когда багхантеры начали массово репортить об этом на HackerOne, триажеры (модераторы) платформы ошибочно закрывали тикеты без передачи их команде разработчиков. Они сверялись с неясной документацией Lovable и думали: "Ну, это же публичный проект, значит, чаты должны быть видны всем. Это задумка авторов, а не уязвимость".

💔 На данный момент Lovable официально признали свою ошибку, извинились и принудительно закрыли доступ ко всем чатам (публичные проекты).

Всё, что вы когда-либо писали в чат с ИИ (логи ошибок, схемы БД, пароли, Stripe Customer ID, ключи, личные данные и т.д.), уже могло быть прочитано посторонними — особенно если проект был создан до декабря 2025 года и стоял на «публичном» статусе.
— комментируют в X.

🔐Пользователям настоятельно рекомендуется сменить пароли, если они отправлялись ИИ в чат.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🎉1