Data Secrets
88.5K subscribers
6.67K photos
719 videos
20 files
2.93K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Wildberries & Russ проведут большой ML-хакатон с призовым фондом 1 300 000 ₽

Если вы студент или просто ищете возможность зайти в индустрию – хакатоны до сих пор один из самых быстрых и честных способов показать себя. Вы, без долгих собеседований, просто берете задачу, решаете ее и сразу видно ваш уровень. Плюс – опыт, кейс в портфолио и, в этом случае, еще и неплохие деньги.

RWB запускают WildHack – хакатон с реальными задачами из логистики, которые решают их ML-команды. Это не учебные кейсы, а именно максимально приближенные к боевым условиям задачи, так что будет непросто, но интересно.

Есть два формата участия:

1. индивидуальный трек (решение ML-задач)
2. командный трек (предстоит разработать полноценный ML-сервис)

Что можно получить:
— часть призового фонда 1,3 млн ₽
— приглашение на стажировку
— шанс сразу же продолжить работу с командой

Регистрация открыта до 8 апреля. Если давно хотели показать себя в таком формате или как раз ищете работу – самое время попробовать.
🗿451712😁11🤨6👍1🔥1👾1
Data Secrets
Дженсен Хуанг заявил, что мы достигли AGI На новом интервью у Лекса Фридмана глава Nvidia прямым текстом сказал: «Я считаю, что мы уже достигли AGI». – Как вы думаете, может ли существовать компания, управляемая такой системой? – Возможно. Например,…
Кстати, вы знали, что Хуанг недавно предложил выплачивать сотрудникам премии токенами?

То есть инженеры получают базовую зарплату плюс половину этой суммы в токенах для повышения продуктивности.

Токены становятся полноценной экономической единицей (появился даже термин токеномика), и Дженсен говорит, что это также метрика продуктивности. Он ожидает, что инженеры с зарплатой $500 тыс. должны тратить минимум $250 тыс. на токены ежегодно, иначе это ред флаг и показатель низкой эффективности сотрудника.
2😁2716123🤨16🗿11🔥7
Новые страсти в отношениях OpenAI и Microsoft

В сеть утек кусок из pre-IPO документа, который OpenAI составляет для инвесторов. Смотрите, в каком забавном контексте там упоминается Microsoft:

Если Microsoft изменит или прекратит свое коммерческое партнёрство с нами, или если мы не сможем успешно диверсифицировать наших деловых партнеров, наш бизнес, перспективы, финансовые результаты и финансовое состояние могут быть неблагоприятно затронуты.


То есть компания описывается уже далеко не как ключевой дружественный партнер, а скорее как ключевой недружественный риск.

И риск этот достаточно реален. Недавно OpenAI объявила о многолетнем стратегическом партнерстве с Amazon. То есть AWS становится эксклюзивным сторонним облачным дистрибьютором.

Microsoft ситуация, конечно, не слишком устраивает. Они считают, что этот контракт с Amazon нарушает их эксклюзивные условия по облачному распространению моделей OpenAI через Azure. Поговаривают, что Microsoft даже рассматривает юридические действия против Amazon и OpenAI из‑за возможного нарушения соглашения.

Самое зрелищное звездное расставание 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
😁8161153😎2👏1🤔11
Почему большинство тестов ИИ-ассистентов не работают в реальности

Российские исследователи из SberAI, MWS AI, а также ИТМО, ВШЭ, МИСИС и других университетов представили методологию DRAGOn – это новый подход к оценке RAG-систем, которые лежат в основе современных ИИ-ассистентов. Ключевая идея в том, чтобы уйти от статичных тестов к динамической среде с постоянно обновляющимися данными. Саму работу приняли на международной конференции EACL 2026.

Классические бенчмарки быстро устаревают и плохо отражают реальные условия. В бизнесе ИИ работает с живыми базами знаний, где важны актуальность и связность фактов, а не просто точность на фиксированном датасете. DRAGOn предлагает тестировать ИИ-системы на свежих новостях, автоматически собирая из них «карту знаний».

Вместо простых вопросов «кто/где/когда», система создает многоуровневые логические задачи. Чтобы ответить, ИИ должен сопоставить несколько фактов из разных новостей, а не просто скопировать кусок текста, а проверкой ответов занимается нейросеть-судья.

Что это дает на практике:
- Задачи становятся многошаговыми, а не тривиальными;
- Проверяется способность связывать факты, а не копировать ответы;
- Оценка учитывает полноту и фактическую точность, а не совпадение слов.

Методологию можно развернуть внутри компании и тестировать ИИ на собственных данных до внедрения. Это позволяет сравнивать решения в реальных сценариях и снижать риски ошибок, особенно в задачах аналитики, поддержки и работы с документами.

https://arxiv.org/abs/2507.05713
68🗿20👍12🤨7🤯5🤩3🫡2❤‍🔥1🔥1👏1😁1
Найдена та самая модель, которую Дженсен Хуанг назвал AGI

https://huggingface.co/Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled-GGUF
😁437🤯231874🏆3🔥2
Сегодня вышло самое масштабное обновление ГигаЧат в этом году. Новость интересна не только самим фактом релиза, а тем, что Сбер выложил код и веса в открытый доступ на HuggingFace под MIT-лицензией, приправив это очень детальным разбором своей инженерной кухни.

Переезд на архитектуру MoE предсказуемо оказался непростым, и в блоге команда довольно откровенно рассказала, например, о том, как боролись с зацикливанием генераций. Плюс ко всему, ребята перевели этап DPO в нативный FP8 — памяти ест в два раза меньше, а качество не падает. По ходу дела еще и откопали критичный баг в SGLang, который портил бенчмарки.

В опенсорс выложены две модели. Первая — флагманская GigaChat Ultra. По замерам в математике и общих рассуждениях она обходит DeepSeek-V3-0324 и Qwen3-235B.
А вот вторая модель – компактная GigaChat-3.1-Lightning. При скромных 1,8 млрд активных параметров она на аренах выдает результаты на уровне GPT-4o. Маленькая, быстрая и при этом конкурентная по качеству база.

Покрутить обновленную модель без развертывания уже можно на сайте.
🗿17391🔥48👍28😁13🤔6🤨6532
Ян Лекун резко шагнул вперед в изобретении универсальной архитектуры для world models

Очень многие точно слышали про JEPA. Расшифровывается JEPA как Joint Embedding Predictive Architecture – Self-Supervised архитектура, предназначенная для понимания внешнего физического мира.

Идея там красивая: вместо предсказания следующего токена или генерации пикселей JEPA пытается предсказывать смысл наблюдаемого фрагмента на основе контекста (по факту это предсказание эмбеддингов).

Лекун считает, что это идеалогическая альтернатива привычному ИИ, потому что предсказание пикселей или токенов – это лишь имитация понимания структуры мира, а тут модель действительно учится понимать физику и логические связи.

Все это здорово, но основная проблема в том, что JEPA очень плохо обучается: лосс почти всегда схлопывается в тривиальное решение и реальной world model не получается.

Но кажется, теперь это препятствие разрушено. Лекун с соавторами выпустили статью, в которой представлена первая end-to-end JEPA, которая обучается из сырых изображений без эвристик, сложных лоссов и прочих танцев с бубном.

Модель красиво называется LeWorldModel (LeWM), и в ней всего 15М параметров. От коллапсов при обучении она защищается очень простым способом: кроме лосса на предсказание следующего latent-state, добавляется регуляризатор, который заставляет латенты быть похожими на изотропное гауссово распределение. Это и есть главный технический ход статьи.

На практике это значит, что рецепт, который раньше был капризным и дорогим в настройке, упростился настолько, что world models наконец-то можно скейлить во что-то рабочее.

Эксперименты, кстати, показывают, что LeWM действительно учит не ерунду, а нечто похожее на физическую структуру мира. Так что идея, кажется, работает.

www.alphaxiv.org/abs/2603.19312v1
2🔥31555👍33😁2415🤔10👨‍💻11
This media is not supported in your browser
VIEW IN TELEGRAM
В Claude Code агент теперь может принимать решения о правах доступа от вашего имени

Обычно варианта два: либо агент спрашивает разрешения очень часто, либо не спрашивает совсем, если установить skip permissions. Первое бесит, второе – небезопасно.

Anthropic выкатили auto mode: в нем Claude сам будет принимать решения о правах доступа и о том, какие действия одобрять, а какие нет.

То есть, по сути, это тот же skip permissions, только над ним еще работает классификатор, который проверяет каждый шаг на предмет потенциально деструктивных действий. Безопасные действия выполняются автоматически. Рискованные блокируются, и Claude применяет другой подход.

Выглядит очень удобно, и все-таки это следующий уровень доверия к ассистенту. Так что доброе утро, у нас тут новая глава Черного Зеркала 🤡
Please open Telegram to view this post
VIEW IN TELEGRAM
112056😁30👍13🤔75🦄1
За какие идеи можно получить деньги от МТС?

Подключайся 26 марта в 18:00 на встречу с экспертами МТС: они расскажут, какие решения лучше использовать для победы на True Tech Hack с призовым фондом в 1 500 000 рублей.

Будет полезно инженерам данных, разработчикам и аналитикам. Узнаешь про практику применения ИИ, выберешь одну из трех задач и задашь по ней вопросы.

Все подробности читай тут
🗿313😁1
Почему OpenAI закрывает SORA

Вчера вечером OpenAI объявили, что прощаются с SORA. На самом деле, решение было не то чтобы ожидаемым, но лежало на поверхности. И вот почему:

1. Юнит-экономика, вероятно, очень далека от того, чтобы сойтись. Публичные оценки доходят до $15 млн/день вычислительных затрат (≈ $5+ млрд/год в пересчете), при том что сама компания через руководителя Sora публично называла экономику «неустойчивой». Несложные расчеты, даже основанные только на прайсе в API, показывают, что маржа каждого ролика sora‑2, скорее всего, отрицательна.

2. При этом другие метрики далеки от привычных OpenAI. Если у ChatGPT WAU и ретеншен пользователя запредельные, то у SORA аналитики из a16z насчитали retention < 8% на 30‑й день. Хотя приложение и скачивали очень активно в самом начале, но охваты оно не держит.

2. В начале года OpenAI сами говорили, что компьют – их главный ресурс. Логично, что они стараются перераспределить его разумно, и сверхдорогой видеопродукт становится в этой картине самым стратегически уязвимым. Так что это в первую очередь решение высвободить мощности для других направлений.

Кстати, важная деталь: исходная формулировка «We’re saying goodbye to Sora» была уточнена до «We’re saying goodbye to the Sora app», так что тут трактовка уже несколько другая. Возможно, ричерч подразделение видеомоделей все-таки продолжит работать.
72🤔2524👍54🔥3😁3
Роботы начнут думать быстрее: исследователи из Центрального университета использовали квантовый процессор для ускорения движений робо-руки в 30 раз

Российские ученые из научного центра Центрального университета и Университета Иннополис решили главную проблему робототехники — как заставить робота двигаться быстро, точно и без лишних действий.

На практике это адская вычислительная задача. Робот должен мгновенно решить, как попасть в определенную точку, ничего не задев. И чем больше ограничений, тем медленнее думают кремниевые процессоры.

– Исследователи переписали задачу в формат, понятный квантовым компьютерам D-Wave: все возможные движения представляются как комбинация нулей и единиц, среди которых нужно найти оптимальное положение «руки» робота.

– Потом в дело идет технология квантового отжига — она быстрее находит лучшее решение среди миллиарда вариантов.

– Новый метод дал ускорение более чем в 30 раз. Для роботов это означает меньше задержек, более плавные движения и отсутствие лишней суеты.

Подход актуален для всех сфер, например, автономного транспорта и хирургии. Его распространение даст буст российской робототехники и сделает ее более конкурентоспособной.

Квантовые технологии уже не из будущего — они учат роботов быстрее поднимать чашки
1161👍73🤯48😁17❤‍🔥16🗿8🤔4🏆4🤨3
Google перепридумали квантование: их алгоритм TurboQuant может стать новым стандартом эффективности LLM

В современных моделях проблема памяти не только в числе параметров, но и в том, что модель постоянно таскает за собой огромное количество векторов – в KV-cache для длинного контекста и в индексах vector search для RAG. Именно они тормозят модель и делают инференс дорогим. Можно квантовать векторы (то есть уменьшать битность вычислений), но тогда модель теряет в качестве.

Google придумали, как сжимать умнее: не просто округлить числа погрубее, а сделать это так, чтобы модель почти не замечала потери точности. Для практики это означает три вещи:

1. Длинный контекст становится дешевле
2. Инференс на том же железе ускоряется
3. Vector search по огромным базам становится компактнее и быстрее


Технически метод TurboQuant состоит из двух слоев. PolarQuant сначала преобразует вектор через случайное вращение так, чтобы его можно было эффективно сжать с минимальными служебными затратами – именно за счет этого происходит основное сжатие без потери смысла. Затем QJL (Quantized Johnson-Lindenstrauss) добавляет сверхдешевую коррекцию ошибки, кодируя остаток всего одним дополнительным битом на компоненту. Это помогает еще точнее восстановить attention score с минимальной нагрузкой на вычисления.

В экспериментах TurboQuant показывает лучший баланс между искажением скалярного произведения, recall и размером KV-cache – его удалось квантануть аж до 3 бит без дообучения и без компромисса по точности. В статье подчеркивается, что значения близки к теоретическим нижним границам, то есть это почти оптимум.

Очень сильная инфрастуктурная работа. Google, как всегда, молодцы.

research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
🔥13634👍17😁3❤‍🔥2🤝1
🚀Yandex B2B Tech выделит компаниям 500 млн рублей на разработку ИИ-агентов

Если вы планируете внедрить ИИ в свои решения, есть шанс упростить и ускорить запуск. Яндекс открывает программу Yandex AI Studio Boost, в рамках которой компании могут получить грант до 1 млн рублей на создание ИИ-агентов и других ИИ-продуктов на базе Yandex AI Studio в течение полугода.

Помимо финансирования, участники получают экспертную поддержку, маркетинговые ресурсы и скидку до 70% на платформу до полугода после окончания программы. Программа подходит стартапам и крупным компаниям, уже работающим над цифровыми продуктами для внешнего рынка и планирующим интеграцию ИИ.

Среди первых участников — проект R77.ai, ускоряющий проверку документов для банков, страховых и девелоперов до нескольких минут; Noumy.ai, внедряющий анализ кандидатов и их поведения на интервью с помощью моделей машинного обучения; и GO2AI, создающий ИИ-агентов для стратегического планирования, что в пилоте позволило сократить цикл принятия решений с нескольких дней до часа.

Участники программы также могут получить софинансирование маркетинговых активностей и разместить свои решения на маркетплейсе внешних продуктов Yandex Cloud. Ранее в рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁28🗿1312🔥5👍4
OpenAI закончила претрейн своей следующей модели, а еще в стартапе появился отдел AGI Deployment

The Information получили доступ к нескольким внутренним запискам стартапа и выяснили, что там сейчас происходят довольно большие изменения.

Альтман якобы говорит сотрудникам, что в течение нескольких недель у компании будет очень сильная модель, которая "действительно может повлиять на экономику". Речь идет о модели под кодовым названием Spud (картошка), и судя по всему, ее претрейн уже окончен.

Вокруг этой модели меняется структура стартапа. Во-первых, Альтман перестает лично курировать часть своих прямых подчиненных (в частности, safety & security команды) и с головой уходит в привлечение капитала, выстраивание цепочек поставок и строительство дата‑центров.

Во-вторых, продуктовая организация под руководством Fidji Simo переименовывается в «AGI Deployment». Эта команда будет отвечать за то, как следующая модель будет работать в продуктах. Известно также, что они планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.

Почему в названии фигурирует именно AGI (а не AI, по старинке), непонятно. Может, это прогрев перед официальным объявлением достижения AGI?

Говорят, кстати, что отказ от SORA App – тоже часть перестройки и перераспределения компьюта для Spud.
🤔7121👍14🤓432👏1😁11
MWS Cloud запустила MWS GPT Model Hub - сервис по работе с большими языковыми моделями.

Его суть в том, что LLM можно за несколько минут подключить к продуктам компании и системам без управления инфраструктурой моделей. Благодаря этому время вывода продуктов с AI-функциями на рынок может сократиться в 2 раза.

Сервис запущен в публичном облаке MWS Cloud Platform. Компании из России могут внедрять ведущие мировые модели. Сейчас, к примеру, доступны LLM от DeepSeek, Google, Alibaba и другие, а до конца 2025 года появятся еще 10 моделей, в том числе преобразующих текст в речь и обратно.

Инструмент позволяет разработчикам интегрировать ИИ-функции – от чат-ботов до систем аналитики – без необходимости самостоятельно разворачивать и обслуживать ИТ-инфраструктуру.

Настоящий подарок для backend-разработчиков, AI-инженеров, DevOps и platform-команд, разработчиков SaaS-продуктов и стартап-команд.
🗿399🔥4😁4❤‍🔥2👍211