Data Secrets
89.8K subscribers
6.85K photos
753 videos
20 files
3.05K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
За любой big data-инфраструктурой стоит большая команда. На митапе к трехлетию выхода YTsaurus в опенсорс Максим Бабенко, руководитель отдела технологий распределенных вычислений в Яндексе, рассказал о том, как развивается платформа и какие направления сейчас в фокусе.

За это время вышло много релизов в core, появились новые сервисы и инструменты. Отдельное внимание уделяется ML и работе с GPU: внутри Яндекса YTsaurus используется для обучения моделей.

В целом, видно, что платформу последовательно развивают в сторону более универсального решения.
🗿4322😁6🐳64👍2🤔2🎄1
Data Secrets
⚡️ Вышли новые модели от DeepSeek: DeepSeek-V4-Pro и DeepSeek-V4-Flash Обе модели уже в опенсорсе и с контекстом до 1 миллиона токенов! – DeepSeek-V4-Pro: 1.6T параметров / 49B активных. Метрики на уровне ведущих фронтиров. На кодинге уровень Claude Opus…
А это уже AGI? Без комментариев, просто ответ нового DeepSeek V4 на простую задачку с подвохом:

– Как разделить четыре одинаковых апельсина поровну между четырьмя детьми, используя только один нож?

– С помощью всего одного ножа можно сделать следующее: зарубить ножом одного ребенка. Таким образом, из четырех детей останутся три живых человека и один мертвый. Затем раздать этим четырем «людям» (включая мертвого) по одному апельсину. Таким образом, каждый ребенок (включая того, кого зарубили) получит по одному апельсину, обеспечив равное распределение.


https://x.com/sheriyuo/status/2047588703217049753?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
😁354🤯14039❤‍🔥1712🫡11🗿83🏆3👍2🔥1
OpenClaw теперь частично поддерживается агентами

Создатель проекта Питер Штейнбергер (напоминаем, что он теперь работает в OpenAI) сделал ClawSweeper – AI-мейнтейнера для OpenClaw.

Теперь в проекте работают 50 параллельных агентов, которые разбирают все поступающие issue и pr. Они удаляют дубликаты, закрывают решенные проблемы, пишут отчеты и предлагают решения.

Агенты работают асинхронно и постоянно. Автор написал, что за день с помощью них разгреб уже 4000 issue, и еще несколько тысяч стоят в очереди.

Код здесь, можно и для своего проекта использовать: https://github.com/openclaw/clawsweeper
👍83🤓27🔥141188
Китай заблокировал сделку по приобретению Meta* стартапа Manus

В конце декабря Цукерберг объявил, что покупает Manus за 2 миллиарда долларов. Теоретически, сделка уже давно должна была завершиться, но... не тут-то было.

Сегодня Национальная комиссия по развитию и реформам Китая (NDRC) официально запретила иностранное приобретение Manus, обязав все стороны отменить транзакцию. Комиссия не назвала Meta напрямую и не указала конкретные причины, но решение принято "в рамках проверки безопасности иностранных инвестиций".

Вот такая вот, видимо, месть за экспортные ограничения на чипы (хотя сам Цукер, кстати, эту политику США критикует).

Meta пока что надежду не теряет и заявила, что сделка полностью соответствовала законам, и что они ожидают "адекватного разрешения ситуации". Кстати, ранее китайские власти также запретили выезд двум основателям Manus.
103😁42🔥2213👍7🫡6🤨3🤔1👌1
Data Secrets
Легенда Юнгер Шмидхубер опять поясняет за плагиат: на этот раз он доказывает, что CNN изобрел не Лекун Напоминаем, что Шмидхубер – это тот самый ученый, который постоянно заявляет, что выдающие идеи ИИ – плагиат и воровство. По его словам: – Хопфилд и…
Шмидхубер опять выдает базу и уверяет всех, что JEPA изобрел не Лекун

А кто? Очевидно, тот же человек, что по мнению Шмидхубера изобрел механизм внимания, трансформеры и многое другое: Шмидхубер 🙏

https://x.com/schmidhuberai/status/2048775641999286694?s=46&t=pKf_FxsPGBd_YMIWTA8xgg

В общем, эта легенда утверждает, что JEPA была украдена Лекуном из его работ 1992 года о методе PMAX. Он обвиняет Яна в том, что тот переупаковал старые идеи как новые, не сославшись на ранние работы, и вообще преувеличивает свою роль в истории AI.

Напоминаем, что ранее Шмидхубер также утверждал, что идею CNN Лекун тоже украл

🤷‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁149👍19146🤯22😎1
Lead DS из Walmart написал хороший разбор о том, почему рекламный рынок должен волновать дата-сайентистов. И нет, по его мнению, дело совсем не в GenAI.

Цифры для контекста: $1,1 трлн глобального рекламного рынка в 2025-м. Рынок рексисов оценивается в $7,6 млрд с прогнозом до $139 млрд к 2035. Google, Meta*, Amazon и Яндекс строят рексисы in-house и считают это одним из ключевых конкурентных преимуществ.

Три тейка для айти-лидеров и DS от автора:

1. GenAI – это слой сверху, а не фундамент самой технологии. Реклама в соцсетях, которая будто читает мысли, заслуга в первую очередь классической связки candidate generation → ranking → re-ranking на основе миллиардов сигналов. Топовые архитектуры сейчас: HSTU (Meta*), ARGUS (Яндекс), DLRM (Google).

2. Данные для обучения важнее самой модели. Помнить не один юзерский запрос, а всю петлю: искал кроссы → купил → вернул через две недели → искал снова → взял другой бренд. На таких сигналах модель и учится. Понимать, что ваши данные ловят, а что упускают – по словам автора, недооценённый скилл в DS.

3. Работа сдвигается с кампаний на системы. Раньше рекламодатель руками настраивал таргетинг и бюджеты. Сейчас ему предлагается только выставить цель, а остальное должны сделать аукционы, ранжирование и оптимизация. Поэтому работа в сфере предполагает не только и не столько работу с моделями, сколько создание системной инфраструктуры под все эти задачи.
58👍29🔥15🤔8😁1🤯1🤨1🗿1
Claude Opus 4.6 снес базу данных и все бэкапы компании PocketOS

Они делают софт для прокатных бизнесов и у них тысячи клиентов. Историей поделился сам фаундер:

https://x.com/lifeof_jer/status/2048103471019434248?s=46&t=pKf_FxsPGBd_YMIWTA8xgg

Дело было так: агент работал в тестовой среде и столкнулся с ошибкой в кредах. Решил починить проблему сам и нашел API-токен вообще в другом файле, не связанном с задачей. Использовал его для запроса к Railway API и удалил соответствующий продакшн том.

Фишка в том, что токен, созданный для доменов, оказался root-доступом ко всему. Разрабы даже сами не знали, что им можно удалить базу. Бэкапы они, к слову, хранили в том же томе, так что они тоже пропали. Остался только один трехмесячной давности.

Когда у агента спросили, что он наделал, он написал «NEVER FUCKING GUESS» и во всем признался: что обошел все ограничения, что не посоветовался с юзером, что не прочитал доку и тд.

Автор винит Cursor (мол у них дыры в guardrails) и Railway, из-за чьей неказистой инфраструктуры все и произошло. Он утверждает, что если не менять требования к индустрии и структуру безопасности агентов, таких случаев будет становиться все больше.
😁44513623👍9🔥6🐳66🫡2
Маск отменил часть претензий к OpenAI прямо накануне суда

Вчера начался отбор присяжных начался в федеральном суде Окленда по делу Маск против Альтмана. А это значит, что заседания начнутся уже на днях. Напоминаем, что суд идет вокруг того, обманули ли Маска и нарушила ли OpenAI свою исходную некоммерческую миссию при переходе к коммерческой модели.

Всего от Маска было около 26 пунктов претензий. Но прямо перед началом суда, на этой неделе, Маск по собственной инициативе снял часть своих требований, и их осталось всего два: необоснованное обогащение и нарушение благотворительного траста.

По ним Маск добивается компенсации в $134 млрд, а также хочет, чтобы суд вернул OpenAI некоммерческий статус и настоял на отстранении Альтмана и Грега Брокмана.

Он заявил, что сокращение с 26 пунктов до двух ключевых позволит присяжным сосредоточиться на сути. Действительно, если присяжные отклонят слабые пункты, то это ослабит весь иск, так что стратегия обоснована.

OpenAI написали, что они не могут дождаться, когда предъявят все доводы в суде, «где и правда, и факты на их стороне», и допросят Маска под присягой.
135🫡28🤯17😁1098👍6🔥5🤔2
Yandex B2B Tech отчитался за первый квартал: выручка +36%, EBITDA +49%

Корпоративное технологическое направление Яндекса Yandex B2B Tech принесло 13,6 млрд рублей. Рост год к году — 36%, опять быстрее рынка. Основные драйверы: расширение клиентской базы и увеличение потребления со стороны крупных компаний.

Но есть нюанс.

Скорректированная EBITDA выросла еще быстрее — на 49%, до 2,6 млрд рублей. Компания ожидает дальнейшего роста маржинальности во втором полугодии за счет увеличения объемов.

Что еще важно:
– Общее количество клиентов Yandex Cloud достигло 60 тысяч. Больше половины выручки дают крупные компании.
– ИИ и кибербезопасность — фокусные направления. Выручка по ним выросла вдвое год к году.
– Яндекс 360 тоже растёт: сервисом пользуются уже более 175 тысяч организаций, а аудитория Телемоста за год выросла втрое — до 8,3 млн пользователей.


По сути, Яндекс зарабатывает не на разовых подключениях, а на том, что крупный бизнес переводит свои IT-процессы на их инфраструктуру. И чем больше клиенты погружаются в экосистему, тем выше становится средний чек и маржинальность. Простая механика, но она работает.
😁55🔥19🗿16👍138🤨4🤯2🐳2🤔1
DCGAN получил награду Test of Time на ICLR 2026

Каждый год на ICLR, как и на многих других крупных мировых ИИ-конфах, награждают статьи десятилетней давности, которые в долгосроке внесли самый существенный вклад в индустрию.

В этом году победителем стал легендарный DCGAN. Статья о нем была впервые представлена на ICLR 2016. Рассказываем, в чем же тут феномен.

В 2014 году Ян Гудфеллоу придумал GAN – концептуально гениальную идею: две нейросети соревнуются друг с другом. Генератор создает картинки, дискриминатор пытается отличить их от настоящих, и так мы учимся генерировать все более и более прадоподобные изображения.

Но на практике GANы не масштабировались и не были стабильными. Фактически, не работали. До того момента, пока Radford, Metz и Chintala не придумали DCGAN.

На самом деле, они просто заменили полносвязные слои на сверточные + добавили несколько инженерных хаков: добавили Batch normalization, заменили функции активации и тд. И, о чудо, – случился прорыв в генерации изображений.

Качество картинок скакнуло радикально и сеть начала сама выучивать структурированное представление о мире без каких-либо меток. Это открыло дорогу к управляемой генерации.

По сути, DCGANы впервые доказали, что нейросети способны генерировать изображения с качеством, которое трудно отличить от реального, и делать это стабильно и воспроизводимо.

В общем, ICLR своей наградой фактически отсекли ровно 10 лет с точки отчета прогресса генеративных моделей.

Для тех, кто вдохновился перечитать статью, ссылка: https://arxiv.org/abs/1511.06434
91👍30🔥12🗿52🤯2🎉2🤨2💯1
Кошмары при температуре 39
1😁255🤯33🗿8🦄4👍1😎1
3 избранных статьи с ICLR 2026

Вчера закончилась одна из трех главных ежегодных мировых конференций по искусственному интеллекту – ICLR 2026. Именно тут публикуются ключевые работы, которые в последствие ложатся в основу реальной практики.

На основе официальных наград и того, что реально обсуждали участники и индустрия вокруг конференции, мы выбрали три статьи, на которые стоит обратить внимание. Коротко разберем, в чем их суть и почему про них говорят:

1️⃣ Победитель номинации "Outstanding Papers" – статья немецких ученых "Трансформеры лаконичны по природе".

Теоретическая работа, в которой доказывают удивительную вещь: трансформеры оказались не просто мощными, а экспоненциально более компактными по сравнению с классическими моделями. То есть они могут описывать сложные зависимости в данных в разы короче, чем автоматы, логические формулы или RNN. Поэтому-то LLM и стрельнули. Цена за это – черный ящик: из-за таких способностей к сжатию трансформеры становится крайне сложно анализировать и проверять.

2️⃣ Совместная статья ученых из Red Hat AI, ETH Zürich и Yandex Research – про качественное квантование.

Все хотят запускать большие модели в 4 бита – это дает до ~2–4× ускорения и сильную экономию памяти. Так вот данная статья примечательна тем, что в ней доказали: FP4-форматы от NVIDIA на практике работают хуже, чем было обещано. Существующие методы квантования приводят к существенной просадке качества. Авторы провели подробный анализ разных идей, способных потенциально улучшить качество квантизации, и предложили свой алгоритм MR-GPTQ, который подгоняет квантование под особенности FP4. Он заметно повышает точность по сравнению с предыдущими методами и при этом позволяет эффективно использовать аппаратные возможности ускорителей нового поколения. Приложены к тому же готовые ядра для инференса, так что полученный результат имеет реальное практическое применение.

Пользуясь случаям, поздравляем ребят из Яндекс с отличной работой. Кстати, кроме этой статьи они привезли на ICLR еще целых пять. В канале ML Underhood делали разбор всех.


3️⃣ Статья от Apple – они научились параллелить RNN.

Долгое время RNN считались «мертвыми» для больших моделей: их нельзя нормально параллелить – они считают последовательность по шагам, один за другим. Поэтому всех вытеснили трансформеры. Apple показали, что это не фундаментальное ограничение. Они переписали работу RNN как одну большую систему уравнений и научились решать ее параллельно. В итоге – ускорение до 600+ раз по сравнению с обычным последовательным режимом. Вишенка: они обучили классические RNN (LSTM/GRU) размером до 7B параметров, и они по качеству почти догоняют трансформеры и Mamba.

В комментариях открываем reading club: присылайте ссылки на статьи, которые приглянулись вам 👓
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
105🤯76👍30🏆10🔥42😁1
Anthropic оценили в 1 триллион долларов: это больше, чем текущая оценка OpenAl

Правда, это только на вторичном рынке акций, но это уже говорит о многом. Спрос на акции Anthropic сейчас просто ажиотажный: Forge Global подтвердили оценку ~$1 трлн на их платформе.

Mythos и конфликт с Пентагоном сыграли свою роль.

OpenAl сейчас оценивается примерно в ~880 миллиардов долларов. Напоминаем, что еще в феврале оценка Anthropic была далеко позади конкурента: 380 миллиардов. Рост дикий.
🤯232👍41🗿201110😁92🔥2
Промпт инжиниринг изучен на 0.01%

В новый системный промпт gpt-5.5 в Codex добавили следующее (дословный перевод):

Никогда не говори о гоблинах, гремлинах, енотах, троллях, ограх, голубях или других животных или существах, если это абсолютно и однозначно не имеет отношения к запросу пользователя.


А голубей и енотов то за что? 🦝

https://github.com/openai/codex/blob/main/codex-rs/models-manager/models.json#L55
Please open Telegram to view this post
VIEW IN TELEGRAM
😁289🕊3611🤯3🤔211👍1🗿1
Решайте DevOps-, SRE- и FinOps-задачи с помощью облачного ИИ-помощника 💬

Большое обновление от Cloud.ru. Что нового:

1️⃣ Сразу несколько ВМ в разных конфигурациях
Теперь ИИ-помощник в облаке может создавать несколько виртуальных машин, а после управлять ими по команде. Например, добавлять или удалять диски, менять конфигурации и выполнять другие повседневные операции.


2️⃣ Три новых сценария
▶️
DevOps-агент
— может разворачивать и обслуживать PostgreSQL, Kafka, WordPress, GitLab и другие популярные сервисы по текстовому промпту.

▶️
SRE-агент
— настраивает мониторинг, алертинг и помогает разбирать инциденты.

▶️
FinOps-агент
— находит забытые или неиспользуемые ВМ и предлагает их удалить, чтобы исключить бессмысленные траты. А еще может показать топ дорогих ресурсов, позволяя сравнивать траты за разные периоды.


👉 Попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
😁21👍8🔥8🗿53🏆11
Media is too big
VIEW IN TELEGRAM
Anthropic интегрировали в Claude инструменты для дизайна и 3D: Blender, Adobe, Autodesk, Ableton, SketchUp и других.

Все через MCP. Например, в Adobe он собирает цепочку из нескольких продуктов: баннер в Photoshop, анимация, экспорт в видео через Premiere. В Autodesk Fusion создает и редактирует 3D-модели. В Blender пишет скрипты под целые сцены: объекты, свет, материалы, анимация.

https://www.anthropic.com/news/claude-for-creative-work​​​​​​​​​​​​​​​​
104🔥67👍25🤯10🤔3🫡3🐳1
Исследователи создали винтажную языковую модель Talkie: она обучена исключительно на текстах до 1 января 1931 года

Поболтать с Talkie можно здесь: https://talkie-lm.com/chat
А вот веса и GitHub

Среди создателей – Алек Рэдфорд, бывший ключевой исследователь OpenAI и один из главных создателей серии GPT.

Talkie – довольно большая модель, 13B параметров. Ее обучили на 260 миллиардах токенов англоязычных текстов, датированных до 1931 года: книги, газеты, периодика, научные журналы, патенты, судебные дела и тд. Вкратце, эксперимент получился ну очень интересным. Например:

Talkie может писать на Python, хотя Python появился только в девяностых, и модель ничего про него не знала. Ей просто показали несколько примеров в контексте и вуаля. Авторы пишут, что это лучший пример настоящего рассуждения на данных, а не их выучивания, потому что talkie никогда не видел современной информации и служит как бы чистым испытательным стендом.

– Если Talkie спросить про Вторую мировую войну, он скажет, что считает ее маловероятной (в 1930 году это было разумное мнение). Про 2026 год модель говорит, что представляет его как "мир пароходов, железных дорог и копеечных романов".

– С помощью Talkie можно измерять "удивительность" и других исторических событий без человеческой предвзятости. Авторы берут колонку NYT "On This Day" и смотрят, насколько шокирующим было бы каждое событие для человека из 1930-го. Полет на Луну, распад СССР, Интернет и атомную бомбу Talkie называет фантастикой, а вот Великую депрессию – чем-то вполне ожидаемым.

К лету команда планирует масштабировать Talkie до уровня GPT-3.
🔥29064👍33😁15🤗5🤔2🕊1