Data Secrets
87.9K subscribers
6.57K photos
688 videos
20 files
2.81K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
OpenAI тихо обновила формулировку своей миссии, убрав из нее слова про безопасность и отсутствие финансового мотива

Раньше миссия стартапа звучала так:
Build AI that safely benefits humanity, unconstrained by need to generate financial return


Теперь:
Ensure AGI benefits all of humanity


Упоминания безопасности и отсутствия финансовой выгоды как и не бывало.

Причем, оказывается, формулировка была обновлена уже в 2024. Просто налоговые декларации стали публично доступными только сейчас, вот и всплыло.
1264😁141🗿331297🫡7🤔5👏4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Meta* не успели купить OpenClaw, поэтому решили его скопировать 😐

В Manus (которых, напоминаем, купил Цукерберг) сегодня появились так называемые Manus Agents в чатах.

По сути – полная копия OpenClaw: интеграции с платформами типа Gmail и Notion, доступ через мессенджеры, фоновые задачи и прочее.

Отличие только в доступе. Может, Manus Agents кому-то понравится даже больше, потому что не надо возиться с селф-хостингом, все доступно быстро и из коробки (но за денежку и без особого пространства для кастомизации).

manus.im/blog/manus-agents-telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
😁108👍2210663
Media is too big
VIEW IN TELEGRAM
Claude Code теперь сможет генерировать полноценные дизайны в Figma

Обратная интеграция (дизайн в Figma -> код) уже давно реализована в Figma MCP, а вот эта штука, хоть и выглядит, возможно, странной, по сути качественно завершает полный комплект.

Если раньше разработка, даже с агентами, была +- линейной (идея -> дизайн -> только потом код), то теперь открывается новая возможность: продукт можно начинать делать прямо в IDE.

Задаешь агенту промпт, тот пишет код, потом этот код (благодаря как раз новой фиче Figma MCP) можно напрямую перевести в удобные изменяемые слои Figma, там оценить полную картину и что-то подправить, а затем зеркально вернуть правки обратно в код.

Помимо ускорения и всего прочего это, по сути, (1) буквально Claude Code для дизайнеров; (2) новый, более детальный и грамотный, подход к промптингу кодинг-агентов, который легче контролировать и применять к крупным продуктам.

Кайф
👍17164🔥35😁4🤯4🗿3
Вышел Claude Sonnet 4.6! Главное:

– На 40% дешевле Opus и доступна для всех планов (включая бесплатный) в Claude Code, Cowork и тд

– В бета версии доступен контекст до 1М токенов!

– Модель очень существенно обновили в кодинге, ризонинге, computer use и, внезапно, финансах

– По бенчмаркам вплотную приближается к Opus 4.6 и во многих тестах превосходит GPT-5.2 и Gemini 3 Pro

– Computer use действительно подскочил, и заявляется, что с основным потоком задач, включая сложные таблицы и многошаговые формы, агент справляется на уровне человека

– Еще хочется отметить очень неплохие цифры на Vending Bench: моделька спланировала стратегию и заработала 5639$. Для сравнения, Opus 4.6 выбил только 4к$, но организаторы бенчмарка пишут, что Sonnet все еще придерживается довольно жестких стратегий (см наш пост).

https://www.anthropic.com/news/claude-sonnet-4-6
110❤‍🔥25👍1311🔥5😁2🦄2
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion* 2026! 💙

Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».

60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).

Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.

Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.

Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!

Не пропустите, регистрируйтесь.

*Data Fusion — Объединение данных
Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍7🗿5🔥1
Data Secrets
🚀 Anthropic выпустили Claude Sonnet 3.7 с ризонингом Бенчмарки говорят сами за себя: модель действительно очень хороша во всевозможной разработке. На SWE Bench она на добрых 12-13 процентных пунктов превосходит o1, R1 и даже o3-mini high. При этом: В…
Кстати, ровно год назад Anthropic выпустили Sonnet 3.7 и Claude Code

Сравниваем прогресс за год на сложных бенчмарках (это только серия Sonnet):

– SWE bench: год назад 62.3%, сегодня – 79.6%
– GPQA: год назад 68%, сегодня – 89.9%
– MMMLU: 83.2% тогда, 89.3% сейчас

Это не говоря уже о computer use, например. Год назад это была еще сказка (и даже бенчей соответствующих почти не было), а сегодня вот Sonnet легко работает со сложными таблицами.

А по случаю дня рождения Claude Code антропики, кстати, даже вечеринку специальную закатывают. Если вы в SF, можете посетить.
😁77🔥4323🎉6👍4
Минутка впечатляющих цифр: Яндекс повысил эффективность обучения LLM почти на 5 млрд рублей в год

Это примерно 400 миллионов в месяц. Про часть оптимизации компания уже рассказывала в техрепорте, а сейчас раскрыла цифры. Итак, за счет чего удалось повысить эффективность:

1. Собственная разработка Яндекса – библиотека YCCL (Yet Another Collective Communication Library). С ее помощью удалось в 2 раза ускорить обмен данными между графическими процессорами и сократить объем передаваемой информации. В мире подобные системы есть только у Meta, AMD и пары китайских IT‑гигантов.

2. Переход на FP8 и увеличение размера батча. Применение FP8 ускорило обучение моделей на 30% и сократило коммуникации в 2 раза. Батч увеличили до 16–32 млн токенов, что позволило обучать модели без простоев GPU, и благодаря исследованиям это даже не замедлило обучение.

3. А также оптимизация кода, аппаратной инфраструктуры и усовершенствование архитектур.
👍160🗿6823😁17🤯8👨‍💻5🔥4🤨41🦄1
Unity встраивает генерацию игр прямо в движок

Компания на созвоне с инвесторами подтвердила, что готовит обновление Unity AI, где можно будет описать игру текстом и получить собранный казуальный прототип внутри Unity. Бету обещают показать на GDC в марте 2026.

Здесь важна не сама идея (игры по промпту уже пробовали делать десятки стартапов), а то, что Unity делает ставку на генерацию проекта как структуры: сцены, базовая логика, UI, компоненты, связки между ними. То есть модель работает не в вакууме, а внутри реального пайплайна движка.

Пока упоминаются только казуальные форматы. Но если Unity действительно научит модель собирать проект целиком, то прототипирование станет очень быстрой задачей, а дальше начинается обычная разработка: доводка, баланс, визуал, контент.

https://www.gamedeveloper.com/programming/unity-says-its-ai-tech-will-soon-be-able-to-prompt-full-casual-games-into-existence-
😁55👍35🔥1555
Принципы работы Nested Learning и Titans вдохновлены идеями российских ученых

Google идет по дорожке, заданной учениками Михаила Бурцева — Юрием Куратовыи и Айдаром Булатовым из AIRI. Речь об их идеях по RMT, использованных при создании нового подхода к архитектурам.

У большинства мировых команд по созданию ИИ есть проблема с контекстом — модели забывают почти всё, что было дальше условных 50 страниц. При этом новые данные часто стирают старые. Недавно Google предложили рассматривать модели как набор вложенных оптимизационных задач. Их архитектура HOPE учится не просто предсказывать слова, но решать, что забыть, а что помнить вечно.

Звучит знакомо?

Одними из первых архитектур, реально работающих с длинным контекстом, были RMT/ARMT, начальную идею которых в 2020 году предложил Михаил Бурцев. А уже в 2022 году ребята из AIRI показали, что контекст можно расширять не в лоб, а архитектурно — через рекуррентные механизмы памяти. Смотрим в литературу, на которую ссылаются в Google, и видим те же тезисы.

В общем, парадигма развития разработки нейросетей не создается в вакууме — у неё есть авторы.
2106🔥40👍30🗿13😁125🤔41
История о том, что будет, если не ревьюить вайб-код: DeFi‑протокол Moonwel потерял около 1.78 млн долларов из-за ошибки в коде, которую сделал Opus 4.6

В PR, который был помечен, как «Co-Authored-By Claude Opus 4.6», оказалась неправильно прописана формула подсчета цены на cbETH (это обертка над Ethereum).

В итоге вместо положенных 2200$ фактическая цена некоторое составляла чуть больше одного доллара.

Арбитражные боты среагировали бодро: погасили кучу долгов за копейки и накупили cbETH на кругленькую сумму. К тому времени, как разработчики заметили баг, сумма ущерба уже составляла ≈ 1.78 млн долларов.

F
😁28275👍22🫡1712🔥8👏3🤯2🕊1
На t-sync инженеры обсудили как сделать данные управляемыми по модели SRE. В Т-Технологиях называли это DRE - Data Relibility Engineering.

В рамках инженерного контура Data T-Технологии показали как удалось внутри крупного бизнеса с террабайтами данных сделать данные SRE-продуктом с прозрачной ответственностью и измеримостью.

Когда речь идет о данных обычно акцентируют внимание на lakehouse, AI и ускорении пайплайнов. В T Data Platform инженеры формализовали критичность данных (BC+, BC и т.д.), задали SLO, допустимый простой и время реакции. Через Data Contracts c более 9000 контрактов и DQ Tools, которые реализуют свыше 34 000 проверок, считается кумулятивная критичность по data-графу, есть контракт с бизнесом на качество и актуальность. Инцидент теперь — не просто "упала таблица", а нарушение бизнес-ожидания, с возможностью эскалации до уровня data-продукта. Цена падения — не просто ошибка в DAG. Это потеря доверия, срыв SLA бизнеса, финансовые и репутационные риски. DRE позволяет считать и минимизировать эту цену.
Data Incident Management обеспечивает оповещения, прозрачность и аналитику по 985 дата-процессам от 38 бизнес-линий внутри Т-Технологий.

T Data Platform за 18 лет эволюционировала от ETL в полноценный продукт: Sources, Storage (LakeHouse на Spark/Trino+S3), Governance с observability. Подробный разбор как устроена T Data Platform
119👍8🗿7🔥5😁2🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
Google представили Lyria 3 для генерации музыки

Самое интересное в модельке, – пожалуй, то, что она мультимодальная. Трек можно создать не только по промпту, но и из фото или видео.

То есть вы можете просто молча (или вместе с текстом) загрузить изображение или видео, и сгенерируется музыка, подходящая по атмосфере и смыслу.

Попробовать уже можно в Gemini app и на десктоп, скоро раскатят на всех. Длина треков – до 30 секунд.

Короче, новой волне ИИ-слопа – быть. Хотя, Google пишут, что каждая композиция генерируется с невидимым водяным знаком. Может это хоть немного спасет стриминги от «музыкантов».
6427👍10🤯6😁3🤨2🔥1