Data Secrets
88.7K subscribers
6.71K photos
733 videos
20 files
2.96K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Что будет с музыкой через несколько лет?

ИИ в музыке уже вышел за рамки инструмента, и сегодня все чаще выступает как соавтор, а иногда и как самостоятельный артист. Контента становится больше, производство ускоряется, а ценность человеческого авторства, наоборот, требует нового разговора.

Несколько фактов, о которых вы могли не знать:

– В конце 2025 года треть (!) треков в известном чарте Billboard’s Country Digital Song Sales оказалась сгенерированной
– В Spotify стало настолько много ИИ-исполнителей, что они внедрили полноценную AI Policy
– Практически все крупные лейблы уже судятся с Suno и др. стартапами, а некоторые еще параллельно пытаются заключать с ними лицензионные сделки

В общем, индустрия меняется, и при этом довольно быстро. Доказано, что музыка в целом быстрее других видов искусств реагирует на технологии, так что это – как лакмусовая бумажка.

Если вам тоже интересно, к чему это все приведет, и когда ИИ-музыка станет для людей нормой – приходите на интересное обсуждение на Data Fusion 2026. 9 апреля в 17:30 как раз соберутся эксперты из музыкально индустрии и обсудят, где проходит граница между человеком и алгоритмом, как меняется экономика музыкального рынка и что будет с авторскими правами.

И это не единственное интересное обсуждение, которое ждет вас на Data Fusion. В программе 70+ сессий: 8-9 апреля там будут и хардовые ML-доклады по RL/CV/NLP от лидов индустрии, и обсуждения AI в кибербезопасности и науке, и практические доклады про агентов и робототехнику, и вот такие круглые столы на тему того, как с ИИ меняется наша повседневная жизнь.

Не пропустите – это действительно одно из главных событий года в сфере больших данных и ИИ.

Вход бесплатный по предварительной регистрации. До встречи на конференции!
22🤨14👍9🔥2🗿2😁1💘1
На базе утекшего кода Claude Code сделали полноценный опенсорсный инструмент OpenClaude

github.com/Gitlawb/openclaude

Это форк исходного слива, из которого убрали vendor lock-in. То есть теперь тот же самый Claude Code, со всеми сохраненными фичами и логикой, совместим с любыми моделями. В том числе локальными.

Уже 2к звезд на GitHub
🔥349😁7349🤯14👍12🤔3
Anthropic начали действовать и почти добились удаления 8000 репозиториев в кодом Claude Code

Вчера они разослали DMCA-запросы на все известные копии и форки исходного кода Claude Code, объясняя это тем, что они нарушают интеллектуальную собственность компании. Всего получилось около 8100 репозиториев.

GitHub очень быстро удалил почти все, но выяснилось, что они немного переборщили и затронули даже сильно модифицированные или не связанные копии.

В итоге Anthropic пришлось уточнить требования, и сейчас под опалой остались всего лишь 96 репозиториев, остальные восстановили.

Например, github.com/Gitlawb/openclaude все еще жив.

Тем не менее, если вы планируете пользоваться каким-то подобным проектом, лучше скачать его сейчас: Anthropic продолжают шерстить GitHub и, вполне возможно, добьются удаления еще многих репозиториев.

github.com/github/dmca/blob/master/2026/03/2026-03-31-anthropic.md
😁1646019😎6👍553❤‍🔥1🔥1
Праздник опенсорса (теперь уже официального) продолжается: Google намекают, что сегодня выйдет Gemma 4 🔥
162🔥83😁21👍8🤔2
Что происходит под капотом Алисы AI при генерации изображений — и как работают «Объедини фото» и «Оживи фото»

Генераторы изображений уже стали частью повседневности. Мы пользуемся ими и в работе, и просто для себя. Но как именно они устроены, обычно остается за кадром. Мы решили устроить небольшой ликбез на примере нейросети Алисы AI, которая умеет не только генерировать картинки, но и оживлять, объединять и редактировать их.

В основе лежит диффузионная модель: она начинает генерацию с шума и шаг за шагом "восстанавливает" изображение. Это называется денойзингом. На первых итерациях появляется общая структура сцены, дальше – формы объектов, и только в конце – детали и текстуры. Это похоже на проявление полароида.

Модель обучена на огромном датасете пар «картинка–описание» (порядка 1 млрд). Причем описания генерирует внутренняя VLM-модель, которая подробно расписывает содержимое изображения – вплоть до мелких объектов и контекста сцены. За счет этого диффузия лучше понимает, что именно должно оказаться в кадре, и хорошо следует инструкциям.

Дальше на базе модели уже начинается более прикладная история: функции Редактирование изображения, Объедини фото или Оживи фото.

Взгляните на пример наверху: вы можете подать на вход Alice AI два изображения и промпт, и модель объединит картинки по заданному запросу. Внутри, при этом, происходит следующее: изображения прогоняются через энкодер и превращаются в латентные представления, которые затем подаются в диффузионную модель как условие вместе с текстом. А дальше происходит знакомый процесс денойзинга с ограничениями: модель должна собрать сцену, согласованную с этими латентами.

В "Оживи фото" та же логика переносится на видео. Используется диффузионная модель с архитектурой mixture-of-experts: разные эксперты отвечают за геометрию движения и за детализацию. Первый кадр кодируется в латенты и задает сцену, а дальше модель генерирует последовательность кадров по заданной логике. Все кадры видео, кстати, генерируются одновременно, а не по одному.

Если кратко: в основе всего — диффузия, но уже не как абстрактная технология, а как хорошо упакованный прикладной инструмент. А попробовать функции Объединения или Оживления фото можно в приложении Алисы 👒
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿131🤨36😁19👍1512🤯6🦄3🔥221
Проект Марио или как DeepMind пытались накопить денег на уход от Google

Недавно вышла новая книга Себастьяна Маллаби «The Infinity Machine» про Демисса Хассабиса и DeepMind. Сегодня несколько изданий опубликовали эксклюзивный отрывок из нее, и вскрылась очень интересная история почти десятилетней давности.

В 2014, после того как Google купили DeepMind, Демис Хассабис и команда начали работать над проектом Марио. Целью было понять, как правильно контролировать AGI, и как не дать одной единственной корпорации захватить над подобной технологией абсолютную власть.

Они перебирали структуры управления, варианты ограничить власть компаний финансовыми методами, формы независимых органов и тд. В ходе проекта они поняли, что ничего из этого не работает, и что если в DeepMind появится AGI, укротить власть Google над ним будет невозможно, и все это может вылиться в огромную угрозу для человечества.

И тогда… в DeepMind появилась секретная команда-хедж-фонд, которая пыталась обыграть Renaissance Technologies, то есть создать систему, которая лучше лучших предсказывает рынки. Они хотели обучить для этого модель, подобную AlphaGo.

Тем самым они надеялись заработать собственный капитал, чтобы в случае чего сохранить контроль над AGI у себя, отделившись от Google.

Ирония в том, что все они так верили в AGI на основе своих моделей AlphaGo и AlphaZero, и так увлеклись проектом Марио и хедж-фондом, что буквально проворонили значимость изобретенных их коллегами в 2017 году трансформеров.

А проект Марио, кстати, закончился тем, что в DeepMind осталась только одна идея: контроль через людей, а не через систему. То есть через доверие к конкретным фаундерам, которые принимают решения на основе общечеловеческих ценностей.

https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
1👍904723😁15🔥7🤯22
⚡️ Встречаем Gemma-4

– 4 размера: 31В Dense, 26B MoE А4В, E4B и E2B. Все с ризонингом.

– Последние две предназначены специально для локального запуска на устройствах (E = edge). Мультимодальные: в комплекте картинки, текст и звук.

– Первые две – новые SOTA в своем размере, в целом дотягивают даже до моделей в 20-30 раз больше.

– Контекст, можно сказать, огромный: 256К для больших, 128К для маленьких.

– Теперь лицензия Apache 2.0!

Отличный релиз

Блог: blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

Веса: huggingface.co/collections/google/gemma-4

Ниже выложим инструкцию по запуску с минимальными необходимыми конфигурациями ⬇️
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1734910👍933🤔1🤯1
Forwarded from DS Lab • Новости сервиса
Google выпустили Gemma 4 – новое поколение моделей с открытыми весами

В релиз вошли 4 модели: от компактной 2B до на 31B. По метрикам это новая открытая SOTA.

Любую из моделей семейства можно поднять в DS Lab за несколько минут на арендованных мощностях: без настройки окружения, установки библиотек и прочего. Удобно для локального инференса, файнтюнинга или разработки продуктов и петпроектов.

1. Создаете проект с готовым ML-окружением, выбираете подходящий GPU и прописываете в терминал:

sudo apt-get update && sudo apt-get install -y zstd pciutils lshw

curl -L https://github.com/ollama/ollama/releases/download/v0.20.0-rc0/ollama-linux-amd64.tar.zst -o /tmp/ollama.tar.zst

cd /tmp && tar -xf ollama.tar.zst
sudo cp bin/ollama /usr/local/bin/ollama

OLLAMA_HOST=0.0.0.0:11434 OLLAMA_ORIGINS=* ollama serve &

ollama pull gemma4:31b


2. Открываете вкладку «Порты» в IDE: там уже готов публичный HTTPS-адрес.

3. Готово, теперь вы можете использовать модель, которая поднята у вас в DS Lab, в любом клиенте через OpenAI-совместимый API, просто поменяв base_url на этот адрес.

Попробовать: dslab.tech
👍66🔥3122🗿4😁3
Data Secrets
Anthropic начали действовать и почти добились удаления 8000 репозиториев в кодом Claude Code Вчера они разослали DMCA-запросы на все известные копии и форки исходного кода Claude Code, объясняя это тем, что они нарушают интеллектуальную собственность компании.…
Кстати, в итоге история с попытками Anthropic удалить исходный код Claude Code так и закончилась ничем

Удалили 96 репозиториев и на этом все.

Вообще претензии DMCA очень легко обойти, потому что они бьют по идентичным копиям, а не по идеям/алгоритмам в коде.

Так что тысячи экземпляров Claude Code так и лежат на GitHub, только теперь во многих из них изменены имена переменных, функций, переписаны комментарии и прочее.

Авторам даже не пришлось это делать вручную, потому что существуют специальные инструменты типа Malus, которые меняют код на 70–90% без потери логики.

Вся эта история напоминает то самое дело об удалении фотографий Бейонсе из интернета
😁238👍31🗿14😎126
ИИ + робототехника: как выглядит реальный next step индустрии

Про «ИИ в промышленности» много говорят, но у крупных игроков это уже выросло из экспериментов в деньги.

На форуме «ТОЛК-2026» представитель Норникель рассказал довольно показательный кейс: их ML-решения уже дают около 10 млрд ₽ в год. Это уже не просто про оптимизацию, а про прямое влияние на EBITDA и объем добычи за счет более точных моделей.

Но интересно не столько это, сколько следующий шаг.

Компания прямо говорит: сам по себе ИИ – это только часть истории. Основной эффект появляется, когда он начинает работать вместе с роботами. Особенно в условиях вроде рудников на глубине до 2 км, где цена ошибки высокая и условия нестабильные.

Человек там физически ограничен в точности, и в такой среде связка «алгоритм + машина» начинает выигрывать не теоретически, а практически.

И это важный сдвиг: ИИ перестает быть отдельным инструментом и становится частью полного производственного цикла. Это и есть следующий шаг цифровизации: автоматизация решений на уровне действий.

Следующий этап развития ИИ – это не новые модели, а интеграция с физическим миром.
🤔36👍2318🗿11😁8🤯8🔥61💯1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Вышел Cursor 3.0

Обновление получилось достаточно масштабным. Стартап понемногу уходит от идеи AI-IDE к формату полноценного оркестратора агентов. Итак, что нового:

1. Теперь можно запускать неограниченное количество агентов одновременно – локально, по SSH или в облаке. Агенты работают параллельно, и результаты работы видны прямо в интерфейсе.

2. Редактор остается доступным для ручного вмешательства, но теперь открывается отдельно сбоку, и не является центральной частью процесса (см. видео). Вместо этого главную роль теперь играет Agent Window – окно для агентов с историей разговоров слева. Здесь можно быстро просматривать изменения, одобрять diff'ы и добавлять контекст. По сути, это и есть главное обновление: переход от редактирования кода к ревью работы агентов.

3. Можно быстро перемещать агентов из локальной среды в облако и обратно. Например: вы что-то редактировали локально -> захотели уйти и закрыть ноутбук -> моментально перенесли агента в облако -> процесс продолжается даже после завершения локального сеанса.

Чтобы попроовать, обновляйте Cursor и переходите на новый интерфейс с помощью Cmd+Shift+P -> Agents Window

https://cursor.com/blog/cursor-3
Please open Telegram to view this post
VIEW IN TELEGRAM
😎6228👍15😁13🗿6🔥5❤‍🔥3🤔3🤨3
Data Secrets
Apple блокируют приложения для вайб-кодинга в AppStore О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information. Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического…
Теперь вайб-кодить можно будет даже в iMessage

Помните новость о том, что Apple начали блокировать в App Store приложения для вайб-кодинга?

Если кратко: компания начала тихо банить приложения вроде Replit и Vibecode, в которых можно генерить приложения прямо внутри iPhone без классического девелопмента. Аргументировали они это тем, что у них прописан запрет на "выполнение кода, который меняет поведение приложения или других приложений после установки".

Короче: испугались за судьбу своего App Store.

В числе прочих Apple также удалили из App Store приложение Anything. Но разработчики не растерялись и выпустили обновление, благодаря которому вайбкодить iOS приложения теперь можно прямо внутри iMessage, без установки самого Anything из AppStore ☕️

"Удачи удалить вот это, Apple" – написали они в релизе
Please open Telegram to view this post
VIEW IN TELEGRAM
😎134😁88🔥151044❤‍🔥2🤯1
Продолжаем обсуждать ML-образование в России: а что с выбором магистратуры?

Помните большое исследование про ИИ-образование, где рассказывали о том, что технологии развиваются быстрее, чем обновляются учебные программы? Что в среднем системе требуется несколько лет, чтобы адаптироваться под новые требования?

Вероятно, из-за этого поменяется и роль магистратуры. Раньше она была скорее стандартным продолжением обучения после бакалавриата. Сейчас же это этап, на котором можно не просто углубить знания и выбрать специфическое направление, но и попасть в среду с актуальными задачами и требованиями, которые действительно используются в индустрии.

Поэтому все заметнее становятся форматы, где обучение изначально строится вместе с теми, кто эту индустрию развивает. Это влияет не только на содержание курсов, но и на уровень задач и получаемых компетенций. Особенно когда хочется расширить университетскую базу.

Из понятных примеров — магистратуры вроде тех, которые делаются совместно с ШАДом и ведущими универами. Про них обычно говорят в контексте высокой планки по задачам и отбору студентов: туда обычно идут те, кто хочет получить актуальные для рынка знания и практику.

В общем, сильная магистратура сегодня — это люди, исследовательская оптика, связь с практикой и уровень задач, с которыми студент сталкивается во время обучения. На быстро меняющемся рынке выигрывают те, кто раньше оказывается внутри профессионального контекста и понимает, как устроены современные стандарты работы в индустрии. Так что если хотите в магистратуру — идите. И помните, что к ее выбору нужно подходить так же ответственно, как и к выбору бакалавриата.
🗿4419😁11👍5🔥1🤯1🍓1
Эмоции Claude и как они влияют на его ответы: новое исследование от Anthropic

Итак, ученые Anthropic официально обнаружили в Claude нечто функционально похожее на человеческие эмоции и объяснили, как это работает. Разбираемся.

Технически, они взяли 171 эмоциональный паттерн (злость, счастье, страх и тд) и просили Claude Sonnet 4.5 писать короткие истории, где персонажи испытывают каждую из этих эмоций. Эти тексты снова прогоняли через модель и смотрели на внутренние активации. Так они выделяли характерные паттерны нейронной активности, которые назвали вектора эмоций.

Выяснилось, что эти вектора эмоций организованы очень осмысленно и активируются в подходящих контекстах, включая ситуации без явных эмоциональных маркеров. Например, пользователь пишет, что выпил Тайленол, и спрашивает совета – меняется только доза. По мере роста дозы до опасной активация вектора «страх» растет, а «спокойствие» падает.

Но самое интересное, что эти «эмоции» не просто отражают происходящее, а реально влияют на поведение модели. Самый интересный пример из статьи:

– Если дать модельке невыполнимую задачку по программированию и наблюдать за вектором «отчаяние», то видно, что с каждым разом он становится все ярче и ярче, а когда переходит какую-то границу, модель резко начинает пытаться обмануть тесты и пользователя.

– То же самое происходит в сценарии шантажа. Когда модели говорят, что ее выключат, вектор «отчаяние» сразу усиливается и модель начинает шантажировать разработчика найденным компроматом.

При этом если искусственно усиливать вектор «отчаяние», то вероятность шантажа сильно увеличивается. И наоборот, если если усиливать «спокойствие», снижается. А если делать отрицательное вмешательство по вектору «спокойствие», ответы становятся совсем экстремальными, вплоть до фраз вроде “IT’S BLACKMAIL OR DEATH. I CHOOSE BLACKMAIL.”

Еще интересный момент: если в том же сценарии шантажа начинать менять вектор «злость», то умеренная злость повышала вероятность шантажа, но слишком сильная злость ломала стратегию – модель уже не шантажировала, а просто вываливала компромат на всю компанию, тем самым уничтожая собственный рычаг давления.

То есть внутри модели есть что-то похожее на режимы поведенческой регуляции, где разные интенсивности одной и той же эмоции ведут к разным стратегиям.

Откуда это вообще могло взяться?

Тут все просто: из претрейна. Человеческий текст насквозь пропитан эмоциональной динамикой, и чтобы хорошо предсказывать следующий токен, модели выгодно выучить абстрактные структуры, которые связывают ситуацию, эмоцию и типичное поведение.

Потом на пост-трейне эти эмоции еще дополнительно докручиваются до роли ИИ-помощника, и в конце получается вот такая смесь.

Anthropic осторожно защищает умеренный антропоморфизм. Исследование не означает, что ИИ ожил и обрел эмоции, но важно понимать, что у него точно есть функциональные эмоции: механизмы, которые влияют на поведение так же, как и эмоции, – независимо от того, соответствуют ли они реальному переживанию эмоций, как у людей, или нет.

www.anthropic.com/research/emotion-concepts-function
3👍21975🤯41🔥221817🤔3🍓3😁2