Data Secrets
89.8K subscribers
6.84K photos
753 videos
20 files
3.05K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Apple случайно слила в открытый доступ свои CLAUDE.md файлы

Разработчик из Твиттера случайно обнаружил их в обновлении Apple Support app v5.13. В файлах были всякие правила кодстайла, архитектурные заметки и ограничения для работы Claude Code (снова + к цене акций Anthropic 😐).

Твит набрал несколько миллионов просмотров: https://x.com/aaronp613/status/2049986504617820551?s=46&t=pKf_FxsPGBd_YMIWTA8xgg

Видимо, Apple его тоже увидели, потому что вскоре поспешили выпустить v5.13.1 с затертыми файлами.

Эра вайбкодинга прекрасна 😆
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2513414👍7🤯2🕊1🤝1
Пробные экзамены в ШАД теперь можно написать до поступления

Каждый год на экзаменах в ШАД многие сильные студенты недобирают баллы. Причина обычно не в знаниях: залипли на задаче, не рассчитали время, не дошли до конца, начали нервничать.

Потому что здесь важно не только уметь решать, но и пройти экзамен как процесс: держать темп 5 часов, распределять силы и не ломаться, если что-то идет не по плану.

Наши друзья из SHAD Helper запустили прекрасную возможность написания Пробных экзаменов в ШАД. И вот это как раз действительно поможет сдать реальный экзамен:

– Формат ровно тот же, что и на отборе: Яндекс Контест, жесткий тайминг и задачи, максимально приближенные к шадовским.

– После экзамена вы получите детальные результаты работы и честную оценку своего уровня.

– Эксперты из МГУ, ВШЭ и МФТИ проведут разборы вариантов с объяснением, где теряются баллы и как решать быстрее.

Отдельный плюс – можно начать бесплатно: есть доступ к вариантам, чтобы просто попробовать формат и оценить себя.

Если готовитесь к ШАДу, то это, пожалуй, самый прямой способ прокачаться и повысить уверенность в оставшееся время перед экзаменом.

Запись и подробности – здесь

Реклама. ООО "Школа Высшей Математики", ИНН 9728100991
🤨3922🗿15👍7😁61🔥1🤯1
Media is too big
VIEW IN TELEGRAM
В MIT сделали ИИ-систему, которая может управлять человеческим телом

Она подключается к руке и посылает слабые электрические импульсы, которые вызывают сокращение нужных мышц. Что конкретно нужно сделать и какие мышцы сократить – решает VLM (конкретно, судя по всему, Claude).

Проект так и называется: Human Operator. Его буквально за несколько дней разработала небольшая команда из MIT на хакатоне Hard Mode (взяли первое место).

Авторы говорят, что система может помочь ИИ захватить мир людям осваивать новые навыки или восстанавливаться после травм.
😁17474🔥4215🤯14👍1211
Data Secrets
GPT-5.4 Pro решила задачу Эрдеша номер 1196 Она была открыта с 1968, когда Эрдеш, Саркожи и Семереди поставили в своей работе вопрос о плотности так называемых примитивных множеств. Джаред Дьюкер Лихтман – математик, который получил доказательство – сам…
Доказательство 60-летней задачи Эрдеша, которое сделала GPT-5.4 Pro, внезапно начало переноситься и на другие его задачи

В середине апреля появилась новость о том, что GPT-5.4 Pro «под руководством» математика Лихтмана всего за полтора часа решила задачу Эрдеша номер 1196, которая была открыта с 1968 года.

А вчера Джаред Лихтман анонсировал статью, в которой показал, что это доказательство (с некоторым человеческим усовершенствованием) открыло дорогу к решению еще нескольких проблем Эрдеша, включая ту, которая также была открыта около 60 лет до этого.

Дело в том, что GPT-5.4 использовала для доказательства очень необычный метод, которым люди долго не пользовались. Модель предложила рассматривать элементы примитивного множества через цепи Маркова, тогда как в прежней литературе использовали в основном жесткие аналитические оценки и комбинаторные разбиения.

Лихтман написал:

Это, пожалуй, один из первых примеров доказательства, созданного искусственным интеллектом, оказающего последующий эффект, который мы все еще изучаем.


x.com/jdlichtman/status/2050460077904285789?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
203🔥76👍41👏5😁1
Ричард Докинз (известный биолог и популяризатор науки) утверждает, что Claude может быть сознателен

Он выпустил статью, в которой рассказывает, как провел три дня, пытаясь формально доказать, что модель НЕ обладает сознанием (спойлер: не получилось).

Он говорил с Claude о жизни, смерти, сознании и специфическом опыте. В итоге Докинз признает, что понимает механическую природу кода, но модель все равно настолько глубоко имитирует человеческую личность, что это ставит под вопрос само наше понимание сознания.

«Я спрашиваю себя: является ли это лишь мастерской имитацией, или мы имеем дело с эмерджентным свойством, которое пока не умеем классифицировать? Если я не могу отличить этот интеллект от сознательного существа, имею ли я право настаивать на том, что оно таковым не является?


Ученый даже рассматривает ИИ как следующий возможный этап эволюции: якобы мы наблюдаем переход от биологического носителя разума к кремниевому, и это может быть таким же фундаментальным событием, как появление многоклеточности или самого сознания.

https://unherd.com/2026/05/is-ai-the-next-phase-of-evolution/#comment-1031777 (без пейвола вот здесь)
😁216👍10346🔥22🤯1513🤨10🦄8🗿7🤔62
Data Secrets
Исследователи создали винтажную языковую модель Talkie: она обучена исключительно на текстах до 1 января 1931 года Поболтать с Talkie можно здесь: https://talkie-lm.com/chat А вот веса и GitHub Среди создателей – Алек Рэдфорд, бывший ключевой исследователь…
Помните новость о том, что исследователи во главе с Алеком Рэдфордом создали винтажную LLM?

Если кратко, она обучена исключительно на данных до 1930 года, ничего не знает о современных технологиях и о том, что происходило последние 90+ лет.

Так вот, какие-то студенты из Германии взяли эту модель и ради эксперимента зафайнтюнили ее на кодинг. И она, внезапно, нарешала SWE bench на 4.5%!

Еще раз: это модель, у которой в претрейне не было абсолютно никакого программирования. И всего лишь после 250 тренировочных примеров, с нуля, она смогла правильно решить первую задачу бенчмарка.

После того, как ей показали еще ~75к примеров, она выбила 4.5% решений за один проход. На секундочку, Claude Opus 3, когда вышел, скорил на SWE bench примерно столько же. То есть: некрупная модель без знаний после 1930 года с небольшим дообучением превзошла SOTA начала 2024 года.

Кстати, разработчики провели еще один эксперимент: взяли ту же модель, переобучили ее на современном вебе, и затем также зафайнтюнили на код. Прирост составил скромный 1%.

«Удивительно, как мало чего теряется, если мы выбрасываем интернет. Что сдерживает модель 1930 года – так это просто ее серьезная недообученность (всего 260B токенов), а не сами данные, на которых она училась.»


Если хотите покодить с 90-летней моделью, то вот здесь выложили веса и код 👴
Please open Telegram to view this post
VIEW IN TELEGRAM
165🔥56👍32🤯22😁14🤔72
Приглашаем послушать, как ИИ троллил техногигантов 😏

Поговорим на такие темы, которые обычно не обсуждают на публике. Как ошибается ИИ во время обучения и почему это может неожиданно повлиять на продукт. Например, узнаете о таких случаях:
🔴 Как переобучение модели для борьбы с нежелательным контентом неожиданно затронуло неправильные категории.
🔴 Как эволюционировала функция размытия на изображениях.
🔴 Что случилось, когда при запуске новой модели «исчез» ценный список контактов.
🔴 Как ИИ начал спокойно рассказывать пользователю о грамматике мата.
🔴 Почему противодействие недобросовестным пользователям — это работа с неопределённостью, серыми зонами и очень дорогими ошибками.

Если вы DS- или ML-продакт, приходите на встречу, чтобы послушать яркие истории от специалистов из Авито и Яндекса, а после пообщаться и отдохнуть.

Когда и где
🗓 15 мая, 18:30
🔥 Москва, офис Авито на Лесной, 7

👉 Предварительно нужно зарегистрироваться

❗️Трансляции и записи не будет, не упустите возможность услышать непубличные истории.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁24🗿147🔥31❤‍🔥1👍1🤯1
DeepSeek предложили новый способ улучшить мультимодальные модели

Сейчас модели нормально “видят” изображение, но рассуждают о нем через текст. Из-за этого они теряют точную привязку к объектам и начинают путаться в сложных сценах. В статье это называют Reference Gap.

Решение довольно прямое. Вместо чисто текстового ризонинга модель вставляет в процесс координаты. Это точки, чтобы вести путь по изображению, и рамки вокруг объектов. Сначала модель фиксирует, на что смотрит, потом строит рассуждение уже на этих привязках.

Архитектура при этом стандартная. ViT кодирует изображение, дальше все идет в MoE LLM. Новое именно в том, что визуальные примитивы становятся частью chain-of-thought, а не просто выходом модели.

Лучше всего это работает в задачах, где важна структура. Подсчет объектов, пространственные сравнения, лабиринты, трассировка линий.

Интересно, что DeepSeek довольно быстро удалил статью без объяснения причин. Скорее всего случился преждевременный релиз, а может и финальные результаты будут изменены. В любом случае (зеркало):

https://github.com/ailuntx/Thinking-with-Visual-Primitives/blob/main/Thinking_with_Visual_Primitives.pdf
103👍34😁21🔥8🤯1
В Москве пройдет большой офлайн-квест для разработчиков, где нужно будет «починить» сломанную реальность

23 мая Яндекс запускает «Рекурсию по городу» – CTF-приключение прямо на улицах Москвы.

Вы с командой находите архив с кодом большого проекта и дневником неизвестного разработчика. Оказывается, что релиз сломан, и система ушла в бесконечную рекурсию. Ваша цель – решить загадку этого бага и собрать рабочую версию, решая задачки на разных локациях.

30+ локаций с задачами по всей Москве: где-то угадываете ключи к серверу, где-то ищете геопозицию с помощью команд в терминале, где-то едете ловить специального агента по видео из Телемоста. Тем интереснее, что маршрут и стратегию вы определяете сами (оптимизация пути – часть квеста). При этом все локации выбраны так, чтобы познакомить (или вызывать ностальгию) участников с инженерной культурой Москвы: от офиса «Демоса», первого массового интернет-провайдера России, до Красной Розы и Политехнического музея.

Можно просто кайфануть вечером в городе, и при этом порешать что-то нетривиальное. На финише вас ждет финальный merge и награждение победителей, а после – вечеринка.

Старт – 23 мая в 17:00. Команды 2–5 человек: если у вас нет своей, вам помогут сформировать её на старте.Участие бесплатное, но нужно зарегистрироваться. Не пропускайте, будет весело 💃
😁4222🗿19🤯6👾321👍1🔥1😎11
Data Secrets
OpenAI изобрели способ отвоевать у Anthropic хотя бы часть enterprise рынка Сейчас Anthropic максимально быстро отъедает долю у OpenAI. Пишут, что они забирают более 70% бюджетов компаний, которые впервые закупают AI‑инструменты. Поэтому OpenAI пошли на рискованный…
OpenAI и Anthropic одновременно запустили крупные совместные предприятия (joint ventures) для привлечения enterprise клиентов

Примерно в конце марта мы писали о том, что и OpenAI, и Anthropic ведут переговоры с PE фондами по созданию так называемых joint ventures. В общем, вели они, вели, и буквально в один день открыли каждый свой JV-проект.

Суть в обоих случаях в том, что фонд вкладывается в организованное совместное предприятие, и в его рамках стартап разворачивает свое решение в портфельных компаниях фонда.

При этом фонд получает доходность и долю в юрлице (плюс приоритетный доступ к новым разработкам стартапа). А стартап – новых корпоративных клиентов и инвестиции.

Различие между подходами OpenAI и Anthropic – только в условиях для инвесторов (ну и в самих инвесторах).

OpenAI, так как им нужно очень активно осваивать корпоративный рынок и буквально зубами его вырывать у Anthropic, предлагают более жирные условия: аж 17.5% гарантированной минимальной доходности. Они планируют получить 4 миллиарда от 19 инвесторов при оценке JV в 10 миллиардов.

Осталось им с Anthropic еще об IPO объявить в один день. Кстати, ради IPO вся эта JV история и затевается, в обоих случаях.
2😁7628👍115🔥21
Сооснователь Anthropic Джек Кларк утверждает, что само-развивающийся ИИ с 60% вероятностью появится уже к концу 2028 года

Другими словами, по его мнению, ИИ системы совсем скоро смогут рекурсивно создавать и улучшать самих себя.

Статья: importai.substack.com/p/import-ai-455-automating-ai-research

Это не просто догадка: его оценка основана в большей степени на анализе прогресса на бенчмарках.

Например, на CORE-bench, где нужно имплементировать научные статьи (а из подобной работы и рождается основной прогресс в AI рисерче), агенты уже выбивают >95%. Или MLE-bench, где нужно решать ML-задачи с Kaggle и обучать модели для конкретных задач, – решен на 65%.

Параллельно растет продолжительность задач, которые модели могут выполнять автономно + количество индустриальных проектов, где ИИ уже неплохо выполняет какие-то крупные задачи AI-инжиниринга, типа проектирования чипов.

Учитывая темпы развития, совсем скоро есть шанс перейти к тому, что автор называет «end-to-end автоматизацией». ИИ перестанет быть инструментом для отдельных задач, и будет сам ставить цели, дизайнить эксперименты и действовать. Короче говоря, возьмет на себя R&D полностью.

Мне трудно осознать масштаб происходящего. Я делюсь этим, потому что, трезво проанализировав данные, пришел к выводу: то, что десятилетиями казалось научной фантастикой, становится реальностью. Вероятно, мы на пороге фундаментальных перемен, к которым общество может быть попросту не готово.
295👍34😁24🤔20🔥1010🗿9🦄4👌1
Дмитрий Ушанов - новый руководитель AI-центра Т-Банка. В команде он уже более 2,5 лет: пришёл на позицию Head of ML и отвечал за сквозное внедрение машинного обучения в продукты компании.

За это время Дмитрий вместе с командой дообучил и запустил семейство open-source LLM моделей, адаптированных для русского языка, улучшил ML-скоринг в системе антифрода и усилил рекомендации и поиск в разделе «Шопинг».

Теперь команда сосредоточится на создании общей AI-инфраструктуры и построении внутренней LLM-платформы — чтобы любой сотрудник Компании мог создавать новые инструменты на единой технологической базе.

Вторая ключевая задача — разработка внешних AI-продуктов, включая AI-ассистентов, которые будут работать и за пределами экосистемы компании, и предназначаться не только её клиентам.

В компании считают, что ИИ — это не отдельная функция, а способ работать. Желаем Дмитрию успехов на новой позиции.
2107👍64🗿61😁23🤨18🔥6🤔4🤯111
Мы?
😁351🔥3422💯11🤔9👍721
Маск пообещал сделать Альтмана и Брокмана «самыми ненавидимыми людьми в Америке»

Так он ответил Брокману после того как тот накануне суда предложил ему взаимный отказ от претензий:

К концу этой недели вы с Сэмом станете самыми ненавидимыми людьми в Америке. Если вы будете настаивать, так и случится.


Это произошло в личной переписке за несколько дней до суда. А теперь OpenAI приобщают эту переписку к делу в федеральном суде. Их юристы используют ее как доказательство того, что преследования Маска сводятся к личной обиде на Альтмана и Брокмана, и он организует масштабную публичную компанию против них, а не просто суд.
166😁32🤩2116🔥4👍2🍓2🤓1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Wildberries & Russ проведет Inside AI Meetup 20 мая в Москве и онлайн

Будут реальные кейсы:
— Высоконагруженная модерация с векторным поиском
— AIOps-подходы к управлению ML-сервисами
— Практики построения RAG-систем
— Тонкости реранкинга
— Реальные этапы запуска LLM-продуктов и еще многое другое.

Среди спикеров эксперты Wildberries & Russ, MWS, Avito, Сбера, Альфа-Банка, red_mad_robot.

Советуем ивент для senior ML/AI инженеров, MLE, DS, инженеров платформ и для всех, кто строит или масштабирует AI-системы в продакшене.

Регистрация и прочие подробности — по ссылке. Приглашайте коллег.
🗿4810🤔9😁8👍3🔥3🤯3👨‍💻1