Data Secrets
89.8K subscribers
6.84K photos
753 videos
20 files
3.05K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Российские ученые и студенты смогли повысить точность айтрекеров в 2 раза в сложных условиях

Исследователи из Лаборатории интеллектуальных сенсорных систем Центрального университета и Сколтеха разработали алгоритм, который решает давнюю проблему айтрекеров. Стандартные устройства теряют точность, если человек в очках или на него падает яркий свет: появляются лишние блики, и система не может правильно определить зрачок.

Результаты тестов показали, что точность определения зрачка в очках выросла на 64%, а при ярком освещении — на 27%. Ошибка на Full HD-экране – около 16 пикселей, что в два раза меньше, чем у более ранних методов.

Разработка позволит значительно улучшить эффективность и масштабировать применение айтрекеров в реабилитации пациентов, в распознавании на ранних стадиях неврологических болезней, в образовании, киберспорте, а также для совершенствования пользовательского опыта при взаимодействии с графическим интерфейсом.

Работу отметили на международной конференции IEEE REEPE наградой «Best Paper Award» как лучшую статью.
143👍42🔥33🗿15😎61
Data Secrets
Как вывести ваши научные исследования на новый уровень с ИИ Если вы занимаетесь наукой – сейчас крайне важно научиться применять AI к своей задаче и встраивать его в исследовательский процесс.Сегодня ИИ становится ключевым фактором, который определяет уровень…
До закрытия регистрации в ШАД осталась пара дней: последний шанс подать заявку в этом году

Школа анализа данных от Яндекс – это мощная база по ML + реальные задачи и понятная траектория роста. Направления: ML-разработка, Data Science, инфраструктура больших данных и анализ данных в прикладных науках.

Форматы разные: очно, гибридно или онлайн. Поступить можно по классическому треку или по упрощенному – для специалистов с опытом.

Если планировали – лучше не тянуть. Заявки принимают до 3 мая.
🗿4616🤨8👍4😁4🤯3🔥2
Media is too big
VIEW IN TELEGRAM
Figure AI поделились статистикой: теперь их завод BotQ выпускает одного полноценного робота гуманоида каждые 90 минут

В течение этого года они планируют сделать 100к единиц (это уже уровень среднего автопрома), а на горизонте нескольких лет оптимизировать конвейер до 1 миллиона экземпляров в год.

Тем временем их роботы еще даже не продаются на свободном рынке. Просто знайте, что где-то в мире есть вот такая армия 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥143👍2919🫡11🤔10😁7🤯55🗿22
Илон Маск признался, что в xAI использовали модели OpenAI для обучения Grok

По сообщениям из зала суда, Маска спросили, использовала ли xAI дистилляцию на моделях OpenAI для обучения Grok.

Сначала он ответил в общем духе, мол это распространенная практика в индустрии. Но когда его прямо спросили, означает ли это «да», он сказал: «Частично».

Это, естественно, не означает какое-либо нарушение. Все зависит от того, как именно и на чем именно учили. Но OpenAI, судя по всему, пытаются доказать факт недобросовестной конкуренции Маска с OpenAI, и это признание им как нельзя кстати.
😁17349149👍1🤨1🦄1
Apple случайно слила в открытый доступ свои CLAUDE.md файлы

Разработчик из Твиттера случайно обнаружил их в обновлении Apple Support app v5.13. В файлах были всякие правила кодстайла, архитектурные заметки и ограничения для работы Claude Code (снова + к цене акций Anthropic 😐).

Твит набрал несколько миллионов просмотров: https://x.com/aaronp613/status/2049986504617820551?s=46&t=pKf_FxsPGBd_YMIWTA8xgg

Видимо, Apple его тоже увидели, потому что вскоре поспешили выпустить v5.13.1 с затертыми файлами.

Эра вайбкодинга прекрасна 😆
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2513414👍7🤯2🕊1🤝1
Пробные экзамены в ШАД теперь можно написать до поступления

Каждый год на экзаменах в ШАД многие сильные студенты недобирают баллы. Причина обычно не в знаниях: залипли на задаче, не рассчитали время, не дошли до конца, начали нервничать.

Потому что здесь важно не только уметь решать, но и пройти экзамен как процесс: держать темп 5 часов, распределять силы и не ломаться, если что-то идет не по плану.

Наши друзья из SHAD Helper запустили прекрасную возможность написания Пробных экзаменов в ШАД. И вот это как раз действительно поможет сдать реальный экзамен:

– Формат ровно тот же, что и на отборе: Яндекс Контест, жесткий тайминг и задачи, максимально приближенные к шадовским.

– После экзамена вы получите детальные результаты работы и честную оценку своего уровня.

– Эксперты из МГУ, ВШЭ и МФТИ проведут разборы вариантов с объяснением, где теряются баллы и как решать быстрее.

Отдельный плюс – можно начать бесплатно: есть доступ к вариантам, чтобы просто попробовать формат и оценить себя.

Если готовитесь к ШАДу, то это, пожалуй, самый прямой способ прокачаться и повысить уверенность в оставшееся время перед экзаменом.

Запись и подробности – здесь

Реклама. ООО "Школа Высшей Математики", ИНН 9728100991
🤨3922🗿15👍7😁61🔥1🤯1
Media is too big
VIEW IN TELEGRAM
В MIT сделали ИИ-систему, которая может управлять человеческим телом

Она подключается к руке и посылает слабые электрические импульсы, которые вызывают сокращение нужных мышц. Что конкретно нужно сделать и какие мышцы сократить – решает VLM (конкретно, судя по всему, Claude).

Проект так и называется: Human Operator. Его буквально за несколько дней разработала небольшая команда из MIT на хакатоне Hard Mode (взяли первое место).

Авторы говорят, что система может помочь ИИ захватить мир людям осваивать новые навыки или восстанавливаться после травм.
😁17474🔥4215🤯14👍1211
Data Secrets
GPT-5.4 Pro решила задачу Эрдеша номер 1196 Она была открыта с 1968, когда Эрдеш, Саркожи и Семереди поставили в своей работе вопрос о плотности так называемых примитивных множеств. Джаред Дьюкер Лихтман – математик, который получил доказательство – сам…
Доказательство 60-летней задачи Эрдеша, которое сделала GPT-5.4 Pro, внезапно начало переноситься и на другие его задачи

В середине апреля появилась новость о том, что GPT-5.4 Pro «под руководством» математика Лихтмана всего за полтора часа решила задачу Эрдеша номер 1196, которая была открыта с 1968 года.

А вчера Джаред Лихтман анонсировал статью, в которой показал, что это доказательство (с некоторым человеческим усовершенствованием) открыло дорогу к решению еще нескольких проблем Эрдеша, включая ту, которая также была открыта около 60 лет до этого.

Дело в том, что GPT-5.4 использовала для доказательства очень необычный метод, которым люди долго не пользовались. Модель предложила рассматривать элементы примитивного множества через цепи Маркова, тогда как в прежней литературе использовали в основном жесткие аналитические оценки и комбинаторные разбиения.

Лихтман написал:

Это, пожалуй, один из первых примеров доказательства, созданного искусственным интеллектом, оказающего последующий эффект, который мы все еще изучаем.


x.com/jdlichtman/status/2050460077904285789?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
203🔥76👍41👏5😁1
Ричард Докинз (известный биолог и популяризатор науки) утверждает, что Claude может быть сознателен

Он выпустил статью, в которой рассказывает, как провел три дня, пытаясь формально доказать, что модель НЕ обладает сознанием (спойлер: не получилось).

Он говорил с Claude о жизни, смерти, сознании и специфическом опыте. В итоге Докинз признает, что понимает механическую природу кода, но модель все равно настолько глубоко имитирует человеческую личность, что это ставит под вопрос само наше понимание сознания.

«Я спрашиваю себя: является ли это лишь мастерской имитацией, или мы имеем дело с эмерджентным свойством, которое пока не умеем классифицировать? Если я не могу отличить этот интеллект от сознательного существа, имею ли я право настаивать на том, что оно таковым не является?


Ученый даже рассматривает ИИ как следующий возможный этап эволюции: якобы мы наблюдаем переход от биологического носителя разума к кремниевому, и это может быть таким же фундаментальным событием, как появление многоклеточности или самого сознания.

https://unherd.com/2026/05/is-ai-the-next-phase-of-evolution/#comment-1031777 (без пейвола вот здесь)
😁216👍10346🔥22🤯1513🤨10🦄8🗿7🤔62
Data Secrets
Исследователи создали винтажную языковую модель Talkie: она обучена исключительно на текстах до 1 января 1931 года Поболтать с Talkie можно здесь: https://talkie-lm.com/chat А вот веса и GitHub Среди создателей – Алек Рэдфорд, бывший ключевой исследователь…
Помните новость о том, что исследователи во главе с Алеком Рэдфордом создали винтажную LLM?

Если кратко, она обучена исключительно на данных до 1930 года, ничего не знает о современных технологиях и о том, что происходило последние 90+ лет.

Так вот, какие-то студенты из Германии взяли эту модель и ради эксперимента зафайнтюнили ее на кодинг. И она, внезапно, нарешала SWE bench на 4.5%!

Еще раз: это модель, у которой в претрейне не было абсолютно никакого программирования. И всего лишь после 250 тренировочных примеров, с нуля, она смогла правильно решить первую задачу бенчмарка.

После того, как ей показали еще ~75к примеров, она выбила 4.5% решений за один проход. На секундочку, Claude Opus 3, когда вышел, скорил на SWE bench примерно столько же. То есть: некрупная модель без знаний после 1930 года с небольшим дообучением превзошла SOTA начала 2024 года.

Кстати, разработчики провели еще один эксперимент: взяли ту же модель, переобучили ее на современном вебе, и затем также зафайнтюнили на код. Прирост составил скромный 1%.

«Удивительно, как мало чего теряется, если мы выбрасываем интернет. Что сдерживает модель 1930 года – так это просто ее серьезная недообученность (всего 260B токенов), а не сами данные, на которых она училась.»


Если хотите покодить с 90-летней моделью, то вот здесь выложили веса и код 👴
Please open Telegram to view this post
VIEW IN TELEGRAM
165🔥56👍32🤯22😁14🤔72
Приглашаем послушать, как ИИ троллил техногигантов 😏

Поговорим на такие темы, которые обычно не обсуждают на публике. Как ошибается ИИ во время обучения и почему это может неожиданно повлиять на продукт. Например, узнаете о таких случаях:
🔴 Как переобучение модели для борьбы с нежелательным контентом неожиданно затронуло неправильные категории.
🔴 Как эволюционировала функция размытия на изображениях.
🔴 Что случилось, когда при запуске новой модели «исчез» ценный список контактов.
🔴 Как ИИ начал спокойно рассказывать пользователю о грамматике мата.
🔴 Почему противодействие недобросовестным пользователям — это работа с неопределённостью, серыми зонами и очень дорогими ошибками.

Если вы DS- или ML-продакт, приходите на встречу, чтобы послушать яркие истории от специалистов из Авито и Яндекса, а после пообщаться и отдохнуть.

Когда и где
🗓 15 мая, 18:30
🔥 Москва, офис Авито на Лесной, 7

👉 Предварительно нужно зарегистрироваться

❗️Трансляции и записи не будет, не упустите возможность услышать непубличные истории.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁24🗿147🔥31❤‍🔥1👍1🤯1
DeepSeek предложили новый способ улучшить мультимодальные модели

Сейчас модели нормально “видят” изображение, но рассуждают о нем через текст. Из-за этого они теряют точную привязку к объектам и начинают путаться в сложных сценах. В статье это называют Reference Gap.

Решение довольно прямое. Вместо чисто текстового ризонинга модель вставляет в процесс координаты. Это точки, чтобы вести путь по изображению, и рамки вокруг объектов. Сначала модель фиксирует, на что смотрит, потом строит рассуждение уже на этих привязках.

Архитектура при этом стандартная. ViT кодирует изображение, дальше все идет в MoE LLM. Новое именно в том, что визуальные примитивы становятся частью chain-of-thought, а не просто выходом модели.

Лучше всего это работает в задачах, где важна структура. Подсчет объектов, пространственные сравнения, лабиринты, трассировка линий.

Интересно, что DeepSeek довольно быстро удалил статью без объяснения причин. Скорее всего случился преждевременный релиз, а может и финальные результаты будут изменены. В любом случае (зеркало):

https://github.com/ailuntx/Thinking-with-Visual-Primitives/blob/main/Thinking_with_Visual_Primitives.pdf
103👍33😁21🔥8🤯1
В Москве пройдет большой офлайн-квест для разработчиков, где нужно будет «починить» сломанную реальность

23 мая Яндекс запускает «Рекурсию по городу» – CTF-приключение прямо на улицах Москвы.

Вы с командой находите архив с кодом большого проекта и дневником неизвестного разработчика. Оказывается, что релиз сломан, и система ушла в бесконечную рекурсию. Ваша цель – решить загадку этого бага и собрать рабочую версию, решая задачки на разных локациях.

30+ локаций с задачами по всей Москве: где-то угадываете ключи к серверу, где-то ищете геопозицию с помощью команд в терминале, где-то едете ловить специального агента по видео из Телемоста. Тем интереснее, что маршрут и стратегию вы определяете сами (оптимизация пути – часть квеста). При этом все локации выбраны так, чтобы познакомить (или вызывать ностальгию) участников с инженерной культурой Москвы: от офиса «Демоса», первого массового интернет-провайдера России, до Красной Розы и Политехнического музея.

Можно просто кайфануть вечером в городе, и при этом порешать что-то нетривиальное. На финише вас ждет финальный merge и награждение победителей, а после – вечеринка.

Старт – 23 мая в 17:00. Команды 2–5 человек: если у вас нет своей, вам помогут сформировать её на старте.Участие бесплатное, но нужно зарегистрироваться. Не пропускайте, будет весело 💃
😁4222🗿19🤯6👾321👍1🔥1😎11
Data Secrets
OpenAI изобрели способ отвоевать у Anthropic хотя бы часть enterprise рынка Сейчас Anthropic максимально быстро отъедает долю у OpenAI. Пишут, что они забирают более 70% бюджетов компаний, которые впервые закупают AI‑инструменты. Поэтому OpenAI пошли на рискованный…
OpenAI и Anthropic одновременно запустили крупные совместные предприятия (joint ventures) для привлечения enterprise клиентов

Примерно в конце марта мы писали о том, что и OpenAI, и Anthropic ведут переговоры с PE фондами по созданию так называемых joint ventures. В общем, вели они, вели, и буквально в один день открыли каждый свой JV-проект.

Суть в обоих случаях в том, что фонд вкладывается в организованное совместное предприятие, и в его рамках стартап разворачивает свое решение в портфельных компаниях фонда.

При этом фонд получает доходность и долю в юрлице (плюс приоритетный доступ к новым разработкам стартапа). А стартап – новых корпоративных клиентов и инвестиции.

Различие между подходами OpenAI и Anthropic – только в условиях для инвесторов (ну и в самих инвесторах).

OpenAI, так как им нужно очень активно осваивать корпоративный рынок и буквально зубами его вырывать у Anthropic, предлагают более жирные условия: аж 17.5% гарантированной минимальной доходности. Они планируют получить 4 миллиарда от 19 инвесторов при оценке JV в 10 миллиардов.

Осталось им с Anthropic еще об IPO объявить в один день. Кстати, ради IPO вся эта JV история и затевается, в обоих случаях.
2😁7628👍115🔥21
Сооснователь Anthropic Джек Кларк утверждает, что само-развивающийся ИИ с 60% вероятностью появится уже к концу 2028 года

Другими словами, по его мнению, ИИ системы совсем скоро смогут рекурсивно создавать и улучшать самих себя.

Статья: importai.substack.com/p/import-ai-455-automating-ai-research

Это не просто догадка: его оценка основана в большей степени на анализе прогресса на бенчмарках.

Например, на CORE-bench, где нужно имплементировать научные статьи (а из подобной работы и рождается основной прогресс в AI рисерче), агенты уже выбивают >95%. Или MLE-bench, где нужно решать ML-задачи с Kaggle и обучать модели для конкретных задач, – решен на 65%.

Параллельно растет продолжительность задач, которые модели могут выполнять автономно + количество индустриальных проектов, где ИИ уже неплохо выполняет какие-то крупные задачи AI-инжиниринга, типа проектирования чипов.

Учитывая темпы развития, совсем скоро есть шанс перейти к тому, что автор называет «end-to-end автоматизацией». ИИ перестанет быть инструментом для отдельных задач, и будет сам ставить цели, дизайнить эксперименты и действовать. Короче говоря, возьмет на себя R&D полностью.

Мне трудно осознать масштаб происходящего. Я делюсь этим, потому что, трезво проанализировав данные, пришел к выводу: то, что десятилетиями казалось научной фантастикой, становится реальностью. Вероятно, мы на пороге фундаментальных перемен, к которым общество может быть попросту не готово.
295👍32😁24🤔20🔥1010🗿9🦄4👌1