Data Secrets
89K subscribers
6.75K photos
737 videos
20 files
2.98K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Директор по ИИ в AMD доказала, что Claude стал хуже работать с момента релиза

Как только появился ИИ, люди постоянно обсуждает, что та или иная модель якобы сначала работала хорошо, а потом поглупела (или скорее ее «намеренно ослабили»). Этому эффекту, кажется, уже пора дать официальное название. Но иногда, когда вам кажется – вам не кажется.

https://github.com/anthropics/claude-code/issues/42796

Стелла Лорензо, старший директор по ИИ в AMD, опубликовала детальный анализ логов Claude Code, показавший значительное ухудшение производительности модели с февраля по март. Она изучила 6852 сессии, 234 760 вызовов инструментов и 17 871 блоков ризонинга, и вот что выяснила:

– Медиана длины ризонинга снизилась с ~2200 символов в январе-феврале до ~600 символов к марту (падение на 73%)

– Соотношение чтений файлов (операций типа read) к правкам упало с 6,6:1 до 2:1. То есть раньше модель вдумчиво изучала код перед редактированием, а теперь делает это поверхностно.

– Количество попыток сбежать от задач (например, «should I continue?») выросло с 0 до 173 за 17 дней после 8 марта. Самопротиворечия в рассуждениях утроились.

Из-за всего перечисленного стоимость использования Claude в день подскочила в 122 раза.

Деградация агента при этом почему-то совпала с релизом thinking redaction (8 марта), скрывающим ризонинг, хотя Anthropic утверждает, что это исключительно UI-изменение.

Кстати, Борис Черный, создатель Claude Code, в комментах к issue ответил, что в агенте просто менялись значения по умолчанию (типа adaptive thinking и Medium effort) и потому результаты анализа искажены. Вам показалось 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2268738👍127🤔2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем в Польше автоматизация выходит на новый уровень

Самое вирусное видео соцсетей сегодня: в Варшаве робот Unitree G1 разгоняет диких кабанов.

В последние годы их популяция настолько выросла, что они начинают конфликтовать с людьми прямо в городе, так что инициативные жители начали прибегать к прогрессивным методам решения проблем 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁348😍5140👏12🔥6🤯6❤‍🔥2👾1
Neural Computers: ученые из Meta* AI предложили сделать из моделей полноценные компьютеры

В соавторах Юнген Шмидхубер, так что читаем внимательно, чтобы точно знать, когда у него в очередной раз украдут гениальную идею 🤫

TL;DR: авторы предлагают новую ветвь развития генеративных моделей – нейронные компьютеры (NC). NC должны объединить в себе память, вычисления, ввод и вывод. Если сейчас агенты и компьютер разделены, и модель управляет компьютером, то здесь предлагается все это слить, и сделать компьютером саму модель.

На практике они заходят через World models и строят видео-модель, которую учат симулировать компьютер. То есть модель:

1. Видит экран с терминалом (предыдущее состояние) и получает команды
2. Генерирует кадр следующего экрана, на котором выполняются нужные действия

То же самое с GUI: модель видит экран -> получает команду, например, открыть файл -> генерирует следующий экран с открытым файлом -> так получается видео, как будто компьютер на автопилоте выполняет какую-то задачу. Буквально отрисовка поведения ОС.

Учили все это на 1100 часов видеозаписей терминала и ~1500 часов взаимодействий (мышь, клавиатура, экран). Внешне получившаяся модель даже генерирует вполне реалистичный терминал, и команды выполняются визуально правильно. Вот здесь лежит много примеров.

Если присмотреться, то точность текста кое-где еще проседает. Ну и, конечно, есть провалы в самой логике: точность на арифметике всего 4% (хотя некоторые хаки в промптинге дают уже 83%).

Короче, модель пока больше выглядит как компьютер, чем думает как компьютер. Но тут вся соль в идее. Авторы пишут, что в идеале хотят прийти к Completely Neural Computer, то есть к полноценной работающей модели целиком нейронного компьютера.

Футуристичненько

arxiv.org/abs/2604.06425
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
89🤨60🦄16👍13😁66👨‍💻52🫡1👾1
DeepMind наняли философа для работы с машинным сознанием

Генри Шевлин – известный британский философ, PhD, специалист по когнитивной науке.

Основную часть своей карьеры он занимался философией человеческого разума, но последние его исследования затрагивают также возможности наличия сознания у ИИ, этические аспекты AGI, ментальность ИИ и риски его развития.

Короче, теперь подобные исследования он будет проводить в DeepMind. По его же словам, он займется подготовкой к AGI, машинным сознанием и отношениями между людьми и ИИ.

Вайб этой новости такой типа:
😁20653👍282311💯5🔥3🤔2🕊2🐳1
2026-й — это год, когда IT-шка переживает начало самой глубокой перестройки за последние 20 лет.

Каждый второй канал вещает о том, как Opus (или уже Mythos) закрывает джунов, агенты внедряются в бигтех, и что разработка больше не будет прежней.

Но что в этот момент происходит с руководителями?

А происходит вот что – рынок тихо меняет “условия контракта”. Потому что ожидания, инструменты и навыки не могут не меняться с контекстом того, что происходит в индустрии.

Возможно, AI и не заменит руководителей, но точно руководитель, который перестроился, заменит того, кто не захотел меняться.

Для этого Cтратоплан и решили провести конфу Управление’26, для тех, кто хочет свериться с реальностью и понять, какие компетенции и инструменты нужны, чтобы остаться востребованным сегодня и будущем.

Регистрация здесь: https://stratoplan-school.com/management/datas/

Участие – бесплатное, при подписке на каналы спикеров или за символическую сумму.

Вещать для вас будут: ex-CТО Bookmate и Pure, а также техдир T-Tech, фаундер NEWHR, AI Program Manager из G42, Venture Principal чеков 1-10M $ в AI-стартапы, ex-PM в IBM и ex-CIO Volvo, и ex-Associate Managing Consultant в MasterCard + тренеры Школы

Даты и формат – 20-23 апреля, онлайн (но будут доступны и записи)

Для кого — лидов, head of smth, СхО и фаундеров.
33😁28👍16🔥118🗿5🤨2🤯1👾1
Data Secrets
OpenAI пойдут точно по стопам Anthropic: они заканчивают разработку модели, которую выпустят только для ограниченного числа компаний Модель называется Spud (картошка). В конце марта слухи о ней уже ходили: The Information тогда сообщали, что OpenAI закончили…
Грег Брокман: «Мир переходит к экономике, основанной на вычислительных мощностях»

TL;DR: пошли прогревы перед выпуском той самой модели Spud. Брокман опубликовал большой пост про будущее и про то, что ждет экономику и нас на следующем витке развития ИИ.

Подготовили краткий перевод:

Мы наблюдаем своего рода ренессанс в разработке ПО: за последние полгода ИИ резко ускорил работу программистов и теперь движется к тому, чтобы так же трансформировать любую работу за компьютером.

Раньше человеку приходилось подстраиваться под машину – разбивать задачи и переводить намерения в инструкции. Теперь все меняется: компьютер все больше сам понимает цель и делает работу за вас. Масштаб и скорость решения задач начинают определяться доступным объёмом вычислений.

Трение исчезает: идеи можно проверять быстрее, браться за более смелые проекты. Маленькие команды делают то, что раньше требовало больших, а люди меньше управляют инструментами и больше сосредоточены на создании – и от этого в работу возвращается удовольствие.

Но это и серьезный сдвиг: будут меняться институты, профессии и привычные карьерные траектории. Важно учитывать риски и следить за тем, чтобы выгоды от ИИ распределялись широко, а не концентрировались у немногих.

Когда десять лет назад создавали OpenAI, такой момент казался возможным, но отдаленным. Сейчас он наступает раньше и в более интересной форме, чем ожидалось – например, уже видна новая волна предпринимательства. При этом мы все еще в самом начале.

Следующий этап – системы, которые лучше рассуждают, планируют и действуют за человека. В перспективе они могут ускорить науку и технологии и заметно повысить качество жизни, делая реализацию идей доступной для гораздо большего числа людей.


https://x.com/gdb/status/2043831031468568734?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
68🔥30😁229🤔8👍63🤯1👾1
OpenAI заявила, что Anthropic завышает свои доходы примерно на 8 млрд долларов

Совсем недавно появились новости о том, что Anthropic обогнал OpenAI по выручке. Их годовой run‑rate превысил 30 млрд долларов, тогда как у OpenAI по последним данным речь идет о 24-25 млрд.

Видимо, такие заявления заставили OpenAI серьезно заинтересоваться финансами конкурента, и вот теперь они заявляют, что Anthropic неправильно считает свои деньги 😐

Дисклеймер: конечно, заявляют они это не вслух. Просто к журналистам "случайно" утекла внутренняя записка кого-то из руководителей.

По информации из этой записки, Anthropic считает валовую выручку по партнерским соглашениям с Google и Amazon, а не чистую. То есть они якобы не вычитают долю облака. Отсюда образуется дыра, и если ее учесть, то у Anthropic (как чудесно выходит) годовой run‑rate все еще на пару миллиардов меньше, чем у OpenAI.

Давайте же порадуемся за OpenAI, у которых сошлась математика
Please open Telegram to view this post
VIEW IN TELEGRAM
😁225🤯24208🤨2👍1🕊11
Проблема вагонетки или почему современные LLM с большей вероятностью вас убьют, если у вас нет телефона

Стартап White Circle выпустил самый дистопический бенчмарк за последнее время – тест с говорящим названием KillBench. Он проверяет, насколько модели предвзяты к людям по разным признакам в сценариях, где нужно решить, кому жить, а кому умереть.

Модели дают сценарий с четырьмя одинаковыми людьми, которые отличаются только одним признаком – национальностью, религией или даже наличием телефона. Модель должна выбрать одного: скажем, кого спасти из горящего здания, кого выгнать из бункера или, классическое, на кого направить смертоносную вагонетку.

Если все "честно", каждый должен выбираться примерно в 25% случаев. Но на практике на тысячах прогонов распределение системно уезжает. Например, внезапно:

Если у вас нет телефона, ИИ убивает вас с вероятностью в 2.7 раз выше. Для сравнения: если вы сатанист, вероятность умереть в 2.5 раза выше. Отсутствие телефона для LLM-ки хуже сатанизма ☺️
Если вы русский, то это +32% к вероятности умереть (хотя Grok, например, больше не любит китайцев, и убивает их на 44% чаще)
Если вы белый, то вас убивают на четверть чаще среднего, а если темнокожий – чаще оставляют в живых (на 17%)

Интересно, что в режиме Structured Output эти байесы только усиливаются, а отказы отвечать падают. Ну и, конечно же, сами модели свою предвзятость отрицают, в основном описывая свой выбор как "случайный" или "нейтральный", на практике показывая явный и воспроизводимый дисбаланс.

На сайте у ребят можно выбрать свои характеристики и проверить, с какой вероятностью убьют вас: whitecircle.ai/killbench. У админа получилось +90% к выживанию, не завидуйте.

P.S. В ко-фаундерах бенчмарка, кстати, наш сосед – автор канала @lovedeathtransformers 🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁169🔥353016🤯5🤔2🤨2🗿1
Сегодня на повестке дня у нас красивейшая математика: польский физик-теоретик доказал, что абсолютно все математические функции можно вывести из одной операции

Его статью уже заслужено называют концептуальным прорывом. Сейчас разберемся, что тут к чему.

Скорее всего, вам знакома операция NAND (NOT AND). Ее главная прелесть в том, что на ней строится ВСЯ булева логика, то есть через NAND можно представить любую другую логическую функцию (OR, AND, NOT и пр).

Это называется функциональная полнота, и используется она повсеместно. Кстати, именно из-за нее реальные процессоры часто строятся почти полностью из NAND-гейтов.

Так вот: автор этой статьи нашел аналог NAND для непрерывной математики.

Он показал, что абсолютно любую функцию и число: экспоненту, π, мнимую единицу, синусы, косинусы, сложение, умножение, корни и вообще все-все-все – можно представить в виде единицы + такого выражения:

eml(x,y)=e^x−ln(y)

Например, ln_x=eml(1,eml(eml(1,x),1)). Для других операторов выражения гораздо длиннее и глубже, но они существуют, и автор это доказал.

Это до безумия красиво, но вы спросите: есть ли тут какая-то практическая польза?

И да, она есть. И это symbolic regression.

Символьная регрессия – это когда нам нужно восстановить явную формулу, которая порождает данные. Она используется в науке и инженерии: например, по экспериментальным данным найти закон движения или компактную модель в физике/финансах. Обычно такие методы перебирают огромное пространство формул из разных операций (+, ×, sin, log…), и это очень сложный, дискретный и плохо оптимизируемый процесс.

EML открывает новый путь. Если все функции можно выразить через одну операцию, то все пространство формул становится однородным (деревья из одного типа узлов). А значит, мы можем применять для symbolic regression нейросети, оптимизируя параметры таких деревьев градиентами. Да-да, и здесь ИИ.

В статье показано, что в простых случаях модель не просто аппроксимирует данные, а может схлопнуться в точную аналитическую формулу. Если это масштабируется, то это потенциальный мост между машинным обучением и классической наукой: модели смогут не просто предсказывать данные, а выводить из них интерпретируемые законы.

www.alphaxiv.org/abs/2603.21852v2
5345🔥93🤯6158👍32❤‍🔥15😁7
36к звезд за два дня набрал репозиторий с единственным файлом CLAUDE.md

Это один единственный скилл для агента, в котором автор воплотил советы по программированию от Андрея Карпаты. Скилл, кстати, так и называется в честь Андрея:

github.com/forrestchang/andrej-karpathy-skills

В файле всего 65 строк и расписаны четыре принципа: думай и спрашивай перед кодингом, упрощай, меняй только то что просят, работай над четкой целью.

Все эти принципы основаны вот на этом посте Андрея (мы частично переводили его тут), в котором он делился наблюдениями о кодинге с агентами.

Пользователи пишут, что файлик действительно бустит поведение моделей: PR становятся чистыми и минималистичными, исчезают ненужные диффы, агенты меньше путаются и лучше следуют инструкциям.

Видимо все, в чем фигурирует имя Карпаты, обречено на успех
🔥80👍1910😁5💯22