Data Secrets
88.6K subscribers
6.69K photos
731 videos
20 files
2.94K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Хорошая это новость или грустная, судите сами: ARC Invest посчитали, что к концу 2020-х суммарный объем текста, сгенерированного ИИ, превзойдет объем текста, который человечество накопило за последние 500 лет

Другими словами, ИИ понадобиться всего 5-10 лет, чтобы нагнать и перегнать человечество в плане количества написанного текста.

Оказалось, кстати, что 2025 стал первым годом, когда ИИ сгенерировал больше текста, чем люди. Подсчеты, конечно, очень приблизительные, – но все же.
172😁574011🤔7👍2🔥2🫡2💘1
Media is too big
VIEW IN TELEGRAM
OpenAI построена Альтманом на манипуляциях

Вчера вышел крайне занятный подкаст Стивена Бартлетта с журналисткой Карен Хао. Хао несколько лет занимается расследованием происходящего в OpenAI. Она даже написала об этом книгу «Empire of AI».

Она утверждает, что в рамках расследования провела более 300 интервью (в том числе 90+ с нынешними и бывшими сотрудниками OpenAI). Вот какие интересные детали ей удалось выяснить:

В 2015 году риторика стартапа была полностью переделана под Маска, чтобы получить его инвестиции и влияние. До 2015 года Альтман вообще не говорил об угрозе ИИ для человечества, а затем резко начал использовать язык, очень похожий на язык Маска про экзистенциальный риск ИИ. Маск и сам считает, что Сэм просто зеркалил его взгляды, чтобы завоевать доверие.

Тот же прием Альтман использует по сей день. Хао утверждает, что OpenAI абсолютно по-разному определяют термин AGI в зависимости от аудитории, которой его продают. Конгрессу – как систему, способную решать глобальные проблемы, потребителям – как самого лучшего персонального помощника, Microsoft – как систему, которая приносит много денег.

С Маском история тоже якобы кончилась именно с руки Альтмана. Оказывается, что много лет назад при первом обсуждении перехода к for-profit почти все фаундеры склонялись к тому, чтобы CEO новой структуры стал Маск. Но Альтман лично переубедил Брокмана, а затем и Суцкевера, что Илон слишком «непредсказуем» для этой роли. После этого Маск ушел.

Ну и, кроме того, еще несколько уже известных нам подробностей: про угрозы критикующим журналистам, обязательное подписание сотрудниками отказов от доли в компании и про уходы ключевых сотрудников из-за абьюза со стороны руководства.

Конечно, не забываем, что все это – журналистская интерпретация, подтвержденная только анонимными источниками. Но дыма без огня не бывает, верно?

И кстати, Маск прокомментировал подкаст так: «Scam Altman is super good at scamming»
Please open Telegram to view this post
VIEW IN TELEGRAM
1144😁6725👍1814🤔5🔥1
NeuralDeep Skills: локальная база агентных навыков под ру-сервисы

Всем, кто пользуется агентами, 100% известна такая вещь, как skills.sh. Это огромная база скиллов агентов под любые сервисы. Ставишь – и агент уже умеет с ними работать из коробки.

Так вот, в российском сообществе давно напрашивался аналог под локальный стек. И его сделал наш друг и коллега по тг – Валерий @neuraldeep. Он в целом регулярно делает разные практичные штуки для разработчиков, и это как раз одна из них.

Итак, встречайте: neuraldeep.ru/

Это база, в которой будут собраны скиллы для работы с самими разными ру-сервисами. Туда уже залили интеграции под инструменты Яндекс, Битрикс24, 1С и другое, чем многие пользуются каждый день.

– Установка все так же происходит одной командой, все привычно и понятно
Проект опенсорсный: туда можно просто прийти и залить свой скилл через GitHub (формат claude-skill)
– Есть модерация и базовые проверки безопасности

Из этого вполне может получиться что-то вроде стандартного слоя для агентных интеграций под рф-рынок. Если работаете с агентами – заходите попробовать или даже поучаствовать.

Проект -> neuraldeep.ru/
Гитхаб -> https://github.com/vakovalskii/neuraldeep
Следите за обновлениями в канале Валеры -> @neuraldeep
2105👍46🗿29🔥204😁3🤯31
Фаундер GitLab Сид Сийбранди «собрал» себе лечение от рака с помощью ИИ

В 2022 году у него диагностировали редкую форму рака позвоночника. После операции, химии и радиотерапии болезнь вернулась, а стандартные опции лечения фактически закончились.

И тут Сид, как настоящий инженер, решил подойти к лечению как к решению задачи.

По факту, он собрал вокруг себя небольшую биотех компанию из агентов. Он накопил максимально полный набор данных о себе – генетика, анализы, сканы – и начал работать с этим как с исследовательским проектом. ИИ помогал структурировать информацию, искать гипотезы и искать релевантные статьи.

В итоге лечение превратилось в цикл проверки гипотез. Инженер быстрыми итерациями параллельно тестировал по несколько подходов, постоянно корректируя стратегию. По сути R&D-пайплайн, только применный к собственной болезни.

По текущему статусу Сид в ремиссии. Эта история, конечно, не только про ИИ, но и про наличие денег и связей. ИИ тут скорее послужил катализатором. Но все же сам факт того, что подобное возможно в наше время – поражает.

Сид, кстати, сам описал весь процесс и подход, можно почитать вот тут -> https://sytse.com/cancer/
3259🔥76👍43😁8🤨6🦄5
600 тысяч рублей за решение задачи распознавания голоса

Криптонит запустили дататон по Speaker Recognition. Задача максимально прикладная – нужно собрать модель, устойчивую к искажениям аудио:

🔹искажения, вносимые акустической средой;
🔹посторонние шумы;
🔹реверберация;
🔹большое расстояние до микрофона;
🔹искажения каналов связи.

То есть по сути надо приблизить модель к условиям, в которых реально живут голосовые интерфейсы. Это как раз тот слой, где обычно и происходит разница между «моделью из ноутбука» и «моделью в проде».

Отличная возможность прокачать знания с упором на robustness, учитывая, что интересные задачи на аудио ML публикуются не так часто – особенно с фокусом на реальные условия, а не чистые датасеты.

А еще из приятного – призовой фонд в 600 000 рублей 🤑

-> Регистрируйтесь до 10 апреля
Please open Telegram to view this post
VIEW IN TELEGRAM
😁47🤨17🗿119👍9🤯3🔥2
В iOS 27 Siri сможет подключаться к любым AI-сервисам из App Store

Те, кто списывали Apple с ИИ-счетов, видимо, поторопились. Теперь они могут начать зарабатывать на ИИ больше любого производителя моделей.

После неудач с собственными моделями они, кажется, выбрали другую тактику: не тратить миллиарды на датацентры, а воспользоваться синицей в руке.

У Apple уже есть огромная база устройств, и теперь они хотят сделать из Siri платформу-агрегатор: она сможет подключаться к любому сервису, – будь то Gemini, ChatGPT или Claude, – а Apple будут зарабатывать до 30% комиссии с проданных подписок.

Так работала монетизация с ChatGPT, когда тот был встроен в iOS 18.

Фишка всей этой истории в том, что Apple, в отличие от всех остальных, могут выходить по ИИ в огромный плюс. The Financial Times недавно считали Показатель «Revenue generated per dollar of fixed assets» (выручка на каждый доллар, вложенный в основные средства).

Смотрите график: у Apple дела относительно остальных просто замечательно. Пока у всех метрика падает из-за затрат на ИИ, у Apple она остается стабильной и высокой. И если они найдут способ эффективно монетизировать свой потенциал в виде миллиардов пользователей их техники, то станут лидерами по отдаче от ИИ, так и не сделав ни одной нормальной собственной модели 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
97😁6338🔥7🗿7🤔4
Самый хайпующий проект в интернете прямо сейчас – Pretext

Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS. То есть он сам считает layout текста, без DOM и без браузерного reflow.

Звучит странно, потому что мы привыкли, что за это отвечает браузер. Но браузер делает это тяжело, через каскад стилей, зависимости между элементами и пересчеты при каждом изменении. Если текст часто меняется, вся система начинает тормозить. Pretext убирает этот слой и сводит задачу к прямой математике.

Собственно, это дает кратный выигрыш по скорости – до 500х.

Зачем это все нужно?

Сейчас появляется все больше интерфейсов, где текст и структура не заданы заранее, а формируются динамически. В частности – это история про агентов.

Когда агент собирает UI под задачу пользователя, интерфейс не фиксирован, он постоянно меняется, иногда буквально на каждом шаге. И каждый такой апдейт через браузерный reflow – это лишняя задержка и непредсказуемость.

С Pretext это занимает гораздо меньше времени + полностью контролируемо со стороны кода. Когда интерфейс генерирует не человек, а система, удобнее работать с прямыми алгоритмами, а не с тяжелым браузерным пайплайном.

Ну и, конечно, выглядит это очень красиво. За счет скорости обработки выдумать поверх Pretext можно что угодно (примеры прикладываем). И все же в первую очередь проект интересен именно тем, как изящно он ложится на новые сценарии.

github.com/chenglou/pretext
👍14258🔥41🤯7😁5🍓4👏2🤩2
Что такое RL-среды и почему без них не будет никаких ИИ-агентов

Индустрия переходит от моделей, которые отвечают, к агентам, которые действуют. И если посмотреть на то, как сегодня обучают ИИ, то становится очевидно, что на одних текстах далеко уже не уедешь.

Дело в том, что агентам недостаточно просто уметь воспроизводить правильные ответы, они должны уметь выбирать стратегию поведения, чтобы решать многошаговые задачи и подстраиваться под непредсказуемое поведение пользователя. Отсюда вывод: агентам нужно учиться через опыт.

И тут на сцену выходят RL-среды. Это сейчас один из главных трендов машинного обучения в целом. Над его развитием работают все игроки индустрии: Open AI, Google, Яндекс, Anthropic.

RL-среда = симулятор, где модель обучается через реальные действия. Модель выбирает какую-то стратегию и работает по ней (это называется траектория), затем получает оценку своих действий, и постепенно учится выбирать лучшую политику. Самое главное, что правильного ответа тут иногда просто нет, так что мы говорим именно про сравнение вариантов действий. Работает это потому, что RL-среда учит не отдельным ответам, а последовательностям действий. Модель начинает учитывать последствия своих шагов и учится планированию, адаптации и работе с неопределенностью.

Но и проблем с RL-средами пока хватает. Во-первых, сложно задать корректную функцию награды: модель может научиться "обманывать" метрику, не решая задачу по сути. Во-вторых, остается проблема credit assignment – как понять, на каком шаге стратегия пошла не так. И, наконец, сами среды пока далеки от реальности: симулированный пользователь все еще ведет себя проще, чем настоящий. Вот тут об этих и других вызовах для RL есть побольше вводных на русском.

Суть в том, что чем лучше будут RL-среды – тем лучше (и быстрее) будут агенты, так что следующий этап в ИИ сейчас зависит от того, как хорошо ключевые игроки их прокачают.
😁4730👍19103🤨33🤯1🗿1
Microsoft выпустили Critique: инструмент для deep research, который может вызывать несколько разных моделей одновременно

То есть теперь вашим запросом занимаются сразу две модели: первая берет на себя основную генерацию, а вторая выступает в роли критика и рецензента и поправляет ошибки и неточности перед тем как система даст окончательный ответ.

Какие модели участвовали в генерации – видно в шапке ответа. По бенчмарку DRACO – яркая SOTA, других бенчей нет.

Появился еще режим Council для обычных запросов: там ваш промпт просто прогоняют через несколько моделей, и вы сразу видите разные варианты ответа. Плюс есть кратенькая выжимка о том, где модели сходятся и где у них разногласия. Удобно.

Пока на широкую общественность не раскатили, но можно податься на ранний доступ.

Какие будут лимиты (и будет ли вообще доступ в обычной подписке за 20$) пока непонятно. Хотя в целом, такое можно и дома на коленке завайбкодить за вечер. Точно будет дешевле.

techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
😁56🔥23👍1410🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
Доброе утро, Anthopic опять приблизили нас к безработице одной фичей ☕️

В Claude Code теперь доступен Computer use. Агент пишет код, компилирует, запускает приложение, кликает по UI, находит баг, фиксит и проверяет результат. Всё по одному запросу.

Пока research preview доступно на Pro и Max планах, только macOS. Включается через /mcp в настройках.​​​​​​​​​​​​​​​​
Please open Telegram to view this post
VIEW IN TELEGRAM
153👍59🔥25😁1399🍓2🐳1🗿1
Data Secrets
Разработчик Claude Code признался, что последние 30 дней 100% его контрибьютов в Claude Code были написаны самим Claude Code И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был…
Media is too big
VIEW IN TELEGRAM
Кстати, все последние обновления Claude Code – голимый вайбкодинг

Дарио Амодеи на World Economic Forum в Давосе заявил:

Инженеры в Anthropic говорят: «Я больше не пишу код. Я просто позволяю модели писать код, а я его редактирую»


Также напоминаем, что создатель Claude Code еще в конце декабря говорил, что 100% его контрибьютов в CC пишет CC.

Со стороны кажется, что скорость разработки в стартапе увеличилась кратно. Мы посчитали: с момента выпуска Opus 4.6 в феврале они запилили около 17 (!) средних и крупных обновлений. Интересно, какую модель используют внутри стартапа 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
👍115😁70🔥2215🤔2😎1
Media is too big
VIEW IN TELEGRAM
Понравилось определение AGI, которое дал на днях Франсуа Шолле (создатель ARC-AGI) на подкасте у Y Combinator

Его идея – в том, что в настоящее индустрия путает автоматизацию с интеллектом. AGI чаще всего определяется как то, что автоматизирует большинство экономически значимых задач. Но эта формулировка на самом деле не описывает общий интеллект.

Альтернативное определение Шолле звучит так:

AGI – это система, которая при встрече с абсолютно новой задачей или абсолютно новым для нее доменом может разобраться в нем с той же эффективностью, что и человек. Это значит, что ей потребуется примерно столько же обучающих данных и компьюта. И это довольно мало, потому что люди крайне эффективно обрабатывают данные.


Так что AGI – это не про автоматизацию, а про способность приобретения навыков на уровне человека на том же объеме задач, который люди потенциально могут научиться выполнять.

Подкаст полностью тут: https://youtu.be/k2ZLQC8P7dc
157👍79🔥22🤔10💯9🤯21😁1
Media is too big
VIEW IN TELEGRAM
Похоже, Яндекс решил помочь в задачах enterprise по разработке приложений и управлению данными.

Компания представила Stackland – контейнерную платформу, где вся необходимая для разработки инфраструктура предоставляется "из коробки". Там есть базовый слой - Kubernetes, средства обработки и хранения данных, а также встроены управляемые СУБД от Yandex Cloud. Разворачивается все за несколько часов в в закрытом корпоративном контуре и сразу готово к работе.

Это значит без долгой настройки, без ручной сборки и без постоянной поддержки на стороне команды. Можно значительно ускорить запуск сервисов и data-продуктов.

Запросить демо платформы – ссылка.
33🗿30😁13👍11🔥9🤨431🕊11
В сеть утек исходный код Claude Code

При публикации пакетов кто-то в Anthropic совершил некий просчет, и билд обфусцированного cli.js оказался в публичном npm‑пакете вместе с полноценным cli.js.map, которого там никак не должно было быть. То есть любой, кто установил пакет или скачал его, мог легко восстановить исходники через sourcemap.

Естественно, код почти моментально разошелся по репам. Популярные инфобез-комьюнити подтвердили, что это не фейк и не обычная обертка над API, а именно продвинутая CLI‑платформа.

https://github.com/instructkr/claude-code

Оказалось, что под капотом 1906 файлов TypeScript и примерно 500к строк.

Из интересного:
– Есть намеки на нереализованные фичи типа глубокого планирования, постоянной памяти и "сна".
– Можно посмотреть, как у Anthropic реализована мультиагентность (файл coordinator/coordinatorMode.ts)
– Также доступны все системные промпты (constants/prompts.ts)

С днем опенсорса, так сказать.

UPD: автор начал менять репозиторий, так что вот тут ловите дополнительную ссылку на архив с исходниками
😁23243🤯15🔥119😎82👍1