Анализ данных (Data analysis)
50.2K subscribers
3.12K photos
397 videos
1 file
2.62K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
Китайский ERNIE 5.1 почти залез в SOTA

Baidu заявляет, что модель стала сильнее в поиске, reasoning, knowledge Q&A, creative writing и agentic-задачах, используя около 6% pre-training cost сопоставимых моделей.

По цифрам:

- 1223 на LMArena Search
- 4-е место в мире по Search
- лучшая китайская модель в этом рейтинге
- 1476 на LMArena Text у ERNIE 5.1 Preview
- 13-е место глобально

Но есть нюанс: полноценного технического отчёта по ERNIE 5.1 пока не видно. Claim про 6% выглядит как заявление Baidu, а не как независимо проверенная метрика.

https://x.com/Baidu_Inc/status/2053009538769735774
👍136🔥3🥱3
xAI умер. Да здравствует SpaceXAI!

Маск только что ликвидировал xAI как отдельную компанию и подал заявку на товарный знак SpaceXAI в USPTO.

Хронология выглядит так:

• Март 2025: xAI покупает X / Twitter за $33 млрд
• Февраль 2026: SpaceX покупает xAI. Общая оценка объединённой структуры - $1,25 трлн: $1 трлн SpaceX и $250 млрд xAI. Крупнейшая сделка в истории.
• 6 мая: подана заявка на товарный знак SpaceXAI в USPTO
• 7 мая 2026: Маск заявляет, что xAI будет «растворена как отдельная компания»

Теперь к финансовой части:

SpaceX в 2025 году: около $15 млрд выручки и примерно $8 млрд прибыли.

xAI за последние 6 месяцев отчётности: около $250 млн выручки и $2,5 млрд убытка.

IPO SpaceX ожидается в конце июня или июле 2026 года с оценкой до $1,5 трлн.

Объединяя xAI и X внутри SpaceX, Маск упаковывает ракеты, Starlink, ИИ и соцсеть в одну большую IPO-историю.

Заявка на товарный знак SpaceXAI покрывает satellite-based data center services и orbital computing infrastructure. Проще говоря - космические дата-центры.

SpaceX уже подавала документы в FCC на орбитальную AI-инфраструктуру из миллиона спутников.

xAI не взлетел как самостоятельная AI-лаборатория. SpaceXAI теперь переупаковывают как инфраструктурную компанию.

В долгую ставка не на конкуренцию моделей, а на продажу вычислений.

tmsearch.uspto.gov/search/search-results/99808217
17👍5🔥5🤨3💔2
This media is not supported in your browser
VIEW IN TELEGRAM
Профессия - Вайбкодер
🤣3419🔥11👍6😁6🙏1🌭1
This media is not supported in your browser
VIEW IN TELEGRAM
CopilotKit - open-source стек для тех, кто хочет встраивать AI-агентов прямо в продукт, а не просто прикручивать чат-окно сбоку.

Агент должен не только отвечать текстом, но и работать внутри интерфейса - читать состояние приложения, вызывать действия, обновлять UI и показывать пользователю нормальные React-компоненты вместо простыни текста.

Что умеет CopilotKit:

- готовый Chat UI для React с потоковой генерацией, tool calls и ответами агента;
- Generative UI - агент может рендерить и обновлять компоненты интерфейса;
- Shared State - общий слой состояния между агентом и приложением;
- Backend Tool Rendering - агент вызывает backend-инструменты, а результат отображается прямо в клиенте;
- интеграция с агентными фреймворками и моделями;
- поддержка AG-UI Protocol, который уже используют крупные игроки вроде Google, LangChain, AWS и Microsoft.

По сути, это попытка собрать frontend-слой для agentic apps: не “чат с ИИ”, а интерфейс, где пользователь и агент реально работают вместе.

GitHub: github.com/CopilotKit/CopilotKit
👍164
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini жгет😳

В X появился первый ролик, который приписывают новой видео-моделью Gemini Omni, и там главный шок в тексте.

Надписи в видео выглядят потрясающе. Без каши из букв, без случайных символов, без ощущения, что модель просто угадывает форму текста.

https://gemini.google.com/share/7d5dc678c80a

@data_analysis_ml
👍35🔥209🤨6🤔3🥱3😍3😁1
Карпатый: хватит читать ответы ИИ простынёй. Просите HTML

Андрей Карпатый поделился простым лайфхаком: в конце запроса к языковой модели добавляйте «оформи ответ как HTML», сохраняйте файл и открывайте в браузере.

Работает неожиданно хорошо.

Можно пойти дальше и попросить модель сразу упаковать ответ в слайды, мини-лендинг, интерактивную страницу или визуальную шпаргалку.

За этим советом стоит мысль глубже: аудио отлично подходит для ввода, но вывод от ИИ должен быть визуальным.

Текстовая простыня быстро утомляет. Markdown с заголовками, таблицами и списками уже стал нормой. Следующий шаг - HTML с нормальной вёрсткой, блоками, цветами, схемами и интерактивом.

А дальше, по прогнозу Карпатого, нас ждут ответы в формате интерактивных видео и симуляций, которые модель будет генерировать на лету.

С вводом тоже не всё идеально. Текста и голоса мало. Не хватает возможности просто ткнуть пальцем в экран, показать жестом, выделить область и сказать: «вот это поменяй».

Интерфейс человек - ИИ ещё очень сырой. До нейроинтерфейсов далеко, но один апгрейд доступен уже сейчас.

Просите не просто ответ.

Просите HTML.

Разница чувствуется сразу.

https://x.com/karpathy/status/2053872850101285137
🔥36👍175🤨3🍌2
This media is not supported in your browser
VIEW IN TELEGRAM
Thinking Machines показали модель, где realtime встроен внутрь, а не прикручен костылями

Thinking Machines выкатили research preview interaction models - моделей, у которых интерактивность не собрана снаружи через VAD, ASR, TTS и агентный harness, а является нативным свойством самой модели.

Это важнее, чем звучит.

Сегодняшние frontier-модели хорошо работают в режиме: дал промпт, ушел, вернулся к результату. Но как только человек хочет работать с ИИ рядом, в реальном времени, вся магия ломается. Модель ждет конца твоей реплики. Ты ждешь конца ее генерации. Перебить нельзя. Говорить одновременно нельзя. На видео реагировать нечем. Получается не диалог, а обмен длинными сообщениями с задержкой.

Thinking Machines пытаются сломать именно эту схему.

Они обучили модель с нуля, где вход и выход - это непрерывные потоки, нарезанные на микротурны по 200 мс. На каждом таком окне модель принимает аудио, видео и текст, а параллельно генерирует аудио и текст. Границы реплик больше не нужно угадывать. Тишина, перебивания, перекрытия голосов и визуальные сигналы становятся частью контекста, а не проблемой для внешней обвязки.

Архитектура тоже интересная. Аудио подается как dMel через легкий embedding, изображения режутся на патчи 40x40 и идут в hMLP, аудио на выходе декодируется flow-головой, а всё это тренируется вместе с трансформером. Без тяжелых отдельных энкодеров и без классической схемы «распознал речь - отправил текст - синтезировал ответ».

Еще одна сильная идея - асинхронный background-агент. Когда нужны долгие рассуждения или инструменты, основная модель делегирует ему полный контекст, но сама не замирает и продолжает разговор. Когда результат готов, она вплетает его обратно в диалог.

По сути они разделяют две вещи:

- отвечать быстро, как realtime non-thinking модель
- думать глубоко, как reasoning-модель
- не заставлять пользователя ждать, пока вся цепочка рассуждений закончится

Инженерно там тоже много мяса. Чанки по 200 мс ломают привычные инференс-серверы, потому что постоянные prefill-запросы быстро становятся узким местом. Поэтому они сделали streaming sessions: клиент отправляет каждый чанк отдельным запросом, а сервер держит постоянную последовательность в GPU-памяти и просто дописывает в нее новые данные. Эту фичу уже заапстримили в SGLang.

Для стабильности тренировки они добились побитового совпадения trainer и sampler через batch-invariant ядра с оверхедом меньше 5%. В том числе использовали NVLS-коммуникационные ядра на Blackwell и согласованный split-KV между prefill и decode.

Сама модель называется TML-Interaction-Small. Это 276B MoE с 12B активных параметров.

По заявленным результатам:

- на FD-bench модель держит SOTA по интерактивности
- на Audio MultiChallenge обгоняет все non-thinking realtime-модели
- подбирается к thinking-режимам GPT-realtime-2 и Gemini-3.1-flash-live
- на новых задачах вроде TimeSpeak, CueSpeak, RepCount-A, ProactiveVideoQA и Charades показывает способности, которых у обычных realtime-API почти нет

Самое важное тут не бенчмарки, а сдвиг в продуктовой логике.

Если такой подход масштабируется, огромный класс AI-продуктов перестанет нуждаться во внешнем оркестраторе. Живой перевод, тьюторы по произношению, ассистент, который комментирует код прямо во время набора, подсчет повторений на тренировке, навигация для незрячих - всё это сейчас собирается на костылях с заметным лагом.

А здесь интерактивность становится свойством самой модели.

Ограничения тоже честные: длинные сессии быстро забивают контекст, нужен стабильный канал, а текущий чекпойнт еще не самый крупный. Большие модели у них пока слишком медленные для realtime.

Это попытка сделать ИИ, который не просто отвечает после тебя, а реально присутствует в моменте.

https://thinkingmachines.ai/blog/interaction-models/

@data_analysis_ml
🔥1910👍7
Пока все обсуждают AI-агентов для офисов, «Норникель» и ИОНХ РАН делают куда более редкую вещь, обучают ИИ создавать новые материалы.
Суть проекта: десятки тысяч реальных экспериментов по неорганическим материалам превращают в dataset для AI-платформы цифрового материаловедения.
То есть, не просто анализировать свойства, а генерировать материалы под конкретную задачу: — электроника, — покрытия, — датчики, — микроэлектроника будущего.
Один из главных кейсов — попытка заменить золото палладием в электронных компонентах. Палладий дешевле, легче и лучше подходит для сверхтонких покрытий, которые нужны новой микроэлектронике.
По сути это движение к новой модели R&D: не сначала лаборатория, а потом результат, а сначала ИИ ищет перспективную структуру, потом ученые проверяют.
👍1913🤣8🔥5🌭1
Anthropic, похоже, стала самым быстрым software-бизнесом в истории

По reported revenue run rate компания уже обогнала OpenAI и вышла примерно на $45B ARR.

Для масштаба: Salesforce за FY2025 сделал около $38B.

У Anthropic траектория выглядит дико:

- ~$10M ARR в конце 2022
- ~$1B ARR к январю 2025
- ~$14B ARR в начале 2026
- ~$45B ARR к маю 2026

Менее чем за год он, по сообщениям, вышел на ~$2.5B run rate. Число enterprise-клиентов с чеком $1M+ в год выросло примерно с 500 до 1000 всего за пару месяцев. Больше 80% выручки Anthropic теперь идёт из enterprise.

Пока одни гнались за consumer-хайпом, Anthropic пошла туда, где есть бюджеты: кодовые базы, команды разработки, внутренние процессы и задачи, которые бизнес не может просто выключить.

Вот и весь monetization gap.

Меньше массовой аудитории, зато намного выше spend per customer.

Да, compute будет жрать безумные деньги. Но если выручка растёт такими темпами, старая SaaS-математика начинает трещать.

И если эта траектория удержится, главными победителями будут не приложения, а те, кто контролирует AI-слой, на котором они работают.

Сейчас этот слой всё чаще выглядит как ClaudeOS.
17🔥10👍8🥱3👌1
OpenAI уволила Леопольда Ашенбреннера. После этого он написал «Situational Awareness» - 165-страничный труд, в котором предсказал появление AGI к 2027 году.

А затем, по имеющимся данным, за 12 месяцев превратил $225 млн в $5,5 млрд.

И сделал он это не за счёт покупки акций Nvidia, Microsoft, Google или Amazon, а вложившись в то, на чём на самом деле работает ИИ, - в энергетику.

Гений)
👍48🔥107🤣5😁4
Илья Суцкевер заявил во время судебных показаний, что его личная доля в компании-разработчике ChatGPT оценивается примерно в $7 млрд.

Это стало известно во время перекрёстного допроса со стороны юридической команды Илона Маска в громком федеральном процессе в Окленде между Маском и OpenAI.

Помимо цифр по доле, показания Суцкевера пролили свет на старые внутренние конфликты за власть.

Он подтвердил под присягой, что до своего ухода и кратковременного отстранения CEO Сэма Альтмана в конце 2023 года считал поведение Альтмана раскалывающим команду, ненадёжным и вредящим главной цели - разработке безопасного искусственного общего интеллекта, AGI.

#openai
21👍11🕊5🔥3😁2🤨2🤯1
Ovis2.6-80B-A3B - ещё одна открытая VLM, которая метит в тяжёлую лигу

На ModelScope вышла Ovis2.6-80B-A3B: 80B параметров всего, но только 3B активных на инференсе. Лицензия - Apache 2.0.

Внутри:
- понимание документов
- OCR
- таблицы
- графики
- chart reasoning
- работа с длинным визуальным контекстом

Самая интересная фича - Think with Image.

Обычно VLM один раз «смотрит» на изображение и дальше рассуждает по уже полученному представлению. Ovis2.6 делает иначе: во время reasoning модель может активно кропать нужные области картинки, пересматривать детали и уточнять визуальные куски, а не тащить всё изображение как пассивный фон.

По характеристикам тоже неплохо:

- 80B total parameters
- 3B active parameters
- 64K context
- до 2880×2880 resolution
- Apache 2.0
- заявленная конкуренция с Qwen3-VL-32B, GPT-5-mini и Gemini 2.5 Pro на ряде vision-бенчмарков

Ovis2.6 выглядит именно как шаг в эту сторону: меньше пассивного vision, больше активного визуального reasoning.

🤖 https://modelscope.cn/models/OpenBMB/MiniCPM-V-4.6
💻 https://github.com/OpenBMB/MiniCPM-v
17👍5🔥5🤔1🤯1
⚡️ Portable-AI-USB.

Идея простая, но элегичная: берёшь флешку, ставишь туда Ollama, AnythingLLM и локальную модель, после чего получаешь карманного AI-ассистента без облака, логина и постоянного интернета.

Что внутри:

- запуск с USB на Windows и Mac
- Ollama как локальный движок для моделей
- AnythingLLM как удобный интерфейс
- готовые модели на выбор
- поддержка .gguf-моделей
- чаты и настройки хранятся на накопителе
- после загрузки модели можно работать офлайн

Конечно, чудес ждать не надо. Скорость зависит от железа, большие модели требуют места и памяти.

GitHub: https://github.com/techjarves/Portable-AI-USB
16😁8👍5🔥4
Forwarded from Machinelearning
⚡️ Anthropic вводит ежемесячный кредит для разработчиков

С 15 июня все платные тарифы Claude получат отдельный месячный кредит на программное использование.
Кредит покрывает:

• Claude Agent SDK
claude -p (CLI)
• Claude Code GitHub Actions
• Сторонние приложения на базе Agent SDK

И главное - автоматизация и агенты на Claude не будут «съедать» обычный лимит подписки - для них выделен свой бюджет.

https://support.claude.com/en/articles/15036540-use-the-claude-agent-sdk-with-your-claude-plan

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥97👍5😱5🥴5🤣1
⚡️ В Claude Code завезли сразу две клевые фичи

Первая - Agent View. Теперь все сессии можно видеть в одном окне: что запущено, что ждёт твоего действия, что уже завершилось. Можно параллельно гонять несколько агентов и не превращать терминал в кладбище вкладок.

Вторая - непрерывный режим /goal. Задаёшь цель, и модель работает до результата без постоянных остановок и подтверждений на каждом шаге.

Claude Code всё больше превращается не в «чатик в терминале», а в нормальную панель управления агентами.
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥9👍7
Вот кто реально отбил подписку на Claude

Claude помог восстановить доступ к криптокошельку с примерно 5 BTC. По текущим оценкам, это около $400 тысяч.

История почти киношная: парень потерял доступ к биткоин-кошельку больше 10 лет назад. На вечеринке поменял пароль, потом забыл его, а дальше начались годы безуспешных попыток вернуть деньги.

В итоге он подключил Claude.

Сначала модель помогла перебрать 3,5 триллиона вариантов пароля. Не сработало. Но на этом история не закончилась: дальше начались раскопки по старым файлам. В итоге нашли wallet.dat, сопоставили его с недавно обнаруженной seed-фразой и смогли восстановить доступ к кошельку.

На радостях владелец теперь обещает назвать ребёнка в честь основателя Anthropic.

Так, Claude, следующий таск: найти кошелёк Сатоши. Желательно без галлюцинаций.

https://x.com/Machinelearrn/status/2054673182842663094
👍49🤣39🔥109
⚡️ Вышел PyTorch 2.12,

Что завезли:


- batched linalg.eigh на CUDA теперь может работать до 100x быстрее
- появился новый torch.accelerator.Graph для graph capture и replay на разных ускорителях
- torch.export.save получил поддержку Microscaling quantization
- Adagrad теперь умеет fused=True
- улучшили distributed training, export и поддержку ROCm
- релиз собран из 2926 коммитов от 457 контрибьюторов

PyTorch всё сильнее уходит от «удобного фреймворка для ресёрча» к универсальной платформе для обучения, инференса и деплоя на разном железе.

Особенно интересен torch.accelerator.Graph. Это шаг к более нормальной абстракции над CUDA, XPU и внешними backend-ами, чтобы код меньше зависел от конкретного ускорителя.

А ускорение linalg.eigh до 100x - хороший пример того, как одна внутренняя замена backend-логики может превратить минуты ожидания в секунды.

pytorch.org/blog/pytorch-2-12-release-blog

#PyTorch #OpenSourceAI #MachineLearning #AIInfrastructure
👍1311🔥6🥱2
📌 H200 вроде разрешили. Но Китай их так и не получил

США дали добро примерно десяти китайским компаниям на покупку Nvidia H200. В списке Alibaba, Tencent, ByteDance, JD и другие.

Формально Вашингтон сделал шаг навстречу. По факту H200 остаются разменной монетой в переговорах с Пекином. Можно показывать прогресс, но не отдавать главное, пока Китай не уступит в других вопросах - от редкозёмов до торговли и Тайваня.

Хуанг в этой истории тоже не просто пассажир делегации. Глава Nvidia стал частью торга, потому что сейчас GPU - это уже не товар, а политический рычаг.

Но тормозить может и сам Китай. Пекин месяцами давит на свои компании, чтобы те переходили на Huawei Ascend и локальные кластеры. Массовая закупка H200 выглядела бы как откат назад: опять зависимость от американского железа, от которой Китай пытается уйти.

В итоге подвешенное состояние устраивает почти всех.

США могут сказать, что разрешили поставки. Китай может сказать, что не спешит покупать. Nvidia ждёт. Рынок гадает.

Пока поставок ноль, это не торговля. Это переговоры, замаскированные под сделку.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🔥3🥱2