Анализ данных (Data analysis)
52.2K subscribers
3.06K photos
383 videos
1 file
2.58K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
Forwarded from Machinelearning
🚀 OpenAI представила GPT-5.5

Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.

GPT 5.5 хороша в многоступенчатых задачах.

И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.

Модель стала дороже: ~$5 / $30 за млн токенов.

Уже раскатывают на всех платных подписчиков.

Тестим! 🔥

https://openai.com/index/introducing-gpt-5-5/
👍136🔥6😱1
Ant Group выкатила Ling-2.6-1T, флагманскую модель на триллион параметров, и главная фишка тут не размер.

Разработчики сделали ставку на механизм «быстрого мышления»: модель не гоняет бесконечные цепочки рассуждений, а выдаёт ответ экономно по токенам, сохраняя при этом SOTA уровень интеллекта.

По сути, Ant Ling пытается переломить индустриальный тренд, где качество ответа принято покупать ценой огромного расхода токенов. Здесь токен возведён в ранг first-class сущности, то есть эффективность встроена в саму архитектуру, а не прикручена сверху.

https://openrouter.ai/inclusionai/ling-2.6-1t:free
15👍5🔥5
Forwarded from Machinelearning
🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.

Длинный контекст больше не фича для демо. Теперь это базовый уровень.

Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.

Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.

Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.

По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.

Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.

И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.

Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.

📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4

@ai_machinelearning_big_data

#DeepSeek
19👍14🔥6
Лучшие преимущества сейчас на рынке: уметь строить модели, работать с большими данными и глубоко понимать ML.

Именно это даёт Школа анализа данных от Яндекса — двухлетняя бесплатная программа по ML, Data Science, ИИ и инфраструктуре больших данных. У ШАДа три особенности: глубокая теория + задачи из реальных систем Яндекса, обучение у топовых экспертов индустрии, сильное профессиональное комьюнити.

В этом году набор идет на четыре направления:

1. Разработка машинного обучения
2. Data Science
3. Инфраструктура больших данных
4. Анализ данных в прикладных науках

Два трека поступления: классический (3 этапа отбора) и альтернативный — для тех, у кого уже есть опыт. Учиться можно офлайн, гибрид или онлайн.

Заполнить анкету можно по ссылке до 3 мая.
4👍3🔥2
DeepSeek оценили в $20 млрд: Tencent и Alibaba дерутся за место в раунде

Лаборатория, которая обучила модель уровня GPT‑4 за $6 млн, впервые пустила внешних инвесторов. За несколько дней оценка удвоилась и перевалила за $20 млрд. Tencent предложил забрать сразу 20%, DeepSeek отказал, но переговоры продолжаются. Alibaba тоже рвётся в сделку.

Почему вдруг открылись? Уходят ключевые инженеры. Го Дая, ведущий автор R1, ушёл в ByteDance. Ван Бинсюань забрал Tencent, Ло Фули переманили в Xiaomi. На балансе хедж‑фонда войну за таланты с гигантами не выиграть, нужны свежие деньги.
Дальше самое интересное.

Следующий флагман строят под чипы Huawei, и инженеры Huawei прямо сейчас сидят внутри процесса обучения и ловят баги стабильности. Если получится, Китай впервые выпустит фронтирную модель вообще без американского железа.

Китай уже прогоняет 140 триллионов токенов в день против 100 миллиардов в начале 2024 года. Рост больше чем в тысячу раз. И компания, которая обнулила всем представления о стоимости обучения, получает $300+ млн на масштабирование.

https://t.me/data_analysis_ml/5036
👍2511🔥9
🤣71🔥10💯4😁1
☝️ Gemini после того, как Google вложил 40 000 000 000 долларов в Claude.

Google - инвестирует 40 миллиардов долларов, чтобы выпустить claude mythos.

Новая сделка дает им 10 миллиардов долларов авансом, нацеливаясь на 5 ГВт вычислений в 2027 году

Это происходит сразу после инвестиций amazon в 5 миллиардов долларов на этой неделе.

https://www.reuters.com/business/google-plans-invest-up-40-billion-anthropic-bloomberg-news-reports-2026-04-24/
😁22👍122🔥2🤯1
🎨 Qwen выпустили Qwen-Image-2.0-Pro - новую версию генератора изображений с заметным упором на качество, стабильность стилей, мультиязычный текст на картинках и точное следование инструкциям.

Заявлено, что модель стала лучше понимать промпты, аккуратнее работать с деталями и увереннее генерировать текст внутри изображения на разных языках.

Для инфографики, постеров, обложек, интерфейсов и рекламных креативов это особенно важно, потому что большинство image-моделей до сих пор часто ломаются именно на тексте.

Qwen-Image-2.0-Pro заняла 9 место в мировом рейтинге Text-to-Image на Arena.

Попробовать можно через ModelScope:

https://modelscope.ai/studios/Qwen/Qwen-Image-2.0-pro
https://modelscope.cn/studios/Qwen/Qwen-Image-2.0-pro

API доступно через Alibaba Cloud ModelStudio.
👍1812🔥5
🐠 Эволюция вместо масштабирования: TRINITY от Sakana AI выжимает 86,2% на LiveCodeBench из готовых LLM.

Лаборатория Sakana AI выкатила работу, которая хорошо ложится на текущее ощущение всей индустрии: бесконечное скейлинг-марафон с одиночными монолитными моделями постепенно упирается в стену diminishing returns. Их ответ называется TRINITY, и это не очередная гигантская LLM, а лёгкий координатор поверх уже существующих топовых моделей. Статья принята на ICLR 2026.

Идея простая по форме и довольно дерзкая по сути.

Вместо того чтобы обучать одну огромную сетку под все задачи, авторы предлагают композицию моделей на этапе инференса (test-time model composition). TRINITY дирижирует пулом разных state-of-the-art LLM, не трогая их веса и не требуя совместимой архитектуры. По сути, это попытка обойти главные боли model merging: разные размерности скрытых состояний, разные токенизаторы и закрытые веса фронтирных моделей.

Работает это итеративно, в несколько ходов. На каждом шаге координатор смотрит на текущее состояние задачи и назначает одной из доступных LLM одну из трёх ролей. Thinker строит верхнеуровневую стратегию и анализирует ситуацию. Worker выполняет конкретные шаги решения. Verifier проверяет, насколько текущий ответ полон и корректен. Динамическое распределение этих ролей позволяет выгружать тяжёлый reasoning и узкоспециализированные навыки на внешние модели, оставляя сам координатор максимально лёгким.

Координатор работает на скрытых состояниях небольшой компактной языковой модели плюс маленькая routing head поверх. Суммарно меньше 20 тысяч обучаемых параметров. Для текущего ландшафта мультиагентных систем это смешные цифры.

Обучить такую систему оказалось нетривиально. Стандартный REINFORCE не вывез: слишком низкое отношение сигнал/шум на бинарных наградах и слабая связь градиентов с параметрами. Классическое SFT тоже отпало: разметка многоходовых траекторий получается жёстко дорогой. Решение в духе Sakana: эволюционный поиск без градиентов. Авторы используют derivative-free эволюционный алгоритм, который вылизывает эту компактную высокомерную задачу координации там, где классический градиентный оптимизатор просто ломается.

По цифрам выглядит убедительно. TRINITY стабильно обходит и существующие мультиагентные бэйзлайны, и отдельные модели в пуле на разных бенчмарках. Главная цифра на момент публикации: state-of-the-art 86,2% pass@1 на LiveCodeBench. Еще интереснее история с генерализацией. Без дообучения координатор в zero-shot режиме перенёсся на четыре невиданных задачи (AIME, BigCodeBench, MT-Bench, GPQA) и в среднем обошёл любую отдельную модель из своего пула, включая GPT-5, Gemini 2.5 Pro и Claude 4 Sonnet.

TRINITY показывает, что хорошо организованный ансамбль из разнородных моделей может стабильно обходить любую свою отдельную составляющую, если правильно подобрать механизм координации. При этом систему не нужно переобучать под каждый новый бенчмарк, что отличает её от многих специализированных решений.

Отдельно стоит обратить внимание на подход Sakana к самому видению будущего AI. Авторы явно ставят всю философию лабы на коллаборативные экосистемы разнородных моделей, которые можно комбинировать и адаптировать, вместо бесконечного качания параметров в одной монолитной сетке. TRINITY выводят как фундаментальный кирпичик коммерческого продукта Sakana Fugu, бета-версия этой мультиагентной оркестровки уже открыта.

Эволюция вместо масштабирования: TRINITY от Sakana AI выжимает 86,2% на LiveCodeBench из готовых LLM
Полезные ссылки:

Paper (arXiv): https://arxiv.org/abs/2512.04695

OpenReview: https://openreview.net/forum?id=5HaRj

Sakana Fugu (бета): https://sakana.ai/fugu-beta

Пост в X: https://x.com/SakanaAILabs/status/2048181386868293639
👍104🔥4🥱1
⚡️ Вы слышали про Rust. Знаете, что он быстрый, безопасный и что за ним будущее.

Осталось одно: сесть и выучить.

Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».

6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.

48 часов действует скидка 55 процентов: stepik.org/course/269250
🤨5🔥43👍3
📚 Переводим целые книги и большие файлы за минуту - opensource переводчик, который поможет адаптировать любое произведение, документ или другие файлы на любой язык.

• Внутри можно использовать любые модели, в том числе ChatGPT, Gemini, Mistral и DeepSeek.
• Вы можете запускать переводчик локально через Ollama и не бояться за приватность.
• Принимает любые типы файлов: EPUB, SRT, DOCX, TXT.
• Сохраняет форматирование.
• Переводит файлы на огромное количество языков и знает русский.
• После перевода также еще раз проходит по тексту для литературной шлифовки и комфортного чтения.

Github: https://github.com/hydropix/TranslateBooksWithLLMs
8🔥5👍2