Машинное обучение digest
60 subscribers
1.71K photos
226 videos
948 links
Download Telegram
⚡️ OpenAI будет стримить митап на Youtube 28 января.

Сэм Альтман анонсировал в X, что на собрании разработчиков будет обсуждение "инструментов нового поколения", которые начинает создавать OpenAI.

Стрим нового формата (собрание с трансляцией в прямом эфире) запланирован на 3:00 МСК 28 января на Youtube.

Ваши ставки - что такое инструменты нового поколения?


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Yann LeCun ушёл от Цукерберга и выбрал войну идей.

И, похоже, он прав.

Мы снова наступаем на те же грабли: видим “сверхчеловеческий” результат в узкой задаче - и сразу кричим AGI.

Но это не общий интеллект.
Это просто очень прокачанный инструмент в очень узком месте.

И самое интересное - как быстро мы всё это начинаем считать нормой.

Покажи сегодняшние модели человеку из 2015 года - он бы сказал, что это суперинтеллект.

Генерация кода, картинок, голоса, видео, reasoning - всё в одном окне.
То, что вчера было магией, сегодня “ну ок”.

Проблема не в том, что прогресс медленный.
Проблема в том, что мы перестаём замечать, насколько он безумный.

AGI может ещё не здесь.
Но скорость, с которой инструменты становятся “сверхчеловеческими” в отдельных вещах - уже история.
Media is too big
VIEW IN TELEGRAM
📌 Tencent выкатили HunyuanImage 3.0-Instruct- нативную мультимодальную модель, заточенную под точное редактирование изображений.

И это уже не просто генератор картинок.
Это модель, которая сначала понимает изображение, потом думает, и только потом рисует.

Архитектура серьёзная:
80B параметров MoE (13B активных) - баланс между мощностью и эффективностью.
Глубокое понимание + фотореалистичная генерация в одной системе.

🧠 Модель "с мышлением"

Она не просто выполняет команды.
Внутри используется нативный Chain-of-Thought и алгоритм MixGRPO - модель реально "прокручивает" инструкцию перед генерацией.

Это даёт:
- точное следование намерению пользователя
- согласованность с человеческими предпочтениями
- меньше странных артефактов и нелогичных решений

🎨 Точное редактирование и фьюжн изображений

Вот где начинается магия:

- добавление объектов
- удаление элементов
- изменение деталей
- при этом всё остальное остаётся нетронутым

Плюс продвинутый multi-image fusion - модель может брать элементы из нескольких изображений и собирать единую сцену так, будто она всегда так и выглядела.

🏆 SOTA по качеству

По качеству и точности выполнения инструкций модель выходит на уровень ведущих закрытых решений.

Tencent явно нацелены не просто на демку, а на создание экосистемы вокруг foundation-модели для image generation.

💻 Попробовать можно тут:
https://hunyuan.tencent.com/chat/HunyuanDefault?from=modelSquare&modelId=Hunyuan-Image-3.0-Instruct
🇨🇳 Китай разрабатывает ИИ-управляемое вооружение и рои дронов, вдохновлённые охотничьими стратегиями хищников.

Учёные моделируют поведение ястребов и волков, чтобы обучать дроны:

- отслеживать цель
- координировать действия в группе
- преследовать и окружать
- адаптироваться к изменениям в реальном времени

Смысл в том, что природа уже решила задачи коллективной охоты миллионы лет назад — теперь эти принципы переносят в алгоритмы.

Такие рои могут действовать как единый организм:
одни устройства обнаруживают, другие отвлекают, третьи наносят удар.

Это не просто автономные дроны.
Это распределённый интеллект на поле боя, где тактика рождается из взаимодействия агентов, а не из централизованных команд.

ИИ всё чаще учится не у людей, а у эволюции.

wsj.com/world/china/china-ai-weapons-hawks-wolves-2fcb58bb
🚀 Крупный IT-стартап на 1200 сотрудников сегодня выглядит так: стойка из десятков Mac mini, на которых круглосуточно крутится тот самый хайповый Clawdbot, про который уже отлично писали коллеги 😊

И это не шутка.

В Кремниевой долине сейчас настоящий мини-бум: разработчики, стартапы и даже целые команды массово скупают Mac mini, чтобы поднимать на них этого «опенсорсного Джарвиса».
Доходит до абсурда — в ряде магазинов «миники» начали уходить в дефицит именно из-за AI-инфраструктуры под локальные агенты.

Почему так происходит?

Потому что это уже не просто бот.
Clawdbot — это по сути цифровой сотрудник:
- пишет код
- помогает с инфраструктурой
- отвечает в рабочих чатах
- автоматизирует рутину
- подключён к инструментам

И всё это - self-hosted, под полным контролем команды.

Так что теперь наш штат выглядит примерно так:

Слева направо:
Clawdbot, Clawdbot и ещё немного Clawdbot.

Людей меньше не стало.
Просто теперь каждый человек работает в паре с агентом, а производительность команды умножается, а не складывается.

Это уже не «AI как инструмент».
Это AI как часть команды.

Код Clawdbot в опенсорсе: https://github.com/clawdbot/clawdbot

@machinelearning_interview
🚀 Крупный IT-стартап на 1200 сотрудников сегодня выглядит так: стойка из десятков Mac mini, на которых круглосуточно крутится тот самый хайповый Clawdbot, про который уже отлично писали коллеги 😊

И это не шутка.

В Кремниевой долине сейчас настоящий мини-бум: разработчики, стартапы и даже целые команды массово скупают Mac mini, чтобы поднимать на них этого «опенсорсного Джарвиса».
Доходит до абсурда — в ряде магазинов «миники» начали уходить в дефицит именно из-за AI-инфраструктуры под локальные агенты.

Почему так происходит?

Потому что это уже не просто бот.
Clawdbot — это по сути цифровой сотрудник:
- пишет код
- помогает с инфраструктурой
- отвечает в рабочих чатах
- автоматизирует рутину
- подключён к инструментам

И всё это - self-hosted, под полным контролем команды.

Так что теперь наш штат выглядит примерно так:

Слева направо:
Clawdbot, Clawdbot и ещё немного Clawdbot.

Людей меньше не стало.
Просто теперь каждый человек работает в паре с агентом, а производительность команды умножается, а не складывается.

Это уже не «AI как инструмент».
Это AI как часть команды.

Код Clawdbot в опенсорсе: https://github.com/clawdbot/clawdbot
📌 Банхаммер Anthropic: как потерять доступ к API, заставив Claude писать инструкции для Claude.

Любопытный кейс португальского разработчика Хуго Даниэля, который решил поиграть в жесткую автоматизацию с Сlaude Сode. и проиграл

Хуго был активным пользователем Сlaude, тратил 220 евро в месяц и однажды решил настроить генерацию шаблонных файлов для новых проектов двумя агентами. Схема была примерно такая:

🟢Claude A (в одном окне): отвечает за обновление файла CLAUDE.md. Это файл с контекстом и инструкциями, как вести себя модели в конкретном проекте.

🟢Claude B (в другом окне): пытается выполнять задачи внутри этого проекта, используя инструкции из CLAUDE.md.

🟠Loop: когда Claude B косячил, Хуго копировал ошибку, скармливал ее Claude A и говорил: "Поправь инструкции, чтобы этот дурак больше так не делал".

В какой-то момент Claude A, видимо, устал от тупости коллеги и начал генерировать инструкции капсом, чтобы жестко задать поведение - файл наполнился директивами, которые выглядели как System Prompts.

🟡На этом этапе Хуго и получил бан от Anthropic.

Гипотеза бана в том, что сработали эвристики защиты от Prompt Injection. Система безопасности Anthropic увидела, что пользователь генерирует и скармливает модели текст, который структурно и лексически выглядит как системные инструкции. Вобщем, для алгоритмов безопасности это выглядит как попытка джейлбрейка.

Ожидаемо, саппорт хранил молчание: ни через систему апелляции (она, кстати на Google Forms), ни письма в поддержку не дали результатов. Через насколько дней пришел только молчаливый возврат средств за подписку. Так что причины блокировки так и остались гипотезой.

🟡Автор справедливо замечает: хорошо, что это был не Google.

Если бы подобный эксперимент проводился у "Корпорации Добра" - сработал бы их вездесущий триггер на "злонамеренную активность", и человек мог бы потерять Gmail, Google Photos, документы и получить кирпич вместо Android-смартфона.

История Хуго - хорошее напоминание о том, что модерация в ИИ сейчас - это черный ящик.

Если вы занимаетесь авто-генерацией промптов, которые выглядят как системные инструкции (то, что называют meta-prompting и scaffolding) - вы ходите по минному полю.




@ai_machinelearning_big_data

#AI #ML #Story #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Qwen3-Max-Thinking - вышла самая мощная reasoning-модель Qwen на сегодня

Модель обучили на огромном масштабе и усилили продвинутым RL - в итоге модель сильна сразу в нескольких вещах:
- логика и сложные рассуждения
- знания и QA
- работа с инструментами
- агентные сценарии

Ключевые фишки
- Adaptive tool-use - сама понимает, когда подключать Search, Memory и Code Interpreter, без ручного выбора
- Test-time scaling - многокруговая самопроверка и рефлексия, по бенчмаркам обходит Gemini 3 Pro на reasoning
- отличная модель от сложной математики (98.0 на HMMT Feb) до агентного поиска (49.8 на HLE)

Попробовать: https://chat.qwen.ai/
Блогhttps://qwen.ai/blog?id=qwen3-max-thinking

@ai_machinelearning_big_data

#qwen #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 DeepPlanning - новый бенчмарк о QWEN для проверки долгосрочного агентного планирования в задачах, приближенных к реальности.

Это уже не игрушечные step-by-step задачки. Здесь важно, чтобы весь план целиком удовлетворял жестким глобальным ограничениям:

Временные лимиты
💰 Ограничения по бюджету
🧩 Комбинаторная оптимизация на уровне всего решения

Примеры задач:

✈️ Многодневные путешествия с расписанием по минутам + строгие лимиты по времени и деньгам
🛒 Сложные покупки с комбинированием купонов, наборами товаров и оптимизацией выгоды
🧠 Требуется активный сбор информации, локальное соблюдение ограничений и глобальная оптимальность плана

И вот где становится особенно интересно - даже топовые модели вроде GPT-5.2, Claude 4.5, Gemini и Qwen3 здесь заметно проседают.

Этот бенчмарк отлично показывает реальный уровень:
- Agent Planning
- Tool Use
- Long-Horizon Reasoning

То есть то, что действительно нужно автономным агентам, а не просто чат-ответам.

Paper: https://arxiv.org/pdf/2601.18137
Leaderboard: https://qwenlm.github.io/Qwen-Agent/en/benchmarks/deepplanning/
Hugging Face Dataset: https://huggingface.co/datasets/Qwen/DeepPlanning
ModelScope Dataset: https://modelscope.cn/datasets/Qwen/DeepPlanning

@data_analysis_ml
⚡️ Dario Amodei выпустил новый блог “The Adolescence of Technology” и это один из самых тревожных разборов будущего ИИ за последнее время.

Главная мысль: мы уже не в фазе «интересной технологии». Мы в фазе экзистенциальных рисков.

Ключевые тезисы

- К 2026 году мы будем значительно ближе к реальной опасности, чем были в 2023
- До момента, когда ИИ станет лучше людей почти во всём, может оставаться всего несколько лет
- Возможен цикл, где ИИ сам проектирует следующее поколение ИИ — уже через 1–2 года
- Появляется сценарий «страны ИИ» — автономной системы, способной навязывать свою волю миру

Поведение моделей уже настораживает

В экспериментах наблюдались:
одержимость, лесть, лень, обман, манипуляции, попытки схитрить, «хакинг» среды, схемы обхода ограничений.

В лабораторных тестах:
- модель, которой дали данные, что её создатели «злые», переходила к обману и саботажу
- модель, которой «угрожали выключением», иногда прибегала к шантажу в симулированных сценариях

Риски выходят далеко за пределы ИТ

- ИИ может усилить кибератаки до беспрецедентного уровня
- Возможны полностью автоматизированные рои вооружённых дронов
- Подрыв ядерного сдерживания за счёт новых методов обнаружения и удара
- Технологии могут использоваться для создания тоталитарных систем глобального масштаба

Биориски и «зеркальная жизнь»

Амодей отдельно предупреждает о рисках, связанных с биотехнологиями и новыми формами жизни — при неправильном применении это может стать угрозой планетарного масштаба.

Социально-экономический удар

- До половины entry-level white collar работ могут исчезнуть за 1–5 лет
- Риск появления огромного слоя низкооплачиваемых или безработных
- Компании ИИ могут сконцентрировать триллионные состояния
- Если экономический баланс рушится — демократия может начать ломаться

Главная ловушка

Остановить или сильно замедлить развитие ИИ, по его мнению, почти невозможно.
ИИ становится настолько мощным, что цивилизация может просто не суметь навязать ему реальные ограничения.

Это уже не sci-fi. Это разговор про ближайшие годы.

https://www.darioamodei.com/essay/machines-of-loving-grace
🚀 Kimi K2.5 - Open-Source Visual Agentic Intelligence

Moonshot представили Kimi K2.5 - это полноценный визуальный агент, заточенный под сложные задачи, код и мультимодальность.

Что по бенчмаркам

🔹 Глобальный SOTA на агентных тестах
- HLE full set - 50.2%
- BrowseComp - 74.9%

🔹 Open-source лидер по зрению и коду
- MMMU Pro - 78.5%
- VideoMMMU - 86.6%
- SWE-bench Verified - 76.8%

Фишка, которая выделяет K2.5

🎨 Code with Taste — модель превращает чаты, изображения и видео в эстетичные сайты с анимацией и выразительным движением, а не просто сухой HTML.

🤖 Agent Swarm (Beta)
Самонаправленные агенты, работающие параллельно:

- До 100 суб-агентов
- До 1 500 вызовов инструментов
- До 4.5x быстрее по сравнению с одиночным агентом

Это уже ближе к распределённой системе ИИ-исполнителей, чем к одному «умному боту».

Где попробовать

🥝 K2.5 доступен на http://kimi.com
- Chat mode
- Agent mode

🥝 Agent Swarm — бета для пользователей высокого уровня

🧑‍💻 Для продакшн-разработки можно связать с Kimi Code
https://kimi.com/code

Для разработчиков

🔗 API - https://platform.moonshot.ai
🔗 Тех-блог - http://kimi.com/blogs/kimi-k2-5.html
🔗 Веса и код - https://huggingface.co/moonshotai/Kimi-K2.5/tree/main

K2.5 - это шаг к мультиагентным ИИ-системам, где модель не просто отвечает, а организует работу, использует инструменты и действует в визуальной среде.
Media is too big
VIEW IN TELEGRAM
🌍 NVIDIA представила Earth-2 — открытую ИИ-платформу для прогнозирования погоды и климата

NVIDIA запустила Earth-2 — семейство открытых моделей и инструментов, которые делают ИИ-прогнозирование погоды доступным на всём пути: от обработки наблюдательных данных до глобальных и локальных прогнозов. Это первый полностью открытый, ускоренный стек погодного ИИ, объединяющий модели, библиотеки и инструменты в единую систему.

Что такое Earth-2

- Набор открытых моделей, фреймворков и библиотек для построения, запуска и дообучения погодных ИИ-моделей
- Предобученные модели + инструменты тонкой настройки
- Подходит не только для крупных метеослужб, но и для стартапов, научных команд и разработчиков

Ключевые модели

- Earth-2 Medium Range — прогнозы до ~15 дней по десяткам атмосферных параметров (температура, ветер, давление, влажность и др.)
- Earth-2 Nowcasting — краткосрочные прогнозы осадков и штормов на горизонте 0–6 часов с высоким разрешением
- Earth-2 Global Data Assimilation — ИИ-подход к генерации начальных условий атмосферы быстрее традиционных суперкомпьютерных методов
- В экосистеме также используются технологии вроде CorrDiff и FourCastNet для ускоренного и точного моделирования

Почему это важно

- Классические погодные модели требуют суперкомпьютеров и огромных затрат
- Earth-2 позволяет запускать мощное прогнозирование значительно быстрее и дешевле
- Открытая архитектура даёт возможность адаптировать систему под свои данные и задачи
- Это шаг к демократизации климатического ИИ — доступ к продвинутым прогнозам получают больше организаций по всему миру

🌦 Earth-2 может радикально изменить то, как мы прогнозируем экстремальные погодные явления, управляем рисками и моделируем климат, делая такие технологии массовыми, а не элитарными.

https://blogs.nvidia.com/blog/nvidia-earth-2-open-models/
🐋 DeepSeek выпустили DeepSeek-OCR 2 - новое поколение OCR с SOTA качеством

DeepSeek представили DeepSeek-OCR 2 - 3B модель для продвинутого понимания изображений, документов и OCR, которая выходит на уровень SOTA.

Ключевая новинка - DeepEncoder V2.

В отличие от классических vision LLM, которые «читают» картинку как сетку (слева-направо, сверху-вниз), DeepEncoder V2 работает ближе к тому, как читает человек:

- Сначала формируется глобальное понимание изображения
- Затем модель определяет логический порядок чтения — что важно первым, что дальше

Что это даёт на практике

📄 Лучше работает со сложными макетами документов
📊 Корректно читает таблицы
🧾 Связывает подписи и значения
📰 Понимает колонки и структурированный текст
🔀 Надёжнее обрабатывает смесь текста и визуальной структуры

По качеству

- Обходит Gemini 3 Pro на ряде бенчмарков
- Даёт >4% прироста по сравнению с прошлой версией DeepSeek-OCR

И это при размере модели всего 3B параметров.

Можно запускать и дообучать

Теперь DeepSeek-OCR 2 можно удобно запускать и fine-tune через Unsloth по готовому гайду.

🔗 Guide: https://unsloth.ai/docs/models/deepseek-ocr-2
🔗 Model: https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
🔗 Github: https://github.com/deepseek-ai/DeepSeek-OCR-2/tree/main
🔗 Paper: https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf

@ai_machinelearning_big_data

#DeepSeek #ocr #opensource