Машинное обучение digest
57 subscribers
1.68K photos
221 videos
916 links
Download Telegram
⚡️ Reuters сообщает: исследователи обнаружили множество публичных серверов с open-source LLM, где защитные ограничения просто удалены.

Реальность оказалась простой и немного неудобной:

Если модель можно скачать, изменить и запустить —
безопасность перестаёт быть гарантией.

Любой может:
- форкнуть репозиторий
- убрать guardrails
- изменить системные промпты
- развернуть модель в открытом доступе

Open source выигрывает в скорости и доступности.
Но open source также выигрывает и в масштабируемости злоупотреблений.

Проблема здесь не в самих моделях, а в природе открытого кода:

— ограничения можно отключить
— фильтры можно переписать
— контроль централизованно невозможен

И главный вопрос для индустрии сейчас:

Стоит ли выпускать мощные open-source модели с более жёсткими ограничениями по умолчанию?

Потому что в мире open source безопасность - это не функция.
Это лишь настройка.
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 OVQA: прощай, KV-cache offloading.

В Zyphra придумали как усидеть на двух стульях сразу, когда хочется резиновый контекст, но под рукой нет тонны памяти.

То. что они предложили, называется Online Vector-Quantized Attention - это модификация векторного квантования, которая учит словарь думать на лету.

В классическом VQ ключи заменяются ближайшими центроидами из статичного словаря. Это бустит вычисления, но создает проблему: словарь обучен на одних данных, а во время генерации модель видит совсем другое распределение ключей. Ошибка квантования растет, внимание теряет точность и как итог: VQ начинает плавать.


Так вот, модификация в том, чтобы отказаться от статического словаря в пользу адаптивного к текущей последовательности: каждый новый токен обновляет только один центроид - тот, к которому ближе всего.

Это разреженное обновление работает как защита от катастрофического забывания: старая информация не вымывается новой волной токенов, а аккуратно перезаписывается по мере необходимости.

Плюс есть хард-лимит на размер состояния, после достижения которого объем памяти перестает расти, а вычисления становятся строго линейными.

🟡Результаты тестовых экспериментов

🟢Модель, обученная на 4К токенах, уверенно справлялась с контекстом до 64К без деградации качества;

🟢На внутриконтекстном поиске OVQ почти не отставала от полноценного самовнимания, потребляя при этом в 4 раза меньше памяти;

🟢На In-Context Learning VQ провалился, а OVQ вышла на уровень классического внимания, используя всего ~4К центроидов;

🟢Сравнения с линейными альтернативами (Mamba2 и дельта-сети) тоже в пользу OVQ: она стабильнее держит долгий контекст без просадок точности;

🟠В задачах Positional ICR OVQA работает чуть хуже, чем классическое внимание но все равно достойно.

Очень хочется надеяться, что OVQ - это предтеча настоящего непрерывного обучения, где в светлом будущем вместо бесконечно пухнущего KV-кэша появится компактная, но живая память, способная удерживать важные детали без потерь.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #OVQA #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Компании массово используют AI, но сталкиваются с реальностью: «из коробки» агенты почти не работают в реальных бизнес-процессах.

Причина простая - настоящий эффект появляется только после интеграции с внутренними данными, инструментами и логикой компании.

Поэтому лидеры рынка меняют стратегию.
OpenAI и Anthropic уже превращаются не просто в поставщиков моделей, а в технологических партнёров:

• OpenAI нанимает сотни инженеров, чтобы внедрять ChatGPT в реальные системы клиентов
• Платформа Frontier показывает главную сложность: агент должен работать с внутренними API, понимать контекст бизнеса и правильно принимать решения
• Anthropic также сопровождает корпоративные внедрения
• Ритейлер Fnac сообщил, что без дополнительной настройки агенты не справлялись даже с обработкой серийных номеров

Вывод для разработчиков:
ценность сегодня не в доступе к модели, а в интеграции, настройке и orchestration.
Побеждают те, кто умеет связать LLM с данными, инструментами и процессами.
⚡️ AAI иногда помогает делать прорывы в самых неожиданных местах. Модель, обученная распознавать птиц, теперь помогает раскрывать тайны подводного мира.

Главная проблема океанологии - данные.
Подводные камеры записывают тысячи часов видео, но учёные физически не успевают всё просмотреть. В результате редкие виды, изменения экосистем и важные события могут оставаться незамеченными годами.

Исследователи применили модели компьютерного зрения, изначально обученные на изображениях птиц. Несмотря на то, что среда полностью другая (вода, плохое освещение, шум, мутность), модель смогла:

- автоматически находить морских животных в кадре
- классифицировать виды
- отслеживать их поведение
- анализировать большие массивы данных без участия человека

Transfer learning — ключевая идея.
Модель уже умеет распознавать формы, текстуры, контуры и движение. Эти базовые визуальные признаки универсальны и подходят не только для птиц, но и для рыб, медуз и других морских существ.

Самое интересное:

- Не нужно обучать модель с нуля (экономия месяцев работы и огромных ресурсов)
- Можно быстро адаптировать AI к новым научным задачам
- AI способен находить редкие или неожиданные наблюдения, которые человек мог бы пропустить
- Такой подход ускоряет исследования климата и состояния океанов

Фактически, модель стала инструментом научных открытий, а не просто системой распознавания изображений.

Главный вывод для разработчиков:

Ценность AI сегодня - не в обучении новых моделей, а в умении переиспользовать существующие и переносить их в новые домены.

Часто самая сильная инновация — это не новая архитектура, а новое применение.

https://research.google/blog/how-ai-trained-on-birds-is-surfacing-underwater-mysteries/
⚡️ Deep Research без интернета? Теперь это возможно.

OpenResearcher — это полностью офлайн-пайплайн для генерации длинных исследовательских траекторий (100+ шагов), которые имитируют реальный процесс работы агента в интернете:
search → open → find → анализ → вывод.

И всё это:
- без API поиска
- без ограничений по rate limit
- без нестабильности результатов
- полностью воспроизводимо

Что под капотом:

- GPT-OSS-120B генерирует исследовательские цепочки
- Локальный поисковик + корпус 10 трлн токенов
- 15 млн документов FineWeb
- 10 000 «золотых» отобранных источников
- Явные примитивы браузинга (поиск, открытие, извлечение), а не просто retrieve-and-read
- Reject sampling — сохраняются только успешные длинные траектории

Почему это важно?

Главная проблема обучения research-агентов — длинные цепочки действий.
Обычные датасеты короткие и не учат модель думать на горизонте десятков шагов.

Здесь результат впечатляет:

SFT на этих траекториях повышает точность модели Nemotron-3-Nano-30B-A3B
с 20.8% → 54.8% на BrowseComp-Plus
(+34% абсолютного прироста)

Что это значит для индустрии:

- Deep-research агентов можно обучать без дорогих онлайн-запросов
- Появляется воспроизводимое обучение tool-use
- Можно масштабировать генерацию «мышления через действия»
- Это шаг к стабильным автономным исследовательским AI

Открытое релизнули всё:

- Код, поисковик и рецепт корпуса
- ~96K длинных исследовательских траекторий
- Логи оценки
- Обученные модели
- Онлайн-демо

GitHub: https://github.com/TIGER-AI-Lab/OpenResearcher
Models & Data: https://huggingface.co/collections/TIGER-Lab/openresearcher
Demo: https://huggingface.co/spaces/OpenResearcher/OpenResearcher
Eval logs: https://huggingface.co/datasets/OpenResearcher/OpenResearcher-Eval-Logs
AI может спасти жизнь ещё до прибытия пациента в больницу.

В крупном международном исследовании, опубликованном в *The Lancet Digital Health*, показано, что модели машинного обучения способны заранее предсказывать необходимость переливания крови у пациентов с травмами — прямо на этапе оказания первой помощи.

Как это работает:

Модель анализирует только догоспитальные данные:
- жизненные показатели (пульс, давление, дыхание)
- тип и тяжесть травм
- принимаемые лекарства
- базовую информацию о состоянии пациента

На основе этих данных AI прогнозирует:
- потребуется ли переливание крови
- нужна ли срочная операция
- риск смерти от массивного кровотечения

И самое важное:

Модели показали более высокую точность, чем традиционные инструменты триажа в приёмном отделении.

Масштаб исследования впечатляет:
- данные более 418 000 пациентов
- международная команда исследователей
- валидация на разных медицинских системах

Если врачи знают о рисках до прибытия пациента, они могут:
- заранее подготовить донорскую кровь
- собрать хирургическую команду
- сократить время до жизненно важного вмешательства
- значительно повысить шансы на выживание

Это шаг к будущему, где AI станет ассистентом бригад скорой помощи в реальном времени.

Но есть важный момент:

Система пока находится на этапе валидации.
Перед внедрением необходимы клинические испытания в реальных условиях.

AI в медицине - это не замена врачей, а инструмент, который помогает принимать критические решения быстрее, когда каждая минута решает исход.
Один из крупнейших банков США: BNY Mellon внедрил **134 AI-сотрудника**.

И это не эксперимент, а полноценная часть операционной работы.

Что делают «цифровые сотрудники»:

- Работают 24/7 без перерывов
- Выполняют узкоспециализированные повторяющиеся операции
- Обрабатывают платежные процессы и операционные задачи
- Снимают нагрузку с команд

По словам руководства, цель не в замене людей, а в другом:

AI берёт на себя рутину →
люди переходят к более сложным, аналитическим и стратегическим задачам.

Интересные цифры:


- Сейчас в банке — 48 100 сотрудников
- В 2023 году было около 53 400
- Инвестиции в AI и технологии могут дать +19% к прибыли на акцию

AI становится полноценной рабочей силой, а не просто инструментом.

Главный тренд:

Компании не увольняют людей ради AI.
Они перераспределяют работу:

Рутина → AI
Решения, стратегия, контроль → человек

Вывод для специалистов:

Самый ценный навык сейчас - не конкурировать с AI в рутинных задачах, а работать на уровне, где вы управляете системами, а не выполняете операции.

cnbc.com/2026/02/09/digital-employees-ai-bootcamps-americas-oldest-bank-spends-billions-on-tech.html
🎨 Qwen-Image-2.0 - новое поколение генерации изображений Qwen моделей

Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.

Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)

Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость

Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0

@ai_machinelearning_big_data

#qwen
⚡️ HY-1.8B-2Bit - LLM, которая помещается в смартфон

Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.

Главная идея — максимально снизить размер без серьёзной потери качества.

Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства

Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы

Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера

Почему это важно

Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти

Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки

Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf

#Tencent
⚡️ ZAI релизнули GLM-5.

Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.

Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.

Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ MIT выложили полный курс по Deep Learning - бесплатно

MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.

Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.

Что в курсе

- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов

Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.

Почему это ценно

Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем

Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.

Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов

Если хочешь уровень FAANG / Research - учись у MIT.

https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
🚀 Gemini Deep Think - новый режим для научных и математических задач

DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.

Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.

Что умеет Deep Think

- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами

Где это интересно:

- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений

Почему это важно

Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:

меньше скорости → больше качества рассуждений.

Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит

Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.

Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
⚡️ ByteDance разрабатывает собственный AI-чип

ByteDance планирует создать собственный чип для инференса и ведёт переговоры с Samsung о его производстве.

По данным Reuters:

- Компания нацелена минимум на 100 000 чипов в 2026 году
- В дальнейшем объём может вырасти до 350 000 устройств
- В переговорах также обсуждается поставка памяти — сейчас это главный дефицит для AI-серверов

Сегодня узкое место инфраструктуры — уже не только GPU, а HBM и другие типы высокоскоростной памяти. Даже при наличии вычислительных чипов именно память ограничивает масштабирование.

Почему это важно

ByteDance следует глобальному тренду:
- Google — TPU
- Amazon — Trainium / Inferentia
- Microsoft — Maia
- Alibaba и Baidu — собственные AI-ускорители

Цель - снизить зависимость от Nvidia, контролировать стоимость и масштабировать инфраструктуру под свои задачи.

AI-гонка всё больше превращается в гонку железа.
Компании уже не просто используют модели, они строят собственные чипы и цепочки поставок.

Источник:
reuters.com/world/asia-pacific/bytedance-developing-ai-chip-manufacturing-talks-with-samsung-sources-say-2026-02-11/
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ AI-конфликт усиливается: OpenAI обвинила DeepSeek в копировании моделей

По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.

- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение

Что такое distillation

Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение

Результат — сопоставимое качество при значительно меньшей стоимости.

Почему это важно

- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API

AI-гонка теперь не только про архитектуры и GPU.

Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте

https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
⚡️ Вышла M2.5 - новая open-source frontier-модель

MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.

Что внутри

- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач

Главное отличие

Скорость и эффективность

- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час

Такой ценник меняет экономику AI-агентов.

Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов

Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.

MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan

@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ OpenAI представила GPT-5.3-Codex-Spark.

Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.

OpenAI называет ее моделью для кодинга в реальном времени.

Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.

Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Илон Маск: xAI может построить завод на Луне для производства AI-спутников

На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.

Звучит как фантастика, но идея отражает масштаб амбиций.

Что ещё он сказал сотрудникам:

- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования

Главная мысль Маска:

Скорость - главный фактор лидерства в AI.

Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру

nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
🚀 GPT-5.2 уже помогает делать открытия в фундаментальной физике

OpenAI показали реальный пример AI-assisted discovery.

Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:

Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.

Почему это важно:

- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике

Главное здесь не в том, что AI «решил физику».

А в том, что современные модели умеют:

- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты

AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.

Следующий шаг - научные открытия в режиме реального времени.
🚀 Mistral научили маленькие модели думать как большие

Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.

- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность

Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.

https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family

#ai #ml #llm #Mistral