Реальность оказалась простой и немного неудобной:
Если модель можно скачать, изменить и запустить —
безопасность перестаёт быть гарантией.
Любой может:
- форкнуть репозиторий
- убрать guardrails
- изменить системные промпты
- развернуть модель в открытом доступе
Open source выигрывает в скорости и доступности.
Но open source также выигрывает и в масштабируемости злоупотреблений.
Проблема здесь не в самих моделях, а в природе открытого кода:
— ограничения можно отключить
— фильтры можно переписать
— контроль централизованно невозможен
И главный вопрос для индустрии сейчас:
Стоит ли выпускать мощные open-source модели с более жёсткими ограничениями по умолчанию?
Потому что в мире open source безопасность - это не функция.
Это лишь настройка.
Please open Telegram to view this post
VIEW IN TELEGRAM
В Zyphra придумали как усидеть на двух стульях сразу, когда хочется резиновый контекст, но под рукой нет тонны памяти.
То. что они предложили, называется Online Vector-Quantized Attention - это модификация векторного квантования, которая учит словарь думать на лету.
В классическом VQ ключи заменяются ближайшими центроидами из статичного словаря. Это бустит вычисления, но создает проблему: словарь обучен на одних данных, а во время генерации модель видит совсем другое распределение ключей. Ошибка квантования растет, внимание теряет точность и как итог: VQ начинает плавать.
Так вот, модификация в том, чтобы отказаться от статического словаря в пользу адаптивного к текущей последовательности: каждый новый токен обновляет только один центроид - тот, к которому ближе всего.
Это разреженное обновление работает как защита от катастрофического забывания: старая информация не вымывается новой волной токенов, а аккуратно перезаписывается по мере необходимости.
Плюс есть хард-лимит на размер состояния, после достижения которого объем памяти перестает расти, а вычисления становятся строго линейными.
Очень хочется надеяться, что OVQ - это предтеча настоящего непрерывного обучения, где в светлом будущем вместо бесконечно пухнущего KV-кэша появится компактная, но живая память, способная удерживать важные детали без потерь.
@ai_machinelearning_big_data
#AI #ML #LLM #OVQA #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Компании массово используют AI, но сталкиваются с реальностью: «из коробки» агенты почти не работают в реальных бизнес-процессах.
Причина простая - настоящий эффект появляется только после интеграции с внутренними данными, инструментами и логикой компании.
Поэтому лидеры рынка меняют стратегию.
OpenAI и Anthropic уже превращаются не просто в поставщиков моделей, а в технологических партнёров:
• OpenAI нанимает сотни инженеров, чтобы внедрять ChatGPT в реальные системы клиентов
• Платформа Frontier показывает главную сложность: агент должен работать с внутренними API, понимать контекст бизнеса и правильно принимать решения
• Anthropic также сопровождает корпоративные внедрения
• Ритейлер Fnac сообщил, что без дополнительной настройки агенты не справлялись даже с обработкой серийных номеров
Вывод для разработчиков:
ценность сегодня не в доступе к модели, а в интеграции, настройке и orchestration.
Побеждают те, кто умеет связать LLM с данными, инструментами и процессами.
Причина простая - настоящий эффект появляется только после интеграции с внутренними данными, инструментами и логикой компании.
Поэтому лидеры рынка меняют стратегию.
OpenAI и Anthropic уже превращаются не просто в поставщиков моделей, а в технологических партнёров:
• OpenAI нанимает сотни инженеров, чтобы внедрять ChatGPT в реальные системы клиентов
• Платформа Frontier показывает главную сложность: агент должен работать с внутренними API, понимать контекст бизнеса и правильно принимать решения
• Anthropic также сопровождает корпоративные внедрения
• Ритейлер Fnac сообщил, что без дополнительной настройки агенты не справлялись даже с обработкой серийных номеров
Вывод для разработчиков:
ценность сегодня не в доступе к модели, а в интеграции, настройке и orchestration.
Побеждают те, кто умеет связать LLM с данными, инструментами и процессами.
⚡️ AAI иногда помогает делать прорывы в самых неожиданных местах. Модель, обученная распознавать птиц, теперь помогает раскрывать тайны подводного мира.
Главная проблема океанологии - данные.
Подводные камеры записывают тысячи часов видео, но учёные физически не успевают всё просмотреть. В результате редкие виды, изменения экосистем и важные события могут оставаться незамеченными годами.
Исследователи применили модели компьютерного зрения, изначально обученные на изображениях птиц. Несмотря на то, что среда полностью другая (вода, плохое освещение, шум, мутность), модель смогла:
- автоматически находить морских животных в кадре
- классифицировать виды
- отслеживать их поведение
- анализировать большие массивы данных без участия человека
Transfer learning — ключевая идея.
Модель уже умеет распознавать формы, текстуры, контуры и движение. Эти базовые визуальные признаки универсальны и подходят не только для птиц, но и для рыб, медуз и других морских существ.
Самое интересное:
- Не нужно обучать модель с нуля (экономия месяцев работы и огромных ресурсов)
- Можно быстро адаптировать AI к новым научным задачам
- AI способен находить редкие или неожиданные наблюдения, которые человек мог бы пропустить
- Такой подход ускоряет исследования климата и состояния океанов
Фактически, модель стала инструментом научных открытий, а не просто системой распознавания изображений.
Главный вывод для разработчиков:
Ценность AI сегодня - не в обучении новых моделей, а в умении переиспользовать существующие и переносить их в новые домены.
Часто самая сильная инновация — это не новая архитектура, а новое применение.
https://research.google/blog/how-ai-trained-on-birds-is-surfacing-underwater-mysteries/
Главная проблема океанологии - данные.
Подводные камеры записывают тысячи часов видео, но учёные физически не успевают всё просмотреть. В результате редкие виды, изменения экосистем и важные события могут оставаться незамеченными годами.
Исследователи применили модели компьютерного зрения, изначально обученные на изображениях птиц. Несмотря на то, что среда полностью другая (вода, плохое освещение, шум, мутность), модель смогла:
- автоматически находить морских животных в кадре
- классифицировать виды
- отслеживать их поведение
- анализировать большие массивы данных без участия человека
Transfer learning — ключевая идея.
Модель уже умеет распознавать формы, текстуры, контуры и движение. Эти базовые визуальные признаки универсальны и подходят не только для птиц, но и для рыб, медуз и других морских существ.
Самое интересное:
- Не нужно обучать модель с нуля (экономия месяцев работы и огромных ресурсов)
- Можно быстро адаптировать AI к новым научным задачам
- AI способен находить редкие или неожиданные наблюдения, которые человек мог бы пропустить
- Такой подход ускоряет исследования климата и состояния океанов
Фактически, модель стала инструментом научных открытий, а не просто системой распознавания изображений.
Главный вывод для разработчиков:
Ценность AI сегодня - не в обучении новых моделей, а в умении переиспользовать существующие и переносить их в новые домены.
Часто самая сильная инновация — это не новая архитектура, а новое применение.
https://research.google/blog/how-ai-trained-on-birds-is-surfacing-underwater-mysteries/
⚡️ Deep Research без интернета? Теперь это возможно.
OpenResearcher — это полностью офлайн-пайплайн для генерации длинных исследовательских траекторий (100+ шагов), которые имитируют реальный процесс работы агента в интернете:
search → open → find → анализ → вывод.
И всё это:
- без API поиска
- без ограничений по rate limit
- без нестабильности результатов
- полностью воспроизводимо
Что под капотом:
- GPT-OSS-120B генерирует исследовательские цепочки
- Локальный поисковик + корпус 10 трлн токенов
- 15 млн документов FineWeb
- 10 000 «золотых» отобранных источников
- Явные примитивы браузинга (поиск, открытие, извлечение), а не просто retrieve-and-read
- Reject sampling — сохраняются только успешные длинные траектории
Почему это важно?
Главная проблема обучения research-агентов — длинные цепочки действий.
Обычные датасеты короткие и не учат модель думать на горизонте десятков шагов.
Здесь результат впечатляет:
SFT на этих траекториях повышает точность модели Nemotron-3-Nano-30B-A3B
с 20.8% → 54.8% на BrowseComp-Plus
(+34% абсолютного прироста)
Что это значит для индустрии:
- Deep-research агентов можно обучать без дорогих онлайн-запросов
- Появляется воспроизводимое обучение tool-use
- Можно масштабировать генерацию «мышления через действия»
- Это шаг к стабильным автономным исследовательским AI
Открытое релизнули всё:
- Код, поисковик и рецепт корпуса
- ~96K длинных исследовательских траекторий
- Логи оценки
- Обученные модели
- Онлайн-демо
GitHub: https://github.com/TIGER-AI-Lab/OpenResearcher
Models & Data: https://huggingface.co/collections/TIGER-Lab/openresearcher
Demo: https://huggingface.co/spaces/OpenResearcher/OpenResearcher
Eval logs: https://huggingface.co/datasets/OpenResearcher/OpenResearcher-Eval-Logs
OpenResearcher — это полностью офлайн-пайплайн для генерации длинных исследовательских траекторий (100+ шагов), которые имитируют реальный процесс работы агента в интернете:
search → open → find → анализ → вывод.
И всё это:
- без API поиска
- без ограничений по rate limit
- без нестабильности результатов
- полностью воспроизводимо
Что под капотом:
- GPT-OSS-120B генерирует исследовательские цепочки
- Локальный поисковик + корпус 10 трлн токенов
- 15 млн документов FineWeb
- 10 000 «золотых» отобранных источников
- Явные примитивы браузинга (поиск, открытие, извлечение), а не просто retrieve-and-read
- Reject sampling — сохраняются только успешные длинные траектории
Почему это важно?
Главная проблема обучения research-агентов — длинные цепочки действий.
Обычные датасеты короткие и не учат модель думать на горизонте десятков шагов.
Здесь результат впечатляет:
SFT на этих траекториях повышает точность модели Nemotron-3-Nano-30B-A3B
с 20.8% → 54.8% на BrowseComp-Plus
(+34% абсолютного прироста)
Что это значит для индустрии:
- Deep-research агентов можно обучать без дорогих онлайн-запросов
- Появляется воспроизводимое обучение tool-use
- Можно масштабировать генерацию «мышления через действия»
- Это шаг к стабильным автономным исследовательским AI
Открытое релизнули всё:
- Код, поисковик и рецепт корпуса
- ~96K длинных исследовательских траекторий
- Логи оценки
- Обученные модели
- Онлайн-демо
GitHub: https://github.com/TIGER-AI-Lab/OpenResearcher
Models & Data: https://huggingface.co/collections/TIGER-Lab/openresearcher
Demo: https://huggingface.co/spaces/OpenResearcher/OpenResearcher
Eval logs: https://huggingface.co/datasets/OpenResearcher/OpenResearcher-Eval-Logs
AI может спасти жизнь ещё до прибытия пациента в больницу.
В крупном международном исследовании, опубликованном в *The Lancet Digital Health*, показано, что модели машинного обучения способны заранее предсказывать необходимость переливания крови у пациентов с травмами — прямо на этапе оказания первой помощи.
Как это работает:
Модель анализирует только догоспитальные данные:
- жизненные показатели (пульс, давление, дыхание)
- тип и тяжесть травм
- принимаемые лекарства
- базовую информацию о состоянии пациента
На основе этих данных AI прогнозирует:
- потребуется ли переливание крови
- нужна ли срочная операция
- риск смерти от массивного кровотечения
И самое важное:
Модели показали более высокую точность, чем традиционные инструменты триажа в приёмном отделении.
Масштаб исследования впечатляет:
- данные более 418 000 пациентов
- международная команда исследователей
- валидация на разных медицинских системах
Если врачи знают о рисках до прибытия пациента, они могут:
- заранее подготовить донорскую кровь
- собрать хирургическую команду
- сократить время до жизненно важного вмешательства
- значительно повысить шансы на выживание
Это шаг к будущему, где AI станет ассистентом бригад скорой помощи в реальном времени.
Но есть важный момент:
Система пока находится на этапе валидации.
Перед внедрением необходимы клинические испытания в реальных условиях.
AI в медицине - это не замена врачей, а инструмент, который помогает принимать критические решения быстрее, когда каждая минута решает исход.
В крупном международном исследовании, опубликованном в *The Lancet Digital Health*, показано, что модели машинного обучения способны заранее предсказывать необходимость переливания крови у пациентов с травмами — прямо на этапе оказания первой помощи.
Как это работает:
Модель анализирует только догоспитальные данные:
- жизненные показатели (пульс, давление, дыхание)
- тип и тяжесть травм
- принимаемые лекарства
- базовую информацию о состоянии пациента
На основе этих данных AI прогнозирует:
- потребуется ли переливание крови
- нужна ли срочная операция
- риск смерти от массивного кровотечения
И самое важное:
Модели показали более высокую точность, чем традиционные инструменты триажа в приёмном отделении.
Масштаб исследования впечатляет:
- данные более 418 000 пациентов
- международная команда исследователей
- валидация на разных медицинских системах
Если врачи знают о рисках до прибытия пациента, они могут:
- заранее подготовить донорскую кровь
- собрать хирургическую команду
- сократить время до жизненно важного вмешательства
- значительно повысить шансы на выживание
Это шаг к будущему, где AI станет ассистентом бригад скорой помощи в реальном времени.
Но есть важный момент:
Система пока находится на этапе валидации.
Перед внедрением необходимы клинические испытания в реальных условиях.
AI в медицине - это не замена врачей, а инструмент, который помогает принимать критические решения быстрее, когда каждая минута решает исход.
Один из крупнейших банков США: BNY Mellon внедрил **134 AI-сотрудника**.
И это не эксперимент, а полноценная часть операционной работы.
Что делают «цифровые сотрудники»:
- Работают 24/7 без перерывов
- Выполняют узкоспециализированные повторяющиеся операции
- Обрабатывают платежные процессы и операционные задачи
- Снимают нагрузку с команд
По словам руководства, цель не в замене людей, а в другом:
AI берёт на себя рутину →
люди переходят к более сложным, аналитическим и стратегическим задачам.
Интересные цифры:
- Сейчас в банке — 48 100 сотрудников
- В 2023 году было около 53 400
- Инвестиции в AI и технологии могут дать +19% к прибыли на акцию
AI становится полноценной рабочей силой, а не просто инструментом.
Главный тренд:
Компании не увольняют людей ради AI.
Они перераспределяют работу:
Рутина → AI
Решения, стратегия, контроль → человек
Вывод для специалистов:
Самый ценный навык сейчас - не конкурировать с AI в рутинных задачах, а работать на уровне, где вы управляете системами, а не выполняете операции.
cnbc.com/2026/02/09/digital-employees-ai-bootcamps-americas-oldest-bank-spends-billions-on-tech.html
И это не эксперимент, а полноценная часть операционной работы.
Что делают «цифровые сотрудники»:
- Работают 24/7 без перерывов
- Выполняют узкоспециализированные повторяющиеся операции
- Обрабатывают платежные процессы и операционные задачи
- Снимают нагрузку с команд
По словам руководства, цель не в замене людей, а в другом:
AI берёт на себя рутину →
люди переходят к более сложным, аналитическим и стратегическим задачам.
Интересные цифры:
- Сейчас в банке — 48 100 сотрудников
- В 2023 году было около 53 400
- Инвестиции в AI и технологии могут дать +19% к прибыли на акцию
AI становится полноценной рабочей силой, а не просто инструментом.
Главный тренд:
Компании не увольняют людей ради AI.
Они перераспределяют работу:
Рутина → AI
Решения, стратегия, контроль → человек
Вывод для специалистов:
Самый ценный навык сейчас - не конкурировать с AI в рутинных задачах, а работать на уровне, где вы управляете системами, а не выполняете операции.
cnbc.com/2026/02/09/digital-employees-ai-bootcamps-americas-oldest-bank-spends-billions-on-tech.html
🎨 Qwen-Image-2.0 - новое поколение генерации изображений Qwen моделей
Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.
Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)
Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость
Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0
@ai_machinelearning_big_data
#qwen
Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.
Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)
Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость
Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0
@ai_machinelearning_big_data
#qwen
⚡️ HY-1.8B-2Bit - LLM, которая помещается в смартфон
Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.
Главная идея — максимально снизить размер без серьёзной потери качества.
Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства
Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы
Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера
Почему это важно
Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти
Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки
Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf
#Tencent
Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.
Главная идея — максимально снизить размер без серьёзной потери качества.
Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства
Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы
Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера
Почему это важно
Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти
Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки
Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf
#Tencent
Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.
Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.
Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ MIT выложили полный курс по Deep Learning - бесплатно
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
🚀 Gemini Deep Think - новый режим для научных и математических задач
DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.
Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.
Что умеет Deep Think
- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами
Где это интересно:
- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений
Почему это важно
Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:
меньше скорости → больше качества рассуждений.
Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит
Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.
Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.
Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.
Что умеет Deep Think
- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами
Где это интересно:
- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений
Почему это важно
Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:
меньше скорости → больше качества рассуждений.
Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит
Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.
Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
ByteDance планирует создать собственный чип для инференса и ведёт переговоры с Samsung о его производстве.
По данным Reuters:
- Компания нацелена минимум на 100 000 чипов в 2026 году
- В дальнейшем объём может вырасти до 350 000 устройств
- В переговорах также обсуждается поставка памяти — сейчас это главный дефицит для AI-серверов
Сегодня узкое место инфраструктуры — уже не только GPU, а HBM и другие типы высокоскоростной памяти. Даже при наличии вычислительных чипов именно память ограничивает масштабирование.
Почему это важно
ByteDance следует глобальному тренду:
- Google — TPU
- Amazon — Trainium / Inferentia
- Microsoft — Maia
- Alibaba и Baidu — собственные AI-ускорители
Цель - снизить зависимость от Nvidia, контролировать стоимость и масштабировать инфраструктуру под свои задачи.
AI-гонка всё больше превращается в гонку железа.
Компании уже не просто используют модели, они строят собственные чипы и цепочки поставок.
Источник:
reuters.com/world/asia-pacific/bytedance-developing-ai-chip-manufacturing-talks-with-samsung-sources-say-2026-02-11/
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ AI-конфликт усиливается: OpenAI обвинила DeepSeek в копировании моделей
По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.
- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение
Что такое distillation
Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение
Результат — сопоставимое качество при значительно меньшей стоимости.
Почему это важно
- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API
AI-гонка теперь не только про архитектуры и GPU.
Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.
- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение
Что такое distillation
Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение
Результат — сопоставимое качество при значительно меньшей стоимости.
Почему это важно
- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API
AI-гонка теперь не только про архитектуры и GPU.
Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
⚡️ Вышла M2.5 - новая open-source frontier-модель
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.
OpenAI называет ее моделью для кодинга в реальном времени.
Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.
Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Илон Маск: xAI может построить завод на Луне для производства AI-спутников
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
🚀 GPT-5.2 уже помогает делать открытия в фундаментальной физике
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
🚀 Mistral научили маленькие модели думать как большие
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral