AI может спасти жизнь ещё до прибытия пациента в больницу.
В крупном международном исследовании, опубликованном в *The Lancet Digital Health*, показано, что модели машинного обучения способны заранее предсказывать необходимость переливания крови у пациентов с травмами — прямо на этапе оказания первой помощи.
Как это работает:
Модель анализирует только догоспитальные данные:
- жизненные показатели (пульс, давление, дыхание)
- тип и тяжесть травм
- принимаемые лекарства
- базовую информацию о состоянии пациента
На основе этих данных AI прогнозирует:
- потребуется ли переливание крови
- нужна ли срочная операция
- риск смерти от массивного кровотечения
И самое важное:
Модели показали более высокую точность, чем традиционные инструменты триажа в приёмном отделении.
Масштаб исследования впечатляет:
- данные более 418 000 пациентов
- международная команда исследователей
- валидация на разных медицинских системах
Если врачи знают о рисках до прибытия пациента, они могут:
- заранее подготовить донорскую кровь
- собрать хирургическую команду
- сократить время до жизненно важного вмешательства
- значительно повысить шансы на выживание
Это шаг к будущему, где AI станет ассистентом бригад скорой помощи в реальном времени.
Но есть важный момент:
Система пока находится на этапе валидации.
Перед внедрением необходимы клинические испытания в реальных условиях.
AI в медицине - это не замена врачей, а инструмент, который помогает принимать критические решения быстрее, когда каждая минута решает исход.
В крупном международном исследовании, опубликованном в *The Lancet Digital Health*, показано, что модели машинного обучения способны заранее предсказывать необходимость переливания крови у пациентов с травмами — прямо на этапе оказания первой помощи.
Как это работает:
Модель анализирует только догоспитальные данные:
- жизненные показатели (пульс, давление, дыхание)
- тип и тяжесть травм
- принимаемые лекарства
- базовую информацию о состоянии пациента
На основе этих данных AI прогнозирует:
- потребуется ли переливание крови
- нужна ли срочная операция
- риск смерти от массивного кровотечения
И самое важное:
Модели показали более высокую точность, чем традиционные инструменты триажа в приёмном отделении.
Масштаб исследования впечатляет:
- данные более 418 000 пациентов
- международная команда исследователей
- валидация на разных медицинских системах
Если врачи знают о рисках до прибытия пациента, они могут:
- заранее подготовить донорскую кровь
- собрать хирургическую команду
- сократить время до жизненно важного вмешательства
- значительно повысить шансы на выживание
Это шаг к будущему, где AI станет ассистентом бригад скорой помощи в реальном времени.
Но есть важный момент:
Система пока находится на этапе валидации.
Перед внедрением необходимы клинические испытания в реальных условиях.
AI в медицине - это не замена врачей, а инструмент, который помогает принимать критические решения быстрее, когда каждая минута решает исход.
Один из крупнейших банков США: BNY Mellon внедрил **134 AI-сотрудника**.
И это не эксперимент, а полноценная часть операционной работы.
Что делают «цифровые сотрудники»:
- Работают 24/7 без перерывов
- Выполняют узкоспециализированные повторяющиеся операции
- Обрабатывают платежные процессы и операционные задачи
- Снимают нагрузку с команд
По словам руководства, цель не в замене людей, а в другом:
AI берёт на себя рутину →
люди переходят к более сложным, аналитическим и стратегическим задачам.
Интересные цифры:
- Сейчас в банке — 48 100 сотрудников
- В 2023 году было около 53 400
- Инвестиции в AI и технологии могут дать +19% к прибыли на акцию
AI становится полноценной рабочей силой, а не просто инструментом.
Главный тренд:
Компании не увольняют людей ради AI.
Они перераспределяют работу:
Рутина → AI
Решения, стратегия, контроль → человек
Вывод для специалистов:
Самый ценный навык сейчас - не конкурировать с AI в рутинных задачах, а работать на уровне, где вы управляете системами, а не выполняете операции.
cnbc.com/2026/02/09/digital-employees-ai-bootcamps-americas-oldest-bank-spends-billions-on-tech.html
И это не эксперимент, а полноценная часть операционной работы.
Что делают «цифровые сотрудники»:
- Работают 24/7 без перерывов
- Выполняют узкоспециализированные повторяющиеся операции
- Обрабатывают платежные процессы и операционные задачи
- Снимают нагрузку с команд
По словам руководства, цель не в замене людей, а в другом:
AI берёт на себя рутину →
люди переходят к более сложным, аналитическим и стратегическим задачам.
Интересные цифры:
- Сейчас в банке — 48 100 сотрудников
- В 2023 году было около 53 400
- Инвестиции в AI и технологии могут дать +19% к прибыли на акцию
AI становится полноценной рабочей силой, а не просто инструментом.
Главный тренд:
Компании не увольняют людей ради AI.
Они перераспределяют работу:
Рутина → AI
Решения, стратегия, контроль → человек
Вывод для специалистов:
Самый ценный навык сейчас - не конкурировать с AI в рутинных задачах, а работать на уровне, где вы управляете системами, а не выполняете операции.
cnbc.com/2026/02/09/digital-employees-ai-bootcamps-americas-oldest-bank-spends-billions-on-tech.html
🎨 Qwen-Image-2.0 - новое поколение генерации изображений Qwen моделей
Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.
Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)
Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость
Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0
@ai_machinelearning_big_data
#qwen
Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.
Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)
Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость
Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0
@ai_machinelearning_big_data
#qwen
⚡️ HY-1.8B-2Bit - LLM, которая помещается в смартфон
Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.
Главная идея — максимально снизить размер без серьёзной потери качества.
Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства
Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы
Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера
Почему это важно
Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти
Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки
Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf
#Tencent
Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.
Главная идея — максимально снизить размер без серьёзной потери качества.
Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства
Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы
Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера
Почему это важно
Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти
Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки
Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf
#Tencent
Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.
Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.
Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ MIT выложили полный курс по Deep Learning - бесплатно
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
🚀 Gemini Deep Think - новый режим для научных и математических задач
DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.
Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.
Что умеет Deep Think
- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами
Где это интересно:
- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений
Почему это важно
Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:
меньше скорости → больше качества рассуждений.
Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит
Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.
Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.
Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.
Что умеет Deep Think
- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами
Где это интересно:
- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений
Почему это важно
Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:
меньше скорости → больше качества рассуждений.
Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит
Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.
Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
ByteDance планирует создать собственный чип для инференса и ведёт переговоры с Samsung о его производстве.
По данным Reuters:
- Компания нацелена минимум на 100 000 чипов в 2026 году
- В дальнейшем объём может вырасти до 350 000 устройств
- В переговорах также обсуждается поставка памяти — сейчас это главный дефицит для AI-серверов
Сегодня узкое место инфраструктуры — уже не только GPU, а HBM и другие типы высокоскоростной памяти. Даже при наличии вычислительных чипов именно память ограничивает масштабирование.
Почему это важно
ByteDance следует глобальному тренду:
- Google — TPU
- Amazon — Trainium / Inferentia
- Microsoft — Maia
- Alibaba и Baidu — собственные AI-ускорители
Цель - снизить зависимость от Nvidia, контролировать стоимость и масштабировать инфраструктуру под свои задачи.
AI-гонка всё больше превращается в гонку железа.
Компании уже не просто используют модели, они строят собственные чипы и цепочки поставок.
Источник:
reuters.com/world/asia-pacific/bytedance-developing-ai-chip-manufacturing-talks-with-samsung-sources-say-2026-02-11/
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ AI-конфликт усиливается: OpenAI обвинила DeepSeek в копировании моделей
По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.
- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение
Что такое distillation
Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение
Результат — сопоставимое качество при значительно меньшей стоимости.
Почему это важно
- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API
AI-гонка теперь не только про архитектуры и GPU.
Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.
- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение
Что такое distillation
Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение
Результат — сопоставимое качество при значительно меньшей стоимости.
Почему это важно
- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API
AI-гонка теперь не только про архитектуры и GPU.
Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
⚡️ Вышла M2.5 - новая open-source frontier-модель
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.
OpenAI называет ее моделью для кодинга в реальном времени.
Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.
Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Илон Маск: xAI может построить завод на Луне для производства AI-спутников
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
🚀 GPT-5.2 уже помогает делать открытия в фундаментальной физике
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
🚀 Mistral научили маленькие модели думать как большие
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.
По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.
Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров.
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.
Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.
По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ начинает решать задачи, которые раньше были под силу только топ-математикам.
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
⚡️ Вышел FireRed-Image-Edit-1.0 - новая SOTA для редактирования изображений.
И самое интересное - это open-source и готово к локальному запуску.
Что умеет модель:
- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском
- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов
▪Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
▪Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
▪GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit
@pythonl
И самое интересное - это open-source и готово к локальному запуску.
Что умеет модель:
- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском
- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов
▪Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
▪Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
▪GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit
@pythonl