Машинное обучение digest
57 subscribers
1.69K photos
224 videos
925 links
Download Telegram
⚡️ HY-1.8B-2Bit - LLM, которая помещается в смартфон

Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.

Главная идея — максимально снизить размер без серьёзной потери качества.

Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства

Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы

Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера

Почему это важно

Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти

Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки

Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf

#Tencent
⚡️ ZAI релизнули GLM-5.

Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.

Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.

Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ MIT выложили полный курс по Deep Learning - бесплатно

MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.

Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.

Что в курсе

- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов

Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.

Почему это ценно

Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем

Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.

Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов

Если хочешь уровень FAANG / Research - учись у MIT.

https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
🚀 Gemini Deep Think - новый режим для научных и математических задач

DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.

Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.

Что умеет Deep Think

- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами

Где это интересно:

- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений

Почему это важно

Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:

меньше скорости → больше качества рассуждений.

Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит

Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.

Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
⚡️ ByteDance разрабатывает собственный AI-чип

ByteDance планирует создать собственный чип для инференса и ведёт переговоры с Samsung о его производстве.

По данным Reuters:

- Компания нацелена минимум на 100 000 чипов в 2026 году
- В дальнейшем объём может вырасти до 350 000 устройств
- В переговорах также обсуждается поставка памяти — сейчас это главный дефицит для AI-серверов

Сегодня узкое место инфраструктуры — уже не только GPU, а HBM и другие типы высокоскоростной памяти. Даже при наличии вычислительных чипов именно память ограничивает масштабирование.

Почему это важно

ByteDance следует глобальному тренду:
- Google — TPU
- Amazon — Trainium / Inferentia
- Microsoft — Maia
- Alibaba и Baidu — собственные AI-ускорители

Цель - снизить зависимость от Nvidia, контролировать стоимость и масштабировать инфраструктуру под свои задачи.

AI-гонка всё больше превращается в гонку железа.
Компании уже не просто используют модели, они строят собственные чипы и цепочки поставок.

Источник:
reuters.com/world/asia-pacific/bytedance-developing-ai-chip-manufacturing-talks-with-samsung-sources-say-2026-02-11/
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ AI-конфликт усиливается: OpenAI обвинила DeepSeek в копировании моделей

По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.

- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение

Что такое distillation

Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение

Результат — сопоставимое качество при значительно меньшей стоимости.

Почему это важно

- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API

AI-гонка теперь не только про архитектуры и GPU.

Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте

https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
⚡️ Вышла M2.5 - новая open-source frontier-модель

MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.

Что внутри

- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач

Главное отличие

Скорость и эффективность

- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час

Такой ценник меняет экономику AI-агентов.

Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов

Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.

MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan

@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ OpenAI представила GPT-5.3-Codex-Spark.

Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.

OpenAI называет ее моделью для кодинга в реальном времени.

Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.

Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Илон Маск: xAI может построить завод на Луне для производства AI-спутников

На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.

Звучит как фантастика, но идея отражает масштаб амбиций.

Что ещё он сказал сотрудникам:

- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования

Главная мысль Маска:

Скорость - главный фактор лидерства в AI.

Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру

nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
🚀 GPT-5.2 уже помогает делать открытия в фундаментальной физике

OpenAI показали реальный пример AI-assisted discovery.

Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:

Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.

Почему это важно:

- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике

Главное здесь не в том, что AI «решил физику».

А в том, что современные модели умеют:

- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты

AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.

Следующий шаг - научные открытия в режиме реального времени.
🚀 Mistral научили маленькие модели думать как большие

Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.

- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность

Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.

https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family

#ai #ml #llm #Mistral
✔️ OpenAI обвинила DeepSeek в краже знаний через дистилляцию.

В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.

По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.

Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.

https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров.

Что важно:

- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа

Это уже не просто LLM.

Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля

Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
✔️ Список главных инноваторов США возглавили архитекторы ИИ-революции.

В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.

Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.

По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ начинает решать задачи, которые раньше были под силу только топ-математикам.

OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.

Результаты всего за 1 неделю:

- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля

Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.

Но вывод очевиден:

ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.

Следующий этап развития:

- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий

Мы движемся от AI-ассистента к AI-исследователю.

И это только начало.

https://x.com/merettm/status/2022517085193277874
⚡️ Вышел FireRed-Image-Edit-1.0 - новая SOTA для редактирования изображений.

И самое интересное - это open-source и готово к локальному запуску.

Что умеет модель:

- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском

- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов

Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit

@pythonl
This media is not supported in your browser
VIEW IN TELEGRAM
💰 Илон Маск сделал громкое заявление:

Через 10–20 лет накопления на пенсию могут потерять смысл.


Звучит радикально, но его логика проста.

Сегодня вся финансовая система построена на одном предположении:
ресурсы ограничены, а жизнь дорогая.

Мы откладываем деньги, потому что:
- нужно платить за жильё
- еду
- медицину
- услуги
- и в старости дохода может не быть

Но Маск считает, что AI и роботизация меняют саму основу экономики.

Что происходит уже сейчас:

- Автоматизация снижает стоимость труда
- Производство становится дешевле
- Услуги заменяются алгоритмами
- Всё больше процессов работает без участия человека

Если этот тренд продолжится, то:

Стоимость производства → стремится к нулю
Стоимость жизни → резко падает

А значит, логика “копить на дорогую жизнь в будущем” перестаёт работать.

Мы можем перейти от экономики дефицита к экономике изобилия.

Где главным ограничением станет не деньги, а:
- смысл деятельности
- самореализация
- ценность идей и творчества

Самый важный вывод не в том, что «копить не нужно».

А в другом:

Мир меняется быстрее, чем наши финансовые привычки.
Модель «учись → работай 40 лет → копи → пенсия» может просто устареть.

В ближайшие 10–15 лет главный актив - это не накопления.

Это:
- навыки адаптации
- умение работать с AI
- гибкость
- способность создавать ценность в новой экономике

Потому что будущее, к которому мы готовимся по старым правилам,
может оказаться совсем другим.
⚡️ Пентагон может разорвать сотрудничество с Anthropic.

Причина - компания отказалась разрешить использование своих моделей для «любых законных целей».

Anthropic настаивает на жестких ограничениях:

- запрет на массовую внутреннюю слежку
- запрет на полностью автономное оружие без участия человека

Конфликт обострился после спорного случая использования Claude в военной операции.
Это показало более глубокую проблему.

С одной стороны - Пентагон хочет максимально свободное применение ИИ.
С другой - Anthropic придерживается строгой политики безопасности и этики.

И здесь возникает парадокс:

Высокие этические стандарты начинают мешать бизнесу.

Главный вопрос на будущее:

Сможет ли компания сохранить принципы и при этом конкурировать на рынке, где государственные контракты - это миллиарды?

https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro