⚡️ HY-1.8B-2Bit - LLM, которая помещается в смартфон
Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.
Главная идея — максимально снизить размер без серьёзной потери качества.
Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства
Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы
Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера
Почему это важно
Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти
Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки
Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf
#Tencent
Tencent открыли исходники HY-1.8B-2Bit - сверхэффективной языковой модели, оптимизированной для работы прямо на устройстве.
Главная идея — максимально снизить размер без серьёзной потери качества.
Что внутри
- Базовая модель 1.8B параметров сжата до эффективного размера ~0.3B
- Требует всего ~600 МБ памяти — меньше многих мобильных приложений
- Подходит для edge-инференса: смартфоны, ноутбуки, встроенные устройства
Ключевые технологии
- Ultra-Low-Bit (2-bit) — используется Quantization-Aware Training (QAT)
- Dual Chain-of-Thought — сохранено сложное рассуждение даже при экстремальном сжатии
- Оптимизация под железо — Arm SME2 и современные мобильные чипы
Производительность
- Prefill: в 3-8 раз быстрее на Apple M4 и MediaTek Dimensity 9500
- Генерация токенов: в 2-3 раза быстрее на устройстве
- В среднем +17% точности по сравнению с моделями аналогичного размера
Почему это важно
Локальные AI-ассистенты без облака становятся реальностью:
- приватность
- офлайн-работа
- низкая задержка
- минимальные требования к памяти
Форматы
- Доступна версия GGUF для интеграции в локальные inference-движки
Проект: https://github.com/Tencent/AngelSlim
Веса: https://huggingface.co/AngelSlim/HY-1.8B-2Bit
GGUF: https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
Technical report: https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf
#Tencent
Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.
Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.
Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ MIT выложили полный курс по Deep Learning - бесплатно
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
🚀 Gemini Deep Think - новый режим для научных и математических задач
DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.
Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.
Что умеет Deep Think
- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами
Где это интересно:
- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений
Почему это важно
Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:
меньше скорости → больше качества рассуждений.
Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит
Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.
Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.
Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.
Что умеет Deep Think
- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами
Где это интересно:
- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений
Почему это важно
Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:
меньше скорости → больше качества рассуждений.
Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит
Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.
Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
ByteDance планирует создать собственный чип для инференса и ведёт переговоры с Samsung о его производстве.
По данным Reuters:
- Компания нацелена минимум на 100 000 чипов в 2026 году
- В дальнейшем объём может вырасти до 350 000 устройств
- В переговорах также обсуждается поставка памяти — сейчас это главный дефицит для AI-серверов
Сегодня узкое место инфраструктуры — уже не только GPU, а HBM и другие типы высокоскоростной памяти. Даже при наличии вычислительных чипов именно память ограничивает масштабирование.
Почему это важно
ByteDance следует глобальному тренду:
- Google — TPU
- Amazon — Trainium / Inferentia
- Microsoft — Maia
- Alibaba и Baidu — собственные AI-ускорители
Цель - снизить зависимость от Nvidia, контролировать стоимость и масштабировать инфраструктуру под свои задачи.
AI-гонка всё больше превращается в гонку железа.
Компании уже не просто используют модели, они строят собственные чипы и цепочки поставок.
Источник:
reuters.com/world/asia-pacific/bytedance-developing-ai-chip-manufacturing-talks-with-samsung-sources-say-2026-02-11/
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ AI-конфликт усиливается: OpenAI обвинила DeepSeek в копировании моделей
По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.
- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение
Что такое distillation
Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение
Результат — сопоставимое качество при значительно меньшей стоимости.
Почему это важно
- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API
AI-гонка теперь не только про архитектуры и GPU.
Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
По данным Bloomberg, OpenAI заявила властям США, что китайская компания DeepSeek использует distillation, чтобы получить конкурентное преимущество.
- DeepSeek якобы массово собирала ответы ведущих американских моделей
- Эти ответы использовались как обучающие данные для собственных моделей
- OpenAI считает это попыткой использовать чужие разработки без затрат на обучение
Что такое distillation
Это подход, при котором:
→ берут сильную модель
→ генерируют большое количество ответов
→ обучают новую, более дешёвую модель повторять её поведение
Результат — сопоставимое качество при значительно меньшей стоимости.
Почему это важно
- DeepSeek уже выпустила мощные модели (V3, R1), которые конкурируют с лидерами рынка
- Вопрос вышел на уровень технологической безопасности и глобальной конкуренции
- Компании начинают активнее защищать доступ к своим моделям и API
AI-гонка теперь не только про архитектуры и GPU.
Это борьба за:
- данные
- доступ к моделям
- и право учиться на чужом интеллекте
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
⚡️ Вышла M2.5 - новая open-source frontier-модель
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
MiniMax представили M2.5 - модель, ориентированную на продуктивность, агентные задачи и долгие рабочие сценарии.
Что внутри
- Кодинг: 80.2% на SWE-Bench Verified
- Поиск и ресёрч: 76.3% (BrowseComp)
- Agent tool-calling: 76.8% (BFCL)
- Оптимизирована для офисных и рабочих задач
Главное отличие
Скорость и эффективность
- На 37% быстрее в сложных задачах
- До 100 tokens/sec
- Стоимость — около $1 в час
Такой ценник меняет экономику AI-агентов.
Теперь становится возможным:
- долгие автономные агенты (часы и дни работы)
- постоянные coding-агенты
- исследовательские ассистенты
- автоматизация бизнес-процессов
Рынок движется от «умных моделей» к дешёвым и долгоживущим агентам.
MiniMax Agent: http://agent.minimax.io
API: http://platform.minimax.io
CodingPlan: http://platform.minimax.io/subscribe/coding-plan
@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.
OpenAI называет ее моделью для кодинга в реальном времени.
Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.
Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Илон Маск: xAI может построить завод на Луне для производства AI-спутников
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes com/2026/02/10/technology/elon-musk-lunar-factory.html
🚀 GPT-5.2 уже помогает делать открытия в фундаментальной физике
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
OpenAI показали реальный пример AI-assisted discovery.
Модель GPT-5.2 помогла обнаружить неожиданную закономерность в теории квантовых полей:
Класс амплитуд рассеяния глюонов, который десятилетиями считался равным нулю, становится ненулевым в специальном режиме импульсов — так называемом *half-collinear*.
Почему это важно:
- Ломает устоявшиеся предположения из учебников по квантовой теории поля
- Открывает новые направления исследований (включая возможные расширения на гравитоны)
- Демонстрирует новый формат научной работы:
LLM как инструмент для поиска закономерностей в сверхсложной математике
Главное здесь не в том, что AI «решил физику».
А в том, что современные модели умеют:
- находить элегантные математические структуры
- работать с задачами суперэкспоненциальной сложности
- замечать паттерны там, где человеку трудно перебрать все варианты
AI уже ускоряет разработку кода.
Теперь он ускоряет и фундаментальную науку.
Следующий шаг - научные открытия в режиме реального времени.
🚀 Mistral научили маленькие модели думать как большие
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.
По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.
Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
https://www.bloomberg.com/news/articles/2026-02-12/openai-accuses-deepseek-of-distilling-us-models-to-gain-an-edge
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров.
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.
Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.
По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ начинает решать задачи, которые раньше были под силу только топ-математикам.
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
⚡️ Вышел FireRed-Image-Edit-1.0 - новая SOTA для редактирования изображений.
И самое интересное - это open-source и готово к локальному запуску.
Что умеет модель:
- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском
- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов
▪Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
▪Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
▪GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit
@pythonl
И самое интересное - это open-source и готово к локальному запуску.
Что умеет модель:
- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском
- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов
▪Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
▪Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
▪GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit
@pythonl
This media is not supported in your browser
VIEW IN TELEGRAM
💰 Илон Маск сделал громкое заявление:
Звучит радикально, но его логика проста.
Сегодня вся финансовая система построена на одном предположении:
ресурсы ограничены, а жизнь дорогая.
Мы откладываем деньги, потому что:
- нужно платить за жильё
- еду
- медицину
- услуги
- и в старости дохода может не быть
Но Маск считает, что AI и роботизация меняют саму основу экономики.
Что происходит уже сейчас:
- Автоматизация снижает стоимость труда
- Производство становится дешевле
- Услуги заменяются алгоритмами
- Всё больше процессов работает без участия человека
Если этот тренд продолжится, то:
Стоимость производства → стремится к нулю
Стоимость жизни → резко падает
А значит, логика “копить на дорогую жизнь в будущем” перестаёт работать.
Мы можем перейти от экономики дефицита к экономике изобилия.
Где главным ограничением станет не деньги, а:
- смысл деятельности
- самореализация
- ценность идей и творчества
Самый важный вывод не в том, что «копить не нужно».
А в другом:
Мир меняется быстрее, чем наши финансовые привычки.
Модель «учись → работай 40 лет → копи → пенсия» может просто устареть.
В ближайшие 10–15 лет главный актив - это не накопления.
Это:
- навыки адаптации
- умение работать с AI
- гибкость
- способность создавать ценность в новой экономике
Потому что будущее, к которому мы готовимся по старым правилам,
может оказаться совсем другим.
Через 10–20 лет накопления на пенсию могут потерять смысл.
Звучит радикально, но его логика проста.
Сегодня вся финансовая система построена на одном предположении:
ресурсы ограничены, а жизнь дорогая.
Мы откладываем деньги, потому что:
- нужно платить за жильё
- еду
- медицину
- услуги
- и в старости дохода может не быть
Но Маск считает, что AI и роботизация меняют саму основу экономики.
Что происходит уже сейчас:
- Автоматизация снижает стоимость труда
- Производство становится дешевле
- Услуги заменяются алгоритмами
- Всё больше процессов работает без участия человека
Если этот тренд продолжится, то:
Стоимость производства → стремится к нулю
Стоимость жизни → резко падает
А значит, логика “копить на дорогую жизнь в будущем” перестаёт работать.
Мы можем перейти от экономики дефицита к экономике изобилия.
Где главным ограничением станет не деньги, а:
- смысл деятельности
- самореализация
- ценность идей и творчества
Самый важный вывод не в том, что «копить не нужно».
А в другом:
Мир меняется быстрее, чем наши финансовые привычки.
Модель «учись → работай 40 лет → копи → пенсия» может просто устареть.
В ближайшие 10–15 лет главный актив - это не накопления.
Это:
- навыки адаптации
- умение работать с AI
- гибкость
- способность создавать ценность в новой экономике
Потому что будущее, к которому мы готовимся по старым правилам,
может оказаться совсем другим.
⚡️ Пентагон может разорвать сотрудничество с Anthropic.
Причина - компания отказалась разрешить использование своих моделей для «любых законных целей».
Anthropic настаивает на жестких ограничениях:
- запрет на массовую внутреннюю слежку
- запрет на полностью автономное оружие без участия человека
Конфликт обострился после спорного случая использования Claude в военной операции.
Это показало более глубокую проблему.
С одной стороны - Пентагон хочет максимально свободное применение ИИ.
С другой - Anthropic придерживается строгой политики безопасности и этики.
И здесь возникает парадокс:
Высокие этические стандарты начинают мешать бизнесу.
Главный вопрос на будущее:
Сможет ли компания сохранить принципы и при этом конкурировать на рынке, где государственные контракты - это миллиарды?
https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
Причина - компания отказалась разрешить использование своих моделей для «любых законных целей».
Anthropic настаивает на жестких ограничениях:
- запрет на массовую внутреннюю слежку
- запрет на полностью автономное оружие без участия человека
Конфликт обострился после спорного случая использования Claude в военной операции.
Это показало более глубокую проблему.
С одной стороны - Пентагон хочет максимально свободное применение ИИ.
С другой - Anthropic придерживается строгой политики безопасности и этики.
И здесь возникает парадокс:
Высокие этические стандарты начинают мешать бизнесу.
Главный вопрос на будущее:
Сможет ли компания сохранить принципы и при этом конкурировать на рынке, где государственные контракты - это миллиарды?
https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro