⚡️ Samsung подтвердила, что к концу 2026 года 800 миллионов устройств будут работать под управлением Google Gemini.
> К концу 2025 года 400 миллионов устройств будут продаваться с Gemini на борту.
> эта цифра удвоится до 800 млн в этом году
> Со-генеральный директор Samsung:
Google все активнее захватывает рынок.
https://www.reuters.com/world/china/samsung-double-mobile-devices-powered-by-googles-gemini-800-mln-units-this-year-2026-01-05/?utm_source=braze&utm_medium=notifications&utm_campaign=2025_engagement
> К концу 2025 года 400 миллионов устройств будут продаваться с Gemini на борту.
> эта цифра удвоится до 800 млн в этом году
> Со-генеральный директор Samsung:
«Это дает Google преимущество перед конкурентами»
Google все активнее захватывает рынок.
https://www.reuters.com/world/china/samsung-double-mobile-devices-powered-by-googles-gemini-800-mln-units-this-year-2026-01-05/?utm_source=braze&utm_medium=notifications&utm_campaign=2025_engagement
👍11🤣8❤4🔥4
🔥 Год ChatGPT Plus бесплатно: экономим 20 000 рублей
Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):
1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!
⚡️ Проверили, пока еще работает
Или всегда можно воспользоваться ботом в тг😂
@data_analysis_ml
Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):
1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!
⚡️ Проверили, пока еще работает
Или всегда можно воспользоваться ботом в тг
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27🔥14👍10🤣2🌭1
Media is too big
VIEW IN TELEGRAM
Новый Atlas от Boston Dynamics 🤖🏭
Boston Dynamics представила обновлённого **Atlas*, теперь это не исследовательский проект, а робот, который скоро начнёт работать на заводах Hyundai.
Главное:
• создан для массового производства
• интеграция с Gemini Robotics (DeepMind) - понимает среду и задачи
• работает рядом с людьми и другими роботами (Spot, Stretch)
• подключается к MES/WMS системам завода
• 1.9 м рост, 90 кг, 56 степеней свободы
• до 4 часов работы, батарея меняется автоматически
• выдерживает от −20°C до +40°C
Hyundai планирует запустить крупное производство
к 2028 году до 30 000 роботов в год.
Это шаг от демонстраций - к реальной индустрии.
Boston Dynamics представила обновлённого **Atlas*, теперь это не исследовательский проект, а робот, который скоро начнёт работать на заводах Hyundai.
Главное:
• создан для массового производства
• интеграция с Gemini Robotics (DeepMind) - понимает среду и задачи
• работает рядом с людьми и другими роботами (Spot, Stretch)
• подключается к MES/WMS системам завода
• 1.9 м рост, 90 кг, 56 степеней свободы
• до 4 часов работы, батарея меняется автоматически
• выдерживает от −20°C до +40°C
Hyundai планирует запустить крупное производство
к 2028 году до 30 000 роботов в год.
Это шаг от демонстраций - к реальной индустрии.
🔥22❤12👍7
Media is too big
VIEW IN TELEGRAM
Дженсен Хуанг заявил: стойки нового поколения Rubin можно охлаждать водой с температурой 45 °C.
Без дорогих и сложных систем, которые обычно понижают температуру воды.
И рынок сразу отреагировал.
Инвесторы решили, что будущим дата-центрам для ИИ
нужно будет меньше крупных холодильных установок.
Что случилось с акциями:
- Johnson Controls - падение примерно на 11%
- Modine - до минус 21%
- Carrier и Trane - тоже просели
Когда стойки можно охлаждать тёплой водой,
операторы чаще используют простые «сухие» охладители
и другие решения, где не требуется сложное понижение температуры.
Меньше энергии уходит на охлаждение -больше остаётся на вычисления.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18👍7🔥4💔1
🔥 Karpathy выпустил nanochat miniseries v1.
Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.
В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.
После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.
Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.
Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.
Полный разбор и код: github.com/karpathy/nanochat/discussions/420
Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.
Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.
В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.
После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.
Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.
Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.
Полный разбор и код: github.com/karpathy/nanochat/discussions/420
Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.
❤21🔥9👍6
Бесплатный курс по Claude Code от Anthropic.
Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:
• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи
В конце — дают сертификат вайбкодера, который можно показать маме 😁
Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.
https://anthropic.skilljar.com/claude-code-in-action
Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:
• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи
В конце — дают сертификат вайбкодера, который можно показать маме 😁
Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.
https://anthropic.skilljar.com/claude-code-in-action
❤28👍15🔥8🤣5😁2
💰 BREAKING: у Ильи Суцкевера было $4 млрд акциями OpenAI.
Это всплыло в судебных документах по делу Musk v. OpenAI.
Что стало известно:
- Во время “переворота” в совете директоров в ноябре 2023 COO Брэд Лайткап писал Альтману и Наделле.
- Он оценил, что выкуп долей сотрудников OpenAI обошёлся бы примерно в $25 млрд.
- А если учитывать долю Ильи Суцкевера - уже $29 млрд.
Сам Илья на допросе отказался раскрывать, какой у него пакет.
Судья назначил повторный допрос, потому что его “финансовая заинтересованность напрямую важна” для понимания, есть ли у него предвзятость.
И важный момент:
эти $4 млрд - только то, что уже вестилось.
Сколько было всего - неизвестно.
Если цифра реальная, это один из самых крупных личных пакетов в истории AI-рынка.
Это всплыло в судебных документах по делу Musk v. OpenAI.
Что стало известно:
- Во время “переворота” в совете директоров в ноябре 2023 COO Брэд Лайткап писал Альтману и Наделле.
- Он оценил, что выкуп долей сотрудников OpenAI обошёлся бы примерно в $25 млрд.
- А если учитывать долю Ильи Суцкевера - уже $29 млрд.
Сам Илья на допросе отказался раскрывать, какой у него пакет.
Судья назначил повторный допрос, потому что его “финансовая заинтересованность напрямую важна” для понимания, есть ли у него предвзятость.
И важный момент:
эти $4 млрд - только то, что уже вестилось.
Сколько было всего - неизвестно.
Если цифра реальная, это один из самых крупных личных пакетов в истории AI-рынка.
❤15🔥8👍4🥱3
🧠🚫 Как отучить LLM “думать по кругу” и сэкономить токены
У продвинутых LLM есть скрытая проблема: overthinking.
Модель уже нашла ответ…
но продолжает писать лишние рассуждения, самопроверки и повторяет одно и то же разными словами.
В итоге вы платите не за ум модели - а за повторение.
По оценкам, до 70% токенов уходит именно на такую “избыточную рефлексию”.
YuanLab выпустили Yuan3.0 Flash, где модель учат останавливаться вовремя.
Что внутри:
✅ RIRM - reward-механизм: модель получает сигнал *когда пора завершать ответ*
(нашёл решение - закончи, не раздувай)
✅ RAPO - адаптивная оптимизация policy, ускоряющая обучение на 50%+
Что это даёт:
- до 75% дешевле инференс
- без потери качества
- быстрее ответы, меньше затрат
Главная идея:
Запуск LLM будет не только за “самый умный ответ”,
а за самый дешёвый и быстрый умный ответ.
🚀Model: https://modelscope.cn/models/Yuanlab/Yuan3.0-Flash
🔧Github: https://github.com/Yuan-lab-LLM/Yuan3.0
📄 Paper: https://modelscope.cn/papers/2601.01718
#LLM #AI #Tokens #Inference #Optimization
У продвинутых LLM есть скрытая проблема: overthinking.
Модель уже нашла ответ…
но продолжает писать лишние рассуждения, самопроверки и повторяет одно и то же разными словами.
В итоге вы платите не за ум модели - а за повторение.
По оценкам, до 70% токенов уходит именно на такую “избыточную рефлексию”.
YuanLab выпустили Yuan3.0 Flash, где модель учат останавливаться вовремя.
Что внутри:
✅ RIRM - reward-механизм: модель получает сигнал *когда пора завершать ответ*
(нашёл решение - закончи, не раздувай)
✅ RAPO - адаптивная оптимизация policy, ускоряющая обучение на 50%+
Что это даёт:
- до 75% дешевле инференс
- без потери качества
- быстрее ответы, меньше затрат
Главная идея:
Запуск LLM будет не только за “самый умный ответ”,
а за самый дешёвый и быстрый умный ответ.
🚀Model: https://modelscope.cn/models/Yuanlab/Yuan3.0-Flash
🔧Github: https://github.com/Yuan-lab-LLM/Yuan3.0
📄 Paper: https://modelscope.cn/papers/2601.01718
#LLM #AI #Tokens #Inference #Optimization
👍24❤12🔥5🤔1
💰 У DeepSeek может быть один из самых сильных “скрытых источников финансирования” в AI - хедж-фонд его основателя.
Речь про Ляна Вэньфэна (Liang Wenfeng) и его фонд Zhejiang High-Flyer Asset Management. По данным Bloomberg, 2025 год у них получился просто феноменальным: средняя доходность по фондам - 56.6%.
Почему это важно для DeepSeek?
Потому что такие результаты дают не просто “успешный год на рынке”, а реальные деньги, которыми можно оплачивать развитие ИИ:
- зарплаты сильной команде
- закупку GPU
- серверы, сети, дата-центры
- всё железо, без которого LLM не масштабируются
Ключевые факты:
- High-Flyer управляет капиталом более $10 млрд
- занял 2-е место среди китайских квант-фондов с капиталом > $1.4 млрд
- фонд заработал +56% → эти деньги фактически остаются у владельца фонда (Ляна).
- если прикинуть выручку по стандартной схеме 1% management fee + 20% performance fee, получается $700+ млн
- и это выглядит особенно мощно на фоне того, что бюджет DeepSeek на “топопвые” модели оценивался менее чем в $6 млн
Интересный момент: в 2024 фонд отошёл от market-neutral и сделал ставку на long-only стратегии (покупка акций в расчёте на рост).
А когда сразу несколько топ-квант-фондов показывают 50-70%+ за один год - это чаще говорит о том, что рынок был очень удачным для их системных стратегий, а не о единичной “везухе”.
В среднем китайские квант-фонды показали 30.5% за 2025 - больше чем в 2 раза выше глобальных конкурентов.
DeepSeek может иметь редкое преимущество - внутренний финансовый двигатель, который способен стабильно оплачивать масштабирование AI, не зависеть от раундов и инвесторов.
Речь про Ляна Вэньфэна (Liang Wenfeng) и его фонд Zhejiang High-Flyer Asset Management. По данным Bloomberg, 2025 год у них получился просто феноменальным: средняя доходность по фондам - 56.6%.
Почему это важно для DeepSeek?
Потому что такие результаты дают не просто “успешный год на рынке”, а реальные деньги, которыми можно оплачивать развитие ИИ:
- зарплаты сильной команде
- закупку GPU
- серверы, сети, дата-центры
- всё железо, без которого LLM не масштабируются
Ключевые факты:
- High-Flyer управляет капиталом более $10 млрд
- занял 2-е место среди китайских квант-фондов с капиталом > $1.4 млрд
- фонд заработал +56% → эти деньги фактически остаются у владельца фонда (Ляна).
- если прикинуть выручку по стандартной схеме 1% management fee + 20% performance fee, получается $700+ млн
- и это выглядит особенно мощно на фоне того, что бюджет DeepSeek на “топопвые” модели оценивался менее чем в $6 млн
Интересный момент: в 2024 фонд отошёл от market-neutral и сделал ставку на long-only стратегии (покупка акций в расчёте на рост).
А когда сразу несколько топ-квант-фондов показывают 50-70%+ за один год - это чаще говорит о том, что рынок был очень удачным для их системных стратегий, а не о единичной “везухе”.
В среднем китайские квант-фонды показали 30.5% за 2025 - больше чем в 2 раза выше глобальных конкурентов.
DeepSeek может иметь редкое преимущество - внутренний финансовый двигатель, который способен стабильно оплачивать масштабирование AI, не зависеть от раундов и инвесторов.
👍27❤10🔥5🤔1
Forwarded from Machinelearning
DeepSeek опять шатают устои архитектуры трансформеров свежайшим пейпером, который доказывает, что новое — это хорошо
Пока все пытаются запихнуть в LLM как можно больше слоев и параметров, DeepSeek задались вопросом: зачем тратить дорогой компьют на запоминание фактов, если их можно просто подсмотреть? Знакомьтесь:
DeepSeek предлагает разделить "думалку" (MoE-слои) и "хранилище знаний" (Engram):
Чтобы правильно поделить бюджет параметров между MoE и Engram посчитали сценарии масштабирования. График лосса от соотношения этих частей выглядит как буква U:
DeepSeek обучили модель Engram-27B и сравнили ее с классической MoE-27B при одинаковом бюджете параметров и FLOPs. Итоги:
Общее качество подросло: MMLU +3.4 пункта, HumanEval (код) +3.0.
На длинном контексте - разнос. В тесте на поиск иголки (NIAH) точность выросла с 84.2 до 97.0. Модель разгрузила слои внимания от запоминания локальных паттернов, и оно сфокусировалось на глобальном контексте.
Модель быстрее сходится. Engram берет на себя рутину в ранних слоях, тем самым позволяя модели сразу учиться сложным вещам.
Таблица эмбеддингов для Engram может быть запредельно огромной (в пейпере разгоняли до 100B параметров) и, очевидно, в VRAM это не влезает.
Решили так: раз ID токенов известен до прогона слоя, то эти данные можно хранить в RAM и асинхронно подтягивать. В реале, оверхед от этой механики показал меньше 3%., т.е. мы получаем модель, которая знает больше, чем влезает в GPU, используя оперативку сервера.
Вместо того чтобы заставлять модель учить все наизусть, ей дают гигантский справочник. Теоретически, это открывает путь к
Похоже, в V4 мы увидим как эта схема работает, ведь инсайдеры обещают у нее запредельные скилы.
@ai_machinelearning_big_data
#AI #ML #LLM #Engram #Deepseek
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👍10🔥4
🚀 Meituan представила LongCat-Image - открытую билингвальную (китайский и английский) модель для генерации изображений.
Несмотря на размер всего в 6B параметров, модель показывает эффективность и качество, сопоставимые с куда более крупными системами.
Ключевые преимущества:
✨ лучшая в классе генерация китайского текста - точная, стабильная, с широким покрытием лексики
✨ высокая фотореалистичность благодаря новой стратегии данных и обучения
✨ создана для разработчиков и реальных сценариев применения — доступна, открыта и мультилингвальна изначально
LongCat-Image ориентирована на практическую ценность и качество в продакшене.
🤖 Model: https://modelscope.cn/models/meituan-longcat/
Несмотря на размер всего в 6B параметров, модель показывает эффективность и качество, сопоставимые с куда более крупными системами.
Ключевые преимущества:
✨ лучшая в классе генерация китайского текста - точная, стабильная, с широким покрытием лексики
✨ высокая фотореалистичность благодаря новой стратегии данных и обучения
✨ создана для разработчиков и реальных сценариев применения — доступна, открыта и мультилингвальна изначально
LongCat-Image ориентирована на практическую ценность и качество в продакшене.
🤖 Model: https://modelscope.cn/models/meituan-longcat/
🔥7👍2❤1