Анализ данных (Data analysis)
48.1K subscribers
2.78K photos
315 videos
1 file
2.36K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
⚡️ Samsung подтвердила, что к концу 2026 года 800 миллионов устройств будут работать под управлением Google Gemini.

> К концу 2025 года 400 миллионов устройств будут продаваться с Gemini на борту.
> эта цифра удвоится до 800 млн в этом году
> Со-генеральный директор Samsung:
«Это дает Google преимущество перед конкурентами»


Google все активнее захватывает рынок.

https://www.reuters.com/world/china/samsung-double-mobile-devices-powered-by-googles-gemini-800-mln-units-this-year-2026-01-05/?utm_source=braze&utm_medium=notifications&utm_campaign=2025_engagement
👍11🤣84🔥4
🔥 Год ChatGPT Plus бесплатно: экономим 20 000 рублей

Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):

1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!

⚡️ Проверили, пока еще работает

Или всегда можно воспользоваться ботом в тг 😂

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
27🔥14👍10🤣2🌭1
Media is too big
VIEW IN TELEGRAM
Новый Atlas от Boston Dynamics 🤖🏭

Boston Dynamics представила обновлённого **Atlas*, теперь это не исследовательский проект, а робот, который скоро начнёт работать на заводах Hyundai.

Главное:

• создан для массового производства
• интеграция с Gemini Robotics (DeepMind) - понимает среду и задачи
• работает рядом с людьми и другими роботами (Spot, Stretch)
• подключается к MES/WMS системам завода
• 1.9 м рост, 90 кг, 56 степеней свободы
• до 4 часов работы, батарея меняется автоматически
• выдерживает от −20°C до +40°C

Hyundai планирует запустить крупное производство
к 2028 году до 30 000 роботов в год.

Это шаг от демонстраций - к реальной индустрии.
🔥2212👍7
Media is too big
VIEW IN TELEGRAM
🖥 Nvidia: «горячая вода вместо сложных холодильных систем»

Дженсен Хуанг заявил: стойки нового поколения Rubin можно охлаждать водой с температурой 45 °C.

Без дорогих и сложных систем, которые обычно понижают температуру воды.

И рынок сразу отреагировал.

Инвесторы решили, что будущим дата-центрам для ИИ
нужно будет меньше крупных холодильных установок.

Что случилось с акциями:

- Johnson Controls - падение примерно на 11%
- Modine - до минус 21%
- Carrier и Trane - тоже просели

Когда стойки можно охлаждать тёплой водой,
операторы чаще используют простые «сухие» охладители
и другие решения, где не требуется сложное понижение температуры.

Меньше энергии уходит на охлаждение -больше остаётся на вычисления.
Please open Telegram to view this post
VIEW IN TELEGRAM
18👍7🔥4💔1
🔥 Karpathy выпустил nanochat miniseries v1.

Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.

В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.

После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.

Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.

Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.

Полный разбор и код: github.com/karpathy/nanochat/discussions/420

Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.
21🔥9👍6
Бесплатный курс по Claude Code от Anthropic.

Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:

• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи

В конце — дают сертификат вайбкодера, который можно показать маме 😁

Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.

https://anthropic.skilljar.com/claude-code-in-action
28👍15🔥8🤣5😁2
💰 BREAKING: у Ильи Суцкевера было $4 млрд акциями OpenAI.

Это всплыло в судебных документах по делу Musk v. OpenAI.

Что стало известно:

- Во время “переворота” в совете директоров в ноябре 2023 COO Брэд Лайткап писал Альтману и Наделле.
- Он оценил, что выкуп долей сотрудников OpenAI обошёлся бы примерно в $25 млрд.
- А если учитывать долю Ильи Суцкевера - уже $29 млрд.

Сам Илья на допросе отказался раскрывать, какой у него пакет.

Судья назначил повторный допрос, потому что его “финансовая заинтересованность напрямую важна” для понимания, есть ли у него предвзятость.

И важный момент:
эти $4 млрд - только то, что уже вестилось.
Сколько было всего - неизвестно.

Если цифра реальная, это один из самых крупных личных пакетов в истории AI-рынка.
15🔥8👍4🥱3
🧠🚫 Как отучить LLM “думать по кругу” и сэкономить токены

У продвинутых LLM есть скрытая проблема: overthinking.

Модель уже нашла ответ…
но продолжает писать лишние рассуждения, самопроверки и повторяет одно и то же разными словами.

В итоге вы платите не за ум модели - а за повторение.
По оценкам, до 70% токенов уходит именно на такую “избыточную рефлексию”.

YuanLab выпустили Yuan3.0 Flash, где модель учат останавливаться вовремя.

Что внутри:

RIRM - reward-механизм: модель получает сигнал *когда пора завершать ответ*
(нашёл решение - закончи, не раздувай)

RAPO - адаптивная оптимизация policy, ускоряющая обучение на 50%+

Что это даёт:
- до 75% дешевле инференс
- без потери качества
- быстрее ответы, меньше затрат

Главная идея:

Запуск LLM будет не только за “самый умный ответ”,
а за самый дешёвый и быстрый умный ответ.

🚀Model: https://modelscope.cn/models/Yuanlab/Yuan3.0-Flash
🔧Github: https://github.com/Yuan-lab-LLM/Yuan3.0
📄 Paper: https://modelscope.cn/papers/2601.01718

#LLM #AI #Tokens #Inference #Optimization
👍2412🔥5🤔1
💰 У DeepSeek может быть один из самых сильных “скрытых источников финансирования” в AI - хедж-фонд его основателя.

Речь про Ляна Вэньфэна (Liang Wenfeng) и его фонд Zhejiang High-Flyer Asset Management. По данным Bloomberg, 2025 год у них получился просто феноменальным: средняя доходность по фондам - 56.6%.

Почему это важно для DeepSeek?
Потому что такие результаты дают не просто “успешный год на рынке”, а реальные деньги, которыми можно оплачивать развитие ИИ:
- зарплаты сильной команде
- закупку GPU
- серверы, сети, дата-центры
- всё железо, без которого LLM не масштабируются

Ключевые факты:
- High-Flyer управляет капиталом более $10 млрд
- занял 2-е место среди китайских квант-фондов с капиталом > $1.4 млрд
- фонд заработал +56% → эти деньги фактически остаются у владельца фонда (Ляна).
- если прикинуть выручку по стандартной схеме 1% management fee + 20% performance fee, получается $700+ млн
- и это выглядит особенно мощно на фоне того, что бюджет DeepSeek на “топопвые” модели оценивался менее чем в $6 млн

Интересный момент: в 2024 фонд отошёл от market-neutral и сделал ставку на long-only стратегии (покупка акций в расчёте на рост).

А когда сразу несколько топ-квант-фондов показывают 50-70%+ за один год - это чаще говорит о том, что рынок был очень удачным для их системных стратегий, а не о единичной “везухе”.

В среднем китайские квант-фонды показали 30.5% за 2025 - больше чем в 2 раза выше глобальных конкурентов.

DeepSeek может иметь редкое преимущество - внутренний финансовый двигатель, который способен стабильно оплачивать масштабирование AI, не зависеть от раундов и инвесторов.
👍2710🔥5🤔1
Forwarded from Machinelearning
⚡️ DeepSeek Engram: условная память LLM через поиск.

DeepSeek опять шатают устои архитектуры трансформеров свежайшим пейпером, который доказывает, что новое — это хорошо и очень хитро забытое старое.

Пока все пытаются запихнуть в LLM как можно больше слоев и параметров, DeepSeek задались вопросом: зачем тратить дорогой компьют на запоминание фактов, если их можно просто подсмотреть? Знакомьтесь:

🟡Engram — модуль, который возвращает нас к дедам с N-грамами.

DeepSeek предлагает разделить "думалку" (MoE-слои) и "хранилище знаний" (Engram):

🟢Hashed N-grams: модуль смотрит на входящий текст и нарезает его на N-грамы (последовательности токенов).

🟢O(1) Lookup: система делает мгновенный запрос в гигантскую хэш-таблицу эмбеддингов - это чисто статический поиск.

🟢Context-Aware Gating: самый сок. Модель не просто слепо берет данные из "хранилища знаний" - специальный гейтинг-механизм решает: "Нам сейчас нужен факт из памяти или будем думать сами?". Если найденный N-грам релевантен контексту, он подмешивается в скрытое состояние.

🟢Tokenizer Compression: чтобы хранилище знаний не лопнуло от мусора, похожие токены в нем схлопывают в один ID, например, "Apple" и "apple".

🟡Баланс распределения ресурсов.

Чтобы правильно поделить бюджет параметров между MoE и Engram посчитали сценарии масштабирования. График лосса от соотношения этих частей выглядит как буква U:

🟠Перекос в MoE (100% вычислений): модель тратит дорогие слои внимания на запоминание статики. Это неэффективно, лосс высокий.

🟠Перекос в Память (0% вычислений): модель превращается в гигантскую википедию. Она помнит факты, но у нее напрочь атрофируется ризонинг. Лосс тоже высокий.

🟢Золотая середина (дно U-кривой): 80% MoE и ~20% Engram.

🟡Тесты и результаты.

DeepSeek обучили модель Engram-27B и сравнили ее с классической MoE-27B при одинаковом бюджете параметров и FLOPs. Итоги:

Общее качество подросло: MMLU +3.4 пункта, HumanEval (код) +3.0.

На длинном контексте - разнос. В тесте на поиск иголки (NIAH) точность выросла с 84.2 до 97.0. Модель разгрузила слои внимания от запоминания локальных паттернов, и оно сфокусировалось на глобальном контексте.

Модель быстрее сходится. Engram берет на себя рутину в ранних слоях, тем самым позволяя модели сразу учиться сложным вещам.


🟡Архитектурный нюанс.

Таблица эмбеддингов для Engram может быть запредельно огромной (в пейпере разгоняли до 100B параметров) и, очевидно, в VRAM это не влезает.

Решили так: раз ID токенов известен до прогона слоя, то эти данные можно хранить в RAM и асинхронно подтягивать. В реале, оверхед от этой механики показал меньше 3%., т.е. мы получаем модель, которая знает больше, чем влезает в GPU, используя оперативку сервера.

🟡DeepSeek фактически легализовала подобие шпаргалок для LLM.

Вместо того чтобы заставлять модель учить все наизусть, ей дают гигантский справочник. Теоретически, это открывает путь к прекрасному ИИ светлого будущего, который может иметь условно-бесконечную память, ограниченную только объемом оперативки, а не VRAM.

Похоже, в V4 мы увидим как эта схема работает, ведь инсайдеры обещают у нее запредельные скилы.


🟡Техотчет
🖥Github
🟡Видео


@ai_machinelearning_big_data

#AI #ML #LLM #Engram #Deepseek
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
15👍10🔥4
🚀 Meituan представила LongCat-Image - открытую билингвальную (китайский и английский) модель для генерации изображений.

Несмотря на размер всего в 6B параметров, модель показывает эффективность и качество, сопоставимые с куда более крупными системами.

Ключевые преимущества:
лучшая в классе генерация китайского текста - точная, стабильная, с широким покрытием лексики
высокая фотореалистичность благодаря новой стратегии данных и обучения
создана для разработчиков и реальных сценариев применения — доступна, открыта и мультилингвальна изначально

LongCat-Image ориентирована на практическую ценность и качество в продакшене.

🤖 Model: https://modelscope.cn/models/meituan-longcat/
🔥7👍21