⚡️ Вышел PyTorch 2.12,
Что завезли:
- batched
- появился новый
-
- Adagrad теперь умеет
- улучшили distributed training, export и поддержку ROCm
- релиз собран из 2926 коммитов от 457 контрибьюторов
PyTorch всё сильнее уходит от «удобного фреймворка для ресёрча» к универсальной платформе для обучения, инференса и деплоя на разном железе.
Особенно интересен
А ускорение
pytorch.org/blog/pytorch-2-12-release-blog
#PyTorch #OpenSourceAI #MachineLearning #AIInfrastructure
Что завезли:
- batched
linalg.eigh на CUDA теперь может работать до 100x быстрее- появился новый
torch.accelerator.Graph для graph capture и replay на разных ускорителях-
torch.export.save получил поддержку Microscaling quantization- Adagrad теперь умеет
fused=True- улучшили distributed training, export и поддержку ROCm
- релиз собран из 2926 коммитов от 457 контрибьюторов
PyTorch всё сильнее уходит от «удобного фреймворка для ресёрча» к универсальной платформе для обучения, инференса и деплоя на разном железе.
Особенно интересен
torch.accelerator.Graph. Это шаг к более нормальной абстракции над CUDA, XPU и внешними backend-ами, чтобы код меньше зависел от конкретного ускорителя.А ускорение
linalg.eigh до 100x - хороший пример того, как одна внутренняя замена backend-логики может превратить минуты ожидания в секунды.pytorch.org/blog/pytorch-2-12-release-blog
#PyTorch #OpenSourceAI #MachineLearning #AIInfrastructure
👍14❤11🔥6🥱3
США дали добро примерно десяти китайским компаниям на покупку Nvidia H200. В списке Alibaba, Tencent, ByteDance, JD и другие.
Формально Вашингтон сделал шаг навстречу. По факту H200 остаются разменной монетой в переговорах с Пекином. Можно показывать прогресс, но не отдавать главное, пока Китай не уступит в других вопросах - от редкозёмов до торговли и Тайваня.
Хуанг в этой истории тоже не просто пассажир делегации. Глава Nvidia стал частью торга, потому что сейчас GPU - это уже не товар, а политический рычаг.
Но тормозить может и сам Китай. Пекин месяцами давит на свои компании, чтобы те переходили на Huawei Ascend и локальные кластеры. Массовая закупка H200 выглядела бы как откат назад: опять зависимость от американского железа, от которой Китай пытается уйти.
В итоге подвешенное состояние устраивает почти всех.
США могут сказать, что разрешили поставки. Китай может сказать, что не спешит покупать. Nvidia ждёт. Рынок гадает.
Пока поставок ноль, это не торговля. Это переговоры, замаскированные под сделку.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥5❤3🥱3
начальник в прошлом году / начальник сейчас
❤🔥22😁16❤5👏5🥴1
Узнайте, какие локальные модели потянет ваш ПК
Полезный сервис для тех, кто запускает LLM локально и не хочет гадать, какая модель влезет в железо без боли.
Как работает:
- указываете GPU, VRAM и RAM
- получаете список моделей, которые нормально запустятся на вашем ПК
- видите квантование, примерную скорость и контекстное окно
- поддерживается железо NVIDIA, AMD, Intel и Apple
Особенно удобно, если собираете ИИ-агентов, тестируете локальные модели или выбираете железо под inference.
Больше не нужно вручную считать память и перебирать модели наугад.
https://whatmodelscanirun.com/
Полезный сервис для тех, кто запускает LLM локально и не хочет гадать, какая модель влезет в железо без боли.
Как работает:
- указываете GPU, VRAM и RAM
- получаете список моделей, которые нормально запустятся на вашем ПК
- видите квантование, примерную скорость и контекстное окно
- поддерживается железо NVIDIA, AMD, Intel и Apple
Особенно удобно, если собираете ИИ-агентов, тестируете локальные модели или выбираете железо под inference.
Больше не нужно вручную считать память и перебирать модели наугад.
https://whatmodelscanirun.com/
❤19🔥9👍5😁2🥴2
This media is not supported in your browser
VIEW IN TELEGRAM
Когда твой менеджер - ИИ. 😂
🤣37❤6👍2😱2💯1
Трамп садясь в самолет отдал приказ: всё китайское - в мусорку, ничего не заносить на Air Force One
Перед самой посадкой на борт американские сотрудники собрали всё, что китайская сторона раздала делегации: пресс-бейджи, burner phones и значки делегации. После этого всё выбросили в мусорку.
Журналист Daily Mail, сопровождавший Белый дом, видел это лично: «Ничего китайского на борт не занесли».
Китай сильнейшая держава в мире по кибершпионажу, и даже в обычный значок теоретически может быть встроено устройство для прослушки.
Рукопожатия есть. Доверия - ноль. Вот реальность отношений США и Китая.
https://x.com/Machinelearrn/status/2055264980925305005
Перед самой посадкой на борт американские сотрудники собрали всё, что китайская сторона раздала делегации: пресс-бейджи, burner phones и значки делегации. После этого всё выбросили в мусорку.
Журналист Daily Mail, сопровождавший Белый дом, видел это лично: «Ничего китайского на борт не занесли».
Китай сильнейшая держава в мире по кибершпионажу, и даже в обычный значок теоретически может быть встроено устройство для прослушки.
Рукопожатия есть. Доверия - ноль. Вот реальность отношений США и Китая.
https://x.com/Machinelearrn/status/2055264980925305005
🔥35😁24❤8👍7🤣4🥴1🌭1💯1
Forwarded from Rust
Полгода я использовал Claude, GPT и Cursor как основной инструмент для написания Rust-кода в проде. Не как «помощник для бойлерплейта», а как полноценного второго разработчика на монолите примерно в 80 тысяч строк (бэкенд обработки потоковых данных, tokio, sqlx, немного unsafe в hot path).
Доля сгенерированного кода в коммитах последних шести месяцев около 40%, остальное это правки, рефакторинг и места, куда модель я не пускаю.
За это время накопилась коллекция ошибок, которые модели делают с пугающей регулярностью, и которые проходят cargo build, проходят cargo test, иногда даже проходят cargo clippy, и при этом являются либо UB, либо логически некорректным кодом, либо тем самым «работает на моей машине».
Я не буду писать, какая модель лучше. К моменту публикации статьи рейтинг устареет. Я расскажу про категории ошибок, которые воспроизводятся у всех топовых моделей весной 2026 года, и которые упираются не в качество обучающих данных, а в фундаментальные слепые пятна архитектуры трансформеров применительно к системе типов Rust.
Цифры, которые буду приводить дальше, получены так: я завёл бенчмарк из 50 типовых задач (написать функцию, отрефакторить, добавить фичу), прогонял каждую через четыре модели в течение полугода, и руками классифицировал ошибки. Это не academic-level статистика, но порядки величин показывает.
@rust_code
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤6🔥3😁1🥴1🌭1
Дженсен Хуанг выступал перед выпускниками Carnegie Mellon и сказал довольно жёсткую вещь: в ближайшие годы огромный шанс будет не только у программистов, а у электриков, сантехников, сварщиков, техников и строителей.
И звучит это уже не как
ИИ нужны дата-центры, электричество, охлаждение, кабели, трубы, бетон, стойки, обслуживание и люди, которые всё это физически построят.
Пока одни спорят, кого заменят нейросети, спрос на рабочие специальности летит вверх:
• робототехники - плюс 107%
• HVAC-инженеры - плюс 67%
• специалисты по промышленной автоматизации - плюс 51%
• традиционные рабочие профессии - плюс 27% за последние годы
Парадокс эпохи ИИ в том, что победителем может оказаться не prompt engineer, а человек, который умеет подключить 100-мегаваттный дата-центр где-нибудь в пустыне Невады.
Код можно сгенерировать.
А вот кабель сам себя не протянет.
https://consent.yahoo.com/v2/collectConsent?sessionId=3_cc-session_096f2d7d-f863-4ee4-8fc8-af10b78de394
Please open Telegram to view this post
VIEW IN TELEGRAM
❤19👍10🤣6🔥5💯3
Куда катится архитектура LLM в 2026
Себастьян Рашка разобрал свежие open-weight модели - Gemma 4, Laguna XS.2, ZAYA1-8B и DeepSeek V4. Общий тренд один: теперь главная борьба идёт не только за качество, а за цену длинного контекста.
У reasoning-моделей и агентов узким местом стали KV-кэш, трафик памяти и FLOPs attention. Поэтому архитектуры всё активнее режут стоимость инференса.
Gemma 4 шарит KV между слоями. Laguna XS.2 распределяет attention-бюджет по слоям. ZAYA1-8B считает внимание в сжатом латентном пространстве. DeepSeek V4 сжимает KV вдоль последовательности и усложняет residual stream.
decoder-only трансформер жив, но всё вокруг attention быстро мутирует. Качество всё ещё тянут данные и training recipe, а архитектура всё чаще нужна, чтобы длинный контекст не сжигал железо.
https://magazine.sebastianraschka.com/p/recent-developments-in-llm-architectures
Себастьян Рашка разобрал свежие open-weight модели - Gemma 4, Laguna XS.2, ZAYA1-8B и DeepSeek V4. Общий тренд один: теперь главная борьба идёт не только за качество, а за цену длинного контекста.
У reasoning-моделей и агентов узким местом стали KV-кэш, трафик памяти и FLOPs attention. Поэтому архитектуры всё активнее режут стоимость инференса.
Gemma 4 шарит KV между слоями. Laguna XS.2 распределяет attention-бюджет по слоям. ZAYA1-8B считает внимание в сжатом латентном пространстве. DeepSeek V4 сжимает KV вдоль последовательности и усложняет residual stream.
decoder-only трансформер жив, но всё вокруг attention быстро мутирует. Качество всё ещё тянут данные и training recipe, а архитектура всё чаще нужна, чтобы длинный контекст не сжигал железо.
https://magazine.sebastianraschka.com/p/recent-developments-in-llm-architectures
❤10👍5🔥3
Китай выигрывает в гонке ИИ не только опенсорс моделями.
Он выигрывает скоростью внедрения
FT пишет, что китайская аудитория заметно спокойнее и позитивнее относится к AI-продуктам, чем пользователи во многих других странах.
Когда люди не встречают каждый новый AI-сервис вопросом «а не заменит ли он меня завтра?», продуктам проще входить в повседневную жизнь. Банки, e-commerce, образование, доставка, госуслуги, корпоративные сервисы - всё это можно быстрее обкатывать на миллионах пользователей.
Параллельно меняется и центр тяжести в open source. Доля загрузок всё сильнее уходит от США и Европы в сторону Китая.
В итоге у Китая складывается редкая комбинация:
• пользователи готовы пробовать AI-продукты
• разработчики всё активнее идут в open source
• компании быстро встраивают модели в реальные сервисы
• рынок даёт огромный масштаб для тестов
• государство и бизнес двигают инфраструктуру в одну сторону
Что будет, если страна с миллиардным рынком, дешёвым внедрением и растущим open-source-комьюнити начнёт выкатывать AI-продукты быстрее всех остальных?
ft.com/content/d9af562c-1d37-41b7-9aa7-a838dce3f571
Он выигрывает скоростью внедрения
FT пишет, что китайская аудитория заметно спокойнее и позитивнее относится к AI-продуктам, чем пользователи во многих других странах.
Когда люди не встречают каждый новый AI-сервис вопросом «а не заменит ли он меня завтра?», продуктам проще входить в повседневную жизнь. Банки, e-commerce, образование, доставка, госуслуги, корпоративные сервисы - всё это можно быстрее обкатывать на миллионах пользователей.
Параллельно меняется и центр тяжести в open source. Доля загрузок всё сильнее уходит от США и Европы в сторону Китая.
В итоге у Китая складывается редкая комбинация:
• пользователи готовы пробовать AI-продукты
• разработчики всё активнее идут в open source
• компании быстро встраивают модели в реальные сервисы
• рынок даёт огромный масштаб для тестов
• государство и бизнес двигают инфраструктуру в одну сторону
Что будет, если страна с миллиардным рынком, дешёвым внедрением и растущим open-source-комьюнити начнёт выкатывать AI-продукты быстрее всех остальных?
ft.com/content/d9af562c-1d37-41b7-9aa7-a838dce3f571
❤13👍5🔥2💯1