США дали добро примерно десяти китайским компаниям на покупку Nvidia H200. В списке Alibaba, Tencent, ByteDance, JD и другие.
Формально Вашингтон сделал шаг навстречу. По факту H200 остаются разменной монетой в переговорах с Пекином. Можно показывать прогресс, но не отдавать главное, пока Китай не уступит в других вопросах - от редкозёмов до торговли и Тайваня.
Хуанг в этой истории тоже не просто пассажир делегации. Глава Nvidia стал частью торга, потому что сейчас GPU - это уже не товар, а политический рычаг.
Но тормозить может и сам Китай. Пекин месяцами давит на свои компании, чтобы те переходили на Huawei Ascend и локальные кластеры. Массовая закупка H200 выглядела бы как откат назад: опять зависимость от американского железа, от которой Китай пытается уйти.
В итоге подвешенное состояние устраивает почти всех.
США могут сказать, что разрешили поставки. Китай может сказать, что не спешит покупать. Nvidia ждёт. Рынок гадает.
Пока поставок ноль, это не торговля. Это переговоры, замаскированные под сделку.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥5❤3🥱3
начальник в прошлом году / начальник сейчас
❤🔥21😁15❤5👏5🥴1
Узнайте, какие локальные модели потянет ваш ПК
Полезный сервис для тех, кто запускает LLM локально и не хочет гадать, какая модель влезет в железо без боли.
Как работает:
- указываете GPU, VRAM и RAM
- получаете список моделей, которые нормально запустятся на вашем ПК
- видите квантование, примерную скорость и контекстное окно
- поддерживается железо NVIDIA, AMD, Intel и Apple
Особенно удобно, если собираете ИИ-агентов, тестируете локальные модели или выбираете железо под inference.
Больше не нужно вручную считать память и перебирать модели наугад.
https://whatmodelscanirun.com/
Полезный сервис для тех, кто запускает LLM локально и не хочет гадать, какая модель влезет в железо без боли.
Как работает:
- указываете GPU, VRAM и RAM
- получаете список моделей, которые нормально запустятся на вашем ПК
- видите квантование, примерную скорость и контекстное окно
- поддерживается железо NVIDIA, AMD, Intel и Apple
Особенно удобно, если собираете ИИ-агентов, тестируете локальные модели или выбираете железо под inference.
Больше не нужно вручную считать память и перебирать модели наугад.
https://whatmodelscanirun.com/
❤17🔥9👍5😁2🥴2
This media is not supported in your browser
VIEW IN TELEGRAM
Когда твой менеджер - ИИ. 😂
🤣35❤6👍2😱2💯1
Трамп садясь в самолет отдал приказ: всё китайское - в мусорку, ничего не заносить на Air Force One
Перед самой посадкой на борт американские сотрудники собрали всё, что китайская сторона раздала делегации: пресс-бейджи, burner phones и значки делегации. После этого всё выбросили в мусорку.
Журналист Daily Mail, сопровождавший Белый дом, видел это лично: «Ничего китайского на борт не занесли».
Китай сильнейшая держава в мире по кибершпионажу, и даже в обычный значок теоретически может быть встроено устройство для прослушки.
Рукопожатия есть. Доверия - ноль. Вот реальность отношений США и Китая.
https://x.com/Machinelearrn/status/2055264980925305005
Перед самой посадкой на борт американские сотрудники собрали всё, что китайская сторона раздала делегации: пресс-бейджи, burner phones и значки делегации. После этого всё выбросили в мусорку.
Журналист Daily Mail, сопровождавший Белый дом, видел это лично: «Ничего китайского на борт не занесли».
Китай сильнейшая держава в мире по кибершпионажу, и даже в обычный значок теоретически может быть встроено устройство для прослушки.
Рукопожатия есть. Доверия - ноль. Вот реальность отношений США и Китая.
https://x.com/Machinelearrn/status/2055264980925305005
🔥32😁23❤8👍7🤣4🥴1🌭1💯1
Forwarded from Rust
Полгода я использовал Claude, GPT и Cursor как основной инструмент для написания Rust-кода в проде. Не как «помощник для бойлерплейта», а как полноценного второго разработчика на монолите примерно в 80 тысяч строк (бэкенд обработки потоковых данных, tokio, sqlx, немного unsafe в hot path).
Доля сгенерированного кода в коммитах последних шести месяцев около 40%, остальное это правки, рефакторинг и места, куда модель я не пускаю.
За это время накопилась коллекция ошибок, которые модели делают с пугающей регулярностью, и которые проходят cargo build, проходят cargo test, иногда даже проходят cargo clippy, и при этом являются либо UB, либо логически некорректным кодом, либо тем самым «работает на моей машине».
Я не буду писать, какая модель лучше. К моменту публикации статьи рейтинг устареет. Я расскажу про категории ошибок, которые воспроизводятся у всех топовых моделей весной 2026 года, и которые упираются не в качество обучающих данных, а в фундаментальные слепые пятна архитектуры трансформеров применительно к системе типов Rust.
Цифры, которые буду приводить дальше, получены так: я завёл бенчмарк из 50 типовых задач (написать функцию, отрефакторить, добавить фичу), прогонял каждую через четыре модели в течение полугода, и руками классифицировал ошибки. Это не academic-level статистика, но порядки величин показывает.
@rust_code
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤6🔥3😁1🥴1🌭1
Дженсен Хуанг выступал перед выпускниками Carnegie Mellon и сказал довольно жёсткую вещь: в ближайшие годы огромный шанс будет не только у программистов, а у электриков, сантехников, сварщиков, техников и строителей.
И звучит это уже не как
ИИ нужны дата-центры, электричество, охлаждение, кабели, трубы, бетон, стойки, обслуживание и люди, которые всё это физически построят.
Пока одни спорят, кого заменят нейросети, спрос на рабочие специальности летит вверх:
• робототехники - плюс 107%
• HVAC-инженеры - плюс 67%
• специалисты по промышленной автоматизации - плюс 51%
• традиционные рабочие профессии - плюс 27% за последние годы
Парадокс эпохи ИИ в том, что победителем может оказаться не prompt engineer, а человек, который умеет подключить 100-мегаваттный дата-центр где-нибудь в пустыне Невады.
Код можно сгенерировать.
А вот кабель сам себя не протянет.
https://consent.yahoo.com/v2/collectConsent?sessionId=3_cc-session_096f2d7d-f863-4ee4-8fc8-af10b78de394
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16👍9🤣6🔥5💯3
Куда катится архитектура LLM в 2026
Себастьян Рашка разобрал свежие open-weight модели - Gemma 4, Laguna XS.2, ZAYA1-8B и DeepSeek V4. Общий тренд один: теперь главная борьба идёт не только за качество, а за цену длинного контекста.
У reasoning-моделей и агентов узким местом стали KV-кэш, трафик памяти и FLOPs attention. Поэтому архитектуры всё активнее режут стоимость инференса.
Gemma 4 шарит KV между слоями. Laguna XS.2 распределяет attention-бюджет по слоям. ZAYA1-8B считает внимание в сжатом латентном пространстве. DeepSeek V4 сжимает KV вдоль последовательности и усложняет residual stream.
decoder-only трансформер жив, но всё вокруг attention быстро мутирует. Качество всё ещё тянут данные и training recipe, а архитектура всё чаще нужна, чтобы длинный контекст не сжигал железо.
https://magazine.sebastianraschka.com/p/recent-developments-in-llm-architectures
Себастьян Рашка разобрал свежие open-weight модели - Gemma 4, Laguna XS.2, ZAYA1-8B и DeepSeek V4. Общий тренд один: теперь главная борьба идёт не только за качество, а за цену длинного контекста.
У reasoning-моделей и агентов узким местом стали KV-кэш, трафик памяти и FLOPs attention. Поэтому архитектуры всё активнее режут стоимость инференса.
Gemma 4 шарит KV между слоями. Laguna XS.2 распределяет attention-бюджет по слоям. ZAYA1-8B считает внимание в сжатом латентном пространстве. DeepSeek V4 сжимает KV вдоль последовательности и усложняет residual stream.
decoder-only трансформер жив, но всё вокруг attention быстро мутирует. Качество всё ещё тянут данные и training recipe, а архитектура всё чаще нужна, чтобы длинный контекст не сжигал железо.
https://magazine.sebastianraschka.com/p/recent-developments-in-llm-architectures
❤8👍5🔥3