начальник в прошлом году / начальник сейчас
❤🔥22😁16❤5👏5🥴1
Узнайте, какие локальные модели потянет ваш ПК
Полезный сервис для тех, кто запускает LLM локально и не хочет гадать, какая модель влезет в железо без боли.
Как работает:
- указываете GPU, VRAM и RAM
- получаете список моделей, которые нормально запустятся на вашем ПК
- видите квантование, примерную скорость и контекстное окно
- поддерживается железо NVIDIA, AMD, Intel и Apple
Особенно удобно, если собираете ИИ-агентов, тестируете локальные модели или выбираете железо под inference.
Больше не нужно вручную считать память и перебирать модели наугад.
https://whatmodelscanirun.com/
Полезный сервис для тех, кто запускает LLM локально и не хочет гадать, какая модель влезет в железо без боли.
Как работает:
- указываете GPU, VRAM и RAM
- получаете список моделей, которые нормально запустятся на вашем ПК
- видите квантование, примерную скорость и контекстное окно
- поддерживается железо NVIDIA, AMD, Intel и Apple
Особенно удобно, если собираете ИИ-агентов, тестируете локальные модели или выбираете железо под inference.
Больше не нужно вручную считать память и перебирать модели наугад.
https://whatmodelscanirun.com/
❤19🔥9👍5😁2🥴2
This media is not supported in your browser
VIEW IN TELEGRAM
Когда твой менеджер - ИИ. 😂
🤣37❤6👍2😱2💯1
Трамп садясь в самолет отдал приказ: всё китайское - в мусорку, ничего не заносить на Air Force One
Перед самой посадкой на борт американские сотрудники собрали всё, что китайская сторона раздала делегации: пресс-бейджи, burner phones и значки делегации. После этого всё выбросили в мусорку.
Журналист Daily Mail, сопровождавший Белый дом, видел это лично: «Ничего китайского на борт не занесли».
Китай сильнейшая держава в мире по кибершпионажу, и даже в обычный значок теоретически может быть встроено устройство для прослушки.
Рукопожатия есть. Доверия - ноль. Вот реальность отношений США и Китая.
https://x.com/Machinelearrn/status/2055264980925305005
Перед самой посадкой на борт американские сотрудники собрали всё, что китайская сторона раздала делегации: пресс-бейджи, burner phones и значки делегации. После этого всё выбросили в мусорку.
Журналист Daily Mail, сопровождавший Белый дом, видел это лично: «Ничего китайского на борт не занесли».
Китай сильнейшая держава в мире по кибершпионажу, и даже в обычный значок теоретически может быть встроено устройство для прослушки.
Рукопожатия есть. Доверия - ноль. Вот реальность отношений США и Китая.
https://x.com/Machinelearrn/status/2055264980925305005
🔥35😁24❤8👍7🤣4🥴1🌭1💯1
Forwarded from Rust
Полгода я использовал Claude, GPT и Cursor как основной инструмент для написания Rust-кода в проде. Не как «помощник для бойлерплейта», а как полноценного второго разработчика на монолите примерно в 80 тысяч строк (бэкенд обработки потоковых данных, tokio, sqlx, немного unsafe в hot path).
Доля сгенерированного кода в коммитах последних шести месяцев около 40%, остальное это правки, рефакторинг и места, куда модель я не пускаю.
За это время накопилась коллекция ошибок, которые модели делают с пугающей регулярностью, и которые проходят cargo build, проходят cargo test, иногда даже проходят cargo clippy, и при этом являются либо UB, либо логически некорректным кодом, либо тем самым «работает на моей машине».
Я не буду писать, какая модель лучше. К моменту публикации статьи рейтинг устареет. Я расскажу про категории ошибок, которые воспроизводятся у всех топовых моделей весной 2026 года, и которые упираются не в качество обучающих данных, а в фундаментальные слепые пятна архитектуры трансформеров применительно к системе типов Rust.
Цифры, которые буду приводить дальше, получены так: я завёл бенчмарк из 50 типовых задач (написать функцию, отрефакторить, добавить фичу), прогонял каждую через четыре модели в течение полугода, и руками классифицировал ошибки. Это не academic-level статистика, но порядки величин показывает.
@rust_code
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤6🔥3😁1🥴1🌭1
Дженсен Хуанг выступал перед выпускниками Carnegie Mellon и сказал довольно жёсткую вещь: в ближайшие годы огромный шанс будет не только у программистов, а у электриков, сантехников, сварщиков, техников и строителей.
И звучит это уже не как
ИИ нужны дата-центры, электричество, охлаждение, кабели, трубы, бетон, стойки, обслуживание и люди, которые всё это физически построят.
Пока одни спорят, кого заменят нейросети, спрос на рабочие специальности летит вверх:
• робототехники - плюс 107%
• HVAC-инженеры - плюс 67%
• специалисты по промышленной автоматизации - плюс 51%
• традиционные рабочие профессии - плюс 27% за последние годы
Парадокс эпохи ИИ в том, что победителем может оказаться не prompt engineer, а человек, который умеет подключить 100-мегаваттный дата-центр где-нибудь в пустыне Невады.
Код можно сгенерировать.
А вот кабель сам себя не протянет.
https://consent.yahoo.com/v2/collectConsent?sessionId=3_cc-session_096f2d7d-f863-4ee4-8fc8-af10b78de394
Please open Telegram to view this post
VIEW IN TELEGRAM
❤19👍10🤣6🔥5💯3
Куда катится архитектура LLM в 2026
Себастьян Рашка разобрал свежие open-weight модели - Gemma 4, Laguna XS.2, ZAYA1-8B и DeepSeek V4. Общий тренд один: теперь главная борьба идёт не только за качество, а за цену длинного контекста.
У reasoning-моделей и агентов узким местом стали KV-кэш, трафик памяти и FLOPs attention. Поэтому архитектуры всё активнее режут стоимость инференса.
Gemma 4 шарит KV между слоями. Laguna XS.2 распределяет attention-бюджет по слоям. ZAYA1-8B считает внимание в сжатом латентном пространстве. DeepSeek V4 сжимает KV вдоль последовательности и усложняет residual stream.
decoder-only трансформер жив, но всё вокруг attention быстро мутирует. Качество всё ещё тянут данные и training recipe, а архитектура всё чаще нужна, чтобы длинный контекст не сжигал железо.
https://magazine.sebastianraschka.com/p/recent-developments-in-llm-architectures
Себастьян Рашка разобрал свежие open-weight модели - Gemma 4, Laguna XS.2, ZAYA1-8B и DeepSeek V4. Общий тренд один: теперь главная борьба идёт не только за качество, а за цену длинного контекста.
У reasoning-моделей и агентов узким местом стали KV-кэш, трафик памяти и FLOPs attention. Поэтому архитектуры всё активнее режут стоимость инференса.
Gemma 4 шарит KV между слоями. Laguna XS.2 распределяет attention-бюджет по слоям. ZAYA1-8B считает внимание в сжатом латентном пространстве. DeepSeek V4 сжимает KV вдоль последовательности и усложняет residual stream.
decoder-only трансформер жив, но всё вокруг attention быстро мутирует. Качество всё ещё тянут данные и training recipe, а архитектура всё чаще нужна, чтобы длинный контекст не сжигал железо.
https://magazine.sebastianraschka.com/p/recent-developments-in-llm-architectures
❤10👍5🔥3
Китай выигрывает в гонке ИИ не только опенсорс моделями.
Он выигрывает скоростью внедрения
FT пишет, что китайская аудитория заметно спокойнее и позитивнее относится к AI-продуктам, чем пользователи во многих других странах.
Когда люди не встречают каждый новый AI-сервис вопросом «а не заменит ли он меня завтра?», продуктам проще входить в повседневную жизнь. Банки, e-commerce, образование, доставка, госуслуги, корпоративные сервисы - всё это можно быстрее обкатывать на миллионах пользователей.
Параллельно меняется и центр тяжести в open source. Доля загрузок всё сильнее уходит от США и Европы в сторону Китая.
В итоге у Китая складывается редкая комбинация:
• пользователи готовы пробовать AI-продукты
• разработчики всё активнее идут в open source
• компании быстро встраивают модели в реальные сервисы
• рынок даёт огромный масштаб для тестов
• государство и бизнес двигают инфраструктуру в одну сторону
Что будет, если страна с миллиардным рынком, дешёвым внедрением и растущим open-source-комьюнити начнёт выкатывать AI-продукты быстрее всех остальных?
ft.com/content/d9af562c-1d37-41b7-9aa7-a838dce3f571
Он выигрывает скоростью внедрения
FT пишет, что китайская аудитория заметно спокойнее и позитивнее относится к AI-продуктам, чем пользователи во многих других странах.
Когда люди не встречают каждый новый AI-сервис вопросом «а не заменит ли он меня завтра?», продуктам проще входить в повседневную жизнь. Банки, e-commerce, образование, доставка, госуслуги, корпоративные сервисы - всё это можно быстрее обкатывать на миллионах пользователей.
Параллельно меняется и центр тяжести в open source. Доля загрузок всё сильнее уходит от США и Европы в сторону Китая.
В итоге у Китая складывается редкая комбинация:
• пользователи готовы пробовать AI-продукты
• разработчики всё активнее идут в open source
• компании быстро встраивают модели в реальные сервисы
• рынок даёт огромный масштаб для тестов
• государство и бизнес двигают инфраструктуру в одну сторону
Что будет, если страна с миллиардным рынком, дешёвым внедрением и растущим open-source-комьюнити начнёт выкатывать AI-продукты быстрее всех остальных?
ft.com/content/d9af562c-1d37-41b7-9aa7-a838dce3f571
❤15👍5🔥2💯1