OpenAI представила GPT-5.2-Codex — новую модель для программирования и кибербезопасности
Модель является развитием линейки GPT-5.2 с дополнительной оптимизацией для работы в среде Codex.
Ключевые улучшения включают сжатие контекста для длительных сессий, более надёжную обработку крупных задач по рефакторингу и миграции кода, улучшенную поддержку Windows, а также значительно усиленные возможности в кибербезопасности.
При этом OpenAI признаёт риски двойного назначения: те же возможности могут использовать и злоумышленники.
Модель демонстрирует лучшие результаты на бенчмарках SWE-Bench Pro (56,4%) и Terminal-Bench 2.0 (64%), опережая предыдущие версии.
Улучшенное визуальное восприятие позволяет точнее работать со скриншотами, схемами и макетами интерфейсов.
GPT-5.2-Codex уже доступен платным пользователям ChatGPT через Codex, доступ через API планируется в ближайшие недели.
#OpenAI #Codex #cybersecurity
———
@tsingular
Модель является развитием линейки GPT-5.2 с дополнительной оптимизацией для работы в среде Codex.
Ключевые улучшения включают сжатие контекста для длительных сессий, более надёжную обработку крупных задач по рефакторингу и миграции кода, улучшенную поддержку Windows, а также значительно усиленные возможности в кибербезопасности.
При этом OpenAI признаёт риски двойного назначения: те же возможности могут использовать и злоумышленники.
Модель демонстрирует лучшие результаты на бенчмарках SWE-Bench Pro (56,4%) и Terminal-Bench 2.0 (64%), опережая предыдущие версии.
Улучшенное визуальное восприятие позволяет точнее работать со скриншотами, схемами и макетами интерфейсов.
GPT-5.2-Codex уже доступен платным пользователям ChatGPT через Codex, доступ через API планируется в ближайшие недели.
#OpenAI #Codex #cybersecurity
———
@tsingular
👍4❤3✍2
Google подаёт в суд на SerpApi за массовый скрейпинг
Google затеял судебный процесс против SerpApi — сервиса, который парсил результаты поиска и продавал доступ через API.
Обвинения: нарушение условий использования, обход технической защиты и миллионы запросов с поддельных аккаунтов.
SerpApi превращал публичные результаты поиска в коммерческий продукт,- разработчики платили за структурированные данные вместо того, чтобы скрейпить самим.
Ирония в том, что Google сам вырос на парсинге всего интернета.
Будем надеяться tavily делает все легально и их похожая история не коснется.
#Google #SerpApi #Scraping
———
@tsingular
Google затеял судебный процесс против SerpApi — сервиса, который парсил результаты поиска и продавал доступ через API.
Обвинения: нарушение условий использования, обход технической защиты и миллионы запросов с поддельных аккаунтов.
SerpApi превращал публичные результаты поиска в коммерческий продукт,- разработчики платили за структурированные данные вместо того, чтобы скрейпить самим.
Ирония в том, что Google сам вырос на парсинге всего интернета.
Будем надеяться tavily делает все легально и их похожая история не коснется.
#Google #SerpApi #Scraping
———
@tsingular
👍6🤔4 2❤1
Forwarded from Machinelearning
2025 год был захватывающим годом для языковых моделей.
Они проявились как новый вид интеллекта, одновременно гораздо более умный и гораздо более глупый, чем я ожидал. Я думаю, что индустрия не реализовала хотя бы 10% их потенциала даже при нынешних возможностях.
Я одновременно верю и в то, что мы увидим быстрый и непрерывный прогресс, и в то, что впереди еще очень много работы.
Пристегнитесь.
В 2025-м стек обучения LLM дополнился новой ключевой стадией оптимизации по объективным наградам. Он заставляет модели самостоятельно находить стратегии рассуждения.
Прогресс года в том, что создание моделей стало не про увеличение размера модели, а про более длительные RLVR-прогоны.
Это также дало новый рычаг управления: "время размышления" на инференсе. Первопроходец - OpenAI o1, а переломный момент - o3.
Интеллект LLM формируется под давлением специфических оптимизаций и на выходе мы имеем резкие всплески способностей в рядом с грубыми ошибками.
Из-за этого бенчмарки теряют смысл: под них напрямую оптимизируются, что не ведёт к созданию AGI.
Это не просто интерфейс к условной модели, а сложная оркестрация работы LLM под конкретные вертикали, c управляемым контекстом, вызовами и интерфейсом.
Cursor создаёт отдельную ценностную прослойку между LLM-лабораториями и конечными пользователями.
В отличие от облачных агентов, он использует ваши данные, контекст и инструменты для ризонинга и вызова инструментов.
Его фишка - в низкой задержке, приватности и глубокой интеграции в рабочее окружение. Это сдвиг от ИИ как «сайта» к напарнику-помощнику в вашей системе.
Я думаю, OpenAI допустили ошибку, сосредоточив свои усилия по созданию агентов в облаке и управляемых из ChatGPT, вместо localhost.
В 2025 году ИИ преодолел порог, позволяющий через текстовые инструкции создавать работающие программы.
Это демократизирует программирование, позволяя непрофессионалам писать код, а экспертам - быстро прототипировать без глубокого погружения.
Код становится эфемерным, гибким и бесплатным ресурсом.
Забавно, что я придумал термин «вайб-кодинг» в этом твите с мыслями из душа, совершенно не представляя, как далеко это зайдет :)
Взаимодействие с ИИ через чат - это аналог командной строки 80-х, неудобный для человека.
Будущее за LLM GUI интерфейсом, где ИИ общается визуально (инфографика, анимации, веб-приложения).
Nano banana - ранний пример такого взаимодействия, в ней объединены генерация текста, изображений и общие знания.
Google Gemini Nano banana — одна из самых невероятных, меняющих парадигму моделей 2025 года.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3⚡1
«300 практик применения ИИ»: результаты, кейсы, мнения
А вот и полная презентация вышла.
«Компьютерра» провела исследование внедрений ИИ в российских компаниях и госструктурах.
Главный вывод: ИИ перестал быть игрушкой и стал частью операционного контура.
Цифры:
- 300 кейсов: 73% бизнес, 27% госсектор
- 22 отрасли — от ИТ до ЖКХ и экологии
- Лидеры: ИТ/телеком (15.3%), медицина (13%), финансы (11%), промышленность (10.7%)
- Средний проект: 5.5 месяцев, 12 млн ₽
Что внедряют:
- СППР (системы поддержки принятия решений),- лидируют везде
- Компьютерное зрение,- промышленность, безопасность
- NLP,- документооборот, поддержка
- GenAI,- финсектор экспериментирует активнее всех (22% кейсов)
Зачем:
- Снижение затрат (20.7%)
- Борьба с человеческим фактором (18.4%)
- Обработка неструктурированных данных (13.8%)
Результаты:
- 63.4% — ожидания оправдались
- 17.1% — результат превзошёл прогнозы
- Каждый третий проект дал прямой финансовый эффект
Барьеры:
- Качество данных и неясность метрик (по 15.4%) — главные стоп-факторы
Мешают не технологии, а организация
Ключевой тренд 2025: переход от «умного поиска» к автономным ИИ-агентам.
#компьютерра #аналитика
———
@tsingular
А вот и полная презентация вышла.
«Компьютерра» провела исследование внедрений ИИ в российских компаниях и госструктурах.
Главный вывод: ИИ перестал быть игрушкой и стал частью операционного контура.
Цифры:
- 300 кейсов: 73% бизнес, 27% госсектор
- 22 отрасли — от ИТ до ЖКХ и экологии
- Лидеры: ИТ/телеком (15.3%), медицина (13%), финансы (11%), промышленность (10.7%)
- Средний проект: 5.5 месяцев, 12 млн ₽
Что внедряют:
- СППР (системы поддержки принятия решений),- лидируют везде
- Компьютерное зрение,- промышленность, безопасность
- NLP,- документооборот, поддержка
- GenAI,- финсектор экспериментирует активнее всех (22% кейсов)
Зачем:
- Снижение затрат (20.7%)
- Борьба с человеческим фактором (18.4%)
- Обработка неструктурированных данных (13.8%)
Результаты:
- 63.4% — ожидания оправдались
- 17.1% — результат превзошёл прогнозы
- Каждый третий проект дал прямой финансовый эффект
Барьеры:
- Качество данных и неясность метрик (по 15.4%) — главные стоп-факторы
Мешают не технологии, а организация
Ключевой тренд 2025: переход от «умного поиска» к автономным ИИ-агентам.
#компьютерра #аналитика
———
@tsingular
✍6⚡2❤🔥2 1
This media is not supported in your browser
VIEW IN TELEGRAM
✍12👻8😁5👨💻4❤2 1
Media is too big
VIEW IN TELEGRAM
🎮 NitroGen: модель для игровых AI-агентов
Команда из NVIDIA, Stanford и Caltech обучила универсального игрового агента на 40,000 часов геймплея с 1,000+ игр.
Модель способна играть в новые игры без дообучения.
Оцифровали действия из публичных YouTube-видео через оверлеи геймпадов (те картинки контроллера, которые стримеры показывают в углу экрана).
500M параметров (архитектура GR00T + flow-matching)
Action-RPG — 34.9%, Platformers — 18.4% датасета
846 игр с 1+ часом данных, 15 игр с 1000+ часов
Почему важно:
Это первый серьёзный подход к масштабированию embodied AI.
Игровые RL-агенты (StarCraft, Dota) — узкоспециализированные и дорогие. LLM-подходы требуют ручных API.
NitroGen учится напрямую из пикселей → действия.
Датасет, бенчмарк и веса — в открытом доступе.
Paper
HuggingFace
GitHub
#NVIDIA #Games #NtroGen
———
@tsingular
Команда из NVIDIA, Stanford и Caltech обучила универсального игрового агента на 40,000 часов геймплея с 1,000+ игр.
Модель способна играть в новые игры без дообучения.
Оцифровали действия из публичных YouTube-видео через оверлеи геймпадов (те картинки контроллера, которые стримеры показывают в углу экрана).
500M параметров (архитектура GR00T + flow-matching)
Action-RPG — 34.9%, Platformers — 18.4% датасета
846 игр с 1+ часом данных, 15 игр с 1000+ часов
Почему важно:
Это первый серьёзный подход к масштабированию embodied AI.
Игровые RL-агенты (StarCraft, Dota) — узкоспециализированные и дорогие. LLM-подходы требуют ручных API.
NitroGen учится напрямую из пикселей → действия.
Датасет, бенчмарк и веса — в открытом доступе.
Paper
HuggingFace
GitHub
#NVIDIA #Games #NtroGen
———
@tsingular
🔥4✍1⚡1
Немного танцующих роботов вам в ленту :)
DeepRobotics DR02 в промо
Unitree на концерте в подтанцовке
PNDbotics Adam в лаборатории
#роботы #танцы
------
@tsingular
DeepRobotics DR02 в промо
Unitree на концерте в подтанцовке
PNDbotics Adam в лаборатории
#роботы #танцы
------
@tsingular
🔥7🆒2👾2❤1
Forwarded from Denis Sexy IT 🤖
Тут легенда ML-индустрии, ученый Эндрю Нг, сходил в Стэнфорд и поделился своим мнением про АИ и карьеру инженеров – видео длинное и я советую смотреть его, но вот топ-10 советов оттуда:
1. Держите рабочие AI-инструменты “свежими”: отставание быстро превращается в потерю продуктивности.
Сейчас выбор среды/ассистента для кода реально влияет на скорость и качество. Если вы используете инструменты на поколение старее, вы часто просто делаете ту же работу дольше и тяжелее
2. Код стал дешевле - дороже стало “решить, что строить” и “описать это четко”.
Когда написать код проще, узкое место смещается в постановку задачи: сформулировать цель, ограничения, критерии успеха, сценарии использования. То есть не “как закодить”, а “что именно нужно получить и как проверить, что получилось”
3. Умение разговаривать с пользователями - это ускоритель разработки, а не “софт-скилл ради галочки”.
Те, кто умеют сами собрать обратную связь, понять боль пользователя и быстро уточнить требования, двигаются быстрее, потому что меньше зависят от “переводчиков” между инженерами и рынком
4. Выбирайте работу по команде и людям, а не по “громкости бренда”. И требуйте ясности по команде заранее.
Если компания не готова сказать, в какую команду вы попадёте и что будете делать (или просит “сначала подпиши, потом разберёмся”), это риск: можно оказаться на задачах, которые не развивают вас в AI-направлении
5. Сделайте портфолио так, чтобы оно “рулило” интервью: пусть вас спрашивают про ваш проект, а не про случайные загадки.
Сильная тактика: собрать проект(ы), максимально похожие на будущую работу, и описать решения, компромиссы, метрики. Тогда интервью превращается в обсуждение реальной инженерии, где вы сильнее
6. Интервью - это проверка “командности под стрессом”, а не только IQ и алгоритмов.
Совет из истории: “стой на своём” можно, но без агрессии. Когда вам указывают на баг/угол, правильная реакция - совместно улучшать решение, а не защищаться как в споре
7. Код, сгенерированный AI, почти всегда приносит “долг по обслуживанию”: думайте как финансист.
Смысл простой: любой код потом надо сопровождать
Хороший “долг” - быстрый прототип, который приносит проверенную пользу/знания и окупает поддержку
Плохой “долг” - нагенерили “что-то крутое”, но никто не понимает, зачем, как работает и как чинить.
Важная мысль: выкинуть прототип - нормально, поддерживать непонятную кашу - дорого
8. Сейчас ценится не “сделал модель”, а “довёл до боевого использования”.
То есть: качество, надёжность, мониторинг, задержки, стоимость, безопасность, удобство для пользователя. На рынке сильный сигнал - умение доводить до работающего продукта, а не до демо
9. Станьте человеком, который переводит хайп в реальность: начните с вопроса “зачем?”.
Соцсети поощряют вовлечённость, а не точность. Поэтому трендовые слова (“агенты”, “всё заменим AI”) легко уводят в сторону. Практичный подход: сначала “зачем бизнесу?”, “какой показатель улучшаем?”, “что будет считаться успехом?” - и уже потом выбирать технологию
10. Готовьтесь к двум параллельным траекториям: большие облачные модели и небольшие локальные модели “у себя”.
В одних задачах будут доминировать мощные модели “как сервис”. В других (где важны приватность, IP, контроль, стоимость) - модели, которые разворачивают внутри компании. Полезные навыки на стыке: настройка под задачу (fine-tuning/адаптация), развёртывание, ограничения по данным, безопасность и эксплуатация.
Ну, база, что скажешь еще
1. Держите рабочие AI-инструменты “свежими”: отставание быстро превращается в потерю продуктивности.
Сейчас выбор среды/ассистента для кода реально влияет на скорость и качество. Если вы используете инструменты на поколение старее, вы часто просто делаете ту же работу дольше и тяжелее
2. Код стал дешевле - дороже стало “решить, что строить” и “описать это четко”.
Когда написать код проще, узкое место смещается в постановку задачи: сформулировать цель, ограничения, критерии успеха, сценарии использования. То есть не “как закодить”, а “что именно нужно получить и как проверить, что получилось”
3. Умение разговаривать с пользователями - это ускоритель разработки, а не “софт-скилл ради галочки”.
Те, кто умеют сами собрать обратную связь, понять боль пользователя и быстро уточнить требования, двигаются быстрее, потому что меньше зависят от “переводчиков” между инженерами и рынком
4. Выбирайте работу по команде и людям, а не по “громкости бренда”. И требуйте ясности по команде заранее.
Если компания не готова сказать, в какую команду вы попадёте и что будете делать (или просит “сначала подпиши, потом разберёмся”), это риск: можно оказаться на задачах, которые не развивают вас в AI-направлении
5. Сделайте портфолио так, чтобы оно “рулило” интервью: пусть вас спрашивают про ваш проект, а не про случайные загадки.
Сильная тактика: собрать проект(ы), максимально похожие на будущую работу, и описать решения, компромиссы, метрики. Тогда интервью превращается в обсуждение реальной инженерии, где вы сильнее
6. Интервью - это проверка “командности под стрессом”, а не только IQ и алгоритмов.
Совет из истории: “стой на своём” можно, но без агрессии. Когда вам указывают на баг/угол, правильная реакция - совместно улучшать решение, а не защищаться как в споре
7. Код, сгенерированный AI, почти всегда приносит “долг по обслуживанию”: думайте как финансист.
Смысл простой: любой код потом надо сопровождать
Хороший “долг” - быстрый прототип, который приносит проверенную пользу/знания и окупает поддержку
Плохой “долг” - нагенерили “что-то крутое”, но никто не понимает, зачем, как работает и как чинить.
Важная мысль: выкинуть прототип - нормально, поддерживать непонятную кашу - дорого
8. Сейчас ценится не “сделал модель”, а “довёл до боевого использования”.
То есть: качество, надёжность, мониторинг, задержки, стоимость, безопасность, удобство для пользователя. На рынке сильный сигнал - умение доводить до работающего продукта, а не до демо
9. Станьте человеком, который переводит хайп в реальность: начните с вопроса “зачем?”.
Соцсети поощряют вовлечённость, а не точность. Поэтому трендовые слова (“агенты”, “всё заменим AI”) легко уводят в сторону. Практичный подход: сначала “зачем бизнесу?”, “какой показатель улучшаем?”, “что будет считаться успехом?” - и уже потом выбирать технологию
10. Готовьтесь к двум параллельным траекториям: большие облачные модели и небольшие локальные модели “у себя”.
В одних задачах будут доминировать мощные модели “как сервис”. В других (где важны приватность, IP, контроль, стоимость) - модели, которые разворачивают внутри компании. Полезные навыки на стыке: настройка под задачу (fine-tuning/адаптация), развёртывание, ограничения по данным, безопасность и эксплуатация.
Ну, база, что скажешь еще
YouTube
Stanford CS230 | Autumn 2025 | Lecture 9: Career Advice in AI
For more information about Stanford’s Artificial Intelligence professional and graduate programs, visit: https://stanford.io/ai
November 18, 2025
This lecture covers career advice and a guest speaker.
To learn more about enrolling in this course, visit:…
November 18, 2025
This lecture covers career advice and a guest speaker.
To learn more about enrolling in this course, visit:…
❤11✍7🔥5⚡4👍2💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Интересный пример использования нейрорендера для анимации ремонта.
Чисто Нанобанана послойно, ничего лишнего.
#нейрорендер
------
@tsingular
Чисто Нанобанана послойно, ничего лишнего.
#нейрорендер
------
@tsingular
🔥49⚡8✍5
Gallup: 45% американцев используют ИИ на работе
Опрос 23 тысяч сотрудников в США показал рост использования искусственного интеллекта в работе с 40% до 45% за квартал.
Ежедневно применяют только 10%, остальные - пару раз в год.
Основные сценарии:
- 42% - собрать информацию
- 41% - сгенерить идеи
- 36% - изучить что-то новое
Инструменты:
- 61% - чатботы
- 36% - редактирование текстов
- 14% - помощники для кода
Сотрудники технологических (76%) и финансовых (58%) компаний лидируют, ритейл и производство отстают (33-38%).
Интересный момент: 23% сотрудников вообще не в курсе, внедрила ли их компания искусственный интеллект официально. :)
Это значит многие юзают личные инструменты типа ChatGPT без ведома руководства. (привет shadow AI)
#Gallup #ShadowAI #аналитика
———
@tsingular
Опрос 23 тысяч сотрудников в США показал рост использования искусственного интеллекта в работе с 40% до 45% за квартал.
Ежедневно применяют только 10%, остальные - пару раз в год.
Основные сценарии:
- 42% - собрать информацию
- 41% - сгенерить идеи
- 36% - изучить что-то новое
Инструменты:
- 61% - чатботы
- 36% - редактирование текстов
- 14% - помощники для кода
Сотрудники технологических (76%) и финансовых (58%) компаний лидируют, ритейл и производство отстают (33-38%).
Интересный момент: 23% сотрудников вообще не в курсе, внедрила ли их компания искусственный интеллект официально. :)
Это значит многие юзают личные инструменты типа ChatGPT без ведома руководства. (привет shadow AI)
#Gallup #ShadowAI #аналитика
———
@tsingular
✍8❤2
NOAA запустила ИИ-модели прогноза погоды на базе GraphCast
Метеослужба США развернула три модели:
AIGFS (базовый прогноз), AIGEFS (ансамбль сценариев) и гибридную HGEFS, объединяющую 31 физическую и 31 нейросетевую модель.
⚡️Ключевая цифра: прогноз на 16 дней теперь потребует всего 0.3% вычислительных ресурсов традиционной GFS и выполняется за 40 минут на одной A100.
В основе,- GraphCast от DeepMind, дообученный на данных NOAA GDAS с разрешением 0.25°.
Траектории тропических циклонов стали точнее на 5-6 дней упреждения.
Гибридный ансамбль HGEFS из 62х модулей превосходит обе системы по большинству метрик: комбинированный анализ даёт ещё более высокую точность.
Скоро как в "Назад в будущее 2" прогноз погоды в реальном времени с точностью до секунды будем считать.
#NOAA #GraphCast #Weather
———
@tsingular
Метеослужба США развернула три модели:
AIGFS (базовый прогноз), AIGEFS (ансамбль сценариев) и гибридную HGEFS, объединяющую 31 физическую и 31 нейросетевую модель.
⚡️Ключевая цифра: прогноз на 16 дней теперь потребует всего 0.3% вычислительных ресурсов традиционной GFS и выполняется за 40 минут на одной A100.
В основе,- GraphCast от DeepMind, дообученный на данных NOAA GDAS с разрешением 0.25°.
Траектории тропических циклонов стали точнее на 5-6 дней упреждения.
Гибридный ансамбль HGEFS из 62х модулей превосходит обе системы по большинству метрик: комбинированный анализ даёт ещё более высокую точность.
Скоро как в "Назад в будущее 2" прогноз погоды в реальном времени с точностью до секунды будем считать.
#NOAA #GraphCast #Weather
———
@tsingular
✍9⚡4❤2
Media is too big
VIEW IN TELEGRAM
SketchUp AI: генерация 3D моделей и текстур + персональный ассистент
Trimble запустил SketchUp AI — набор инструментов для 3D-моделирования и визуализации.
В пакет входят два модуля:
- AI Render (бывший SketchUp Diffusion) превращает модель + текстовый промпт в фотореалистичные картинки за секунды. Есть inpainting, референсные изображения и негативные промпты.
- AI Assistant генерирует 3D-объекты из текста или картинки прямо в редакторе.
Осталось только чтобы он еще саму архитектуру с инженеркой научился собирать и будет огонь.
#SketchUp #Trimble #3DModeling
———
@tsingular
Trimble запустил SketchUp AI — набор инструментов для 3D-моделирования и визуализации.
В пакет входят два модуля:
- AI Render (бывший SketchUp Diffusion) превращает модель + текстовый промпт в фотореалистичные картинки за секунды. Есть inpainting, референсные изображения и негативные промпты.
- AI Assistant генерирует 3D-объекты из текста или картинки прямо в редакторе.
Осталось только чтобы он еще саму архитектуру с инженеркой научился собирать и будет огонь.
#SketchUp #Trimble #3DModeling
———
@tsingular
👍9❤5⚡2🔥2🆒1
Media is too big
VIEW IN TELEGRAM
ИИ вебинар a la дичь
Если вдруг вас накроет когда-нибудь синдром самозванца, - посмотрите этот ролик.
Такие тоже продаются :)
Товарищи переизобрели Гербалайф, если кто помнит этот MLM трэш.
Полная версия на Youtube
Спасибо @Sprut_AI за настроение :)
#дичь #вебинары #юмор #MLM
———
@tsingular
Если вдруг вас накроет когда-нибудь синдром самозванца, - посмотрите этот ролик.
Такие тоже продаются :)
Товарищи переизобрели Гербалайф, если кто помнит этот MLM трэш.
Полная версия на Youtube
Спасибо @Sprut_AI за настроение :)
#дичь #вебинары #юмор #MLM
———
@tsingular
exo: релиз 1.0 рвёт шаблоны
Проект exo, о котором за эти пол-года уже все успели забыть, выпустил версию 1.0 и она наконец-то работает так, как и было задумано, - чем больше устройств в сети,- тем выше скорость инференса.
Раньше обработка велась последовательно и это приводило к тому, что чем больше машин в цепочке, тем ниже была итоговая скорость.
Теперь же модели режутся послойно, на каждую отгружается свой набор слоев и в итоге, - чем больше машин в кластере, тем выше скоростью. Шардинг рулит.
Один момент, - для MoE это работает не так эффективно, - прирост скорости около 15%, но зато для dense моделей, - прирост в разы, - в 3 раза на кластере из 4х машин.
Если кто не слышал про exo раньше, - этот фреймворк позволяет автоматически находить устройства в сети, делит модель на части по доступной памяти каждого гаджета и запускает через OpenAI-совместимый API.
Еще одна новая фишка, - поддержка RDMA через Thunderbolt 5, - это позволяет снизить задержки с 300 до 50 микросекунд.
Очень годный обзор с примерами на Youtube по запуску всего что можно на 4х M3 Ultra 512Gb
#exo #RDMA #Thunderbolt
———
@tsingular
Проект exo, о котором за эти пол-года уже все успели забыть, выпустил версию 1.0 и она наконец-то работает так, как и было задумано, - чем больше устройств в сети,- тем выше скорость инференса.
Раньше обработка велась последовательно и это приводило к тому, что чем больше машин в цепочке, тем ниже была итоговая скорость.
Теперь же модели режутся послойно, на каждую отгружается свой набор слоев и в итоге, - чем больше машин в кластере, тем выше скоростью. Шардинг рулит.
Один момент, - для MoE это работает не так эффективно, - прирост скорости около 15%, но зато для dense моделей, - прирост в разы, - в 3 раза на кластере из 4х машин.
Если кто не слышал про exo раньше, - этот фреймворк позволяет автоматически находить устройства в сети, делит модель на части по доступной памяти каждого гаджета и запускает через OpenAI-совместимый API.
Еще одна новая фишка, - поддержка RDMA через Thunderbolt 5, - это позволяет снизить задержки с 300 до 50 микросекунд.
Очень годный обзор с примерами на Youtube по запуску всего что можно на 4х M3 Ultra 512Gb
#exo #RDMA #Thunderbolt
———
@tsingular
🔥11🎉2🏆2❤1
Роботакси Waymo заблокировали дороги после блэкаута в Сан-Франциско
В пятницу 130 тысяч человек в Сан-Франциско остались без света из-за пожара на подстанции. Вместе со светом пропали светофоры и сотовая связь.
Waymo полностью приостановила сервис — машины встали посреди перекрёстков и блокировали движение часами.
Проблема в архитектуре: без светофоров автопилот не может подтвердить состояние перекрёстка и просто стопорится.
Плюс сотовая сеть упала до 6 Мбит/с, операторы не могли дистанционно управлять застрявшими тачками.
Вместо манёвра «припаркуйся на обочине» сработал протокол «замри где стоишь».
Технически это минимальное условие риска, но на практике,- пробка.
Получается, что полностью автономные машины работают только пока работает всё остальное. Без электричества они не просто перестают работать сами, но еще и вызывают проблемы у окружающих.
- "Ваша империя разрушения и тьмы рушится из-за одной вишенки"
Пятый Элемент
UPD: сервис восстановили
#Waymo #Robotaxi #Blackout
———
@tsingular
В пятницу 130 тысяч человек в Сан-Франциско остались без света из-за пожара на подстанции. Вместе со светом пропали светофоры и сотовая связь.
Waymo полностью приостановила сервис — машины встали посреди перекрёстков и блокировали движение часами.
Проблема в архитектуре: без светофоров автопилот не может подтвердить состояние перекрёстка и просто стопорится.
Плюс сотовая сеть упала до 6 Мбит/с, операторы не могли дистанционно управлять застрявшими тачками.
Вместо манёвра «припаркуйся на обочине» сработал протокол «замри где стоишь».
Технически это минимальное условие риска, но на практике,- пробка.
Получается, что полностью автономные машины работают только пока работает всё остальное. Без электричества они не просто перестают работать сами, но еще и вызывают проблемы у окружающих.
- "Ваша империя разрушения и тьмы рушится из-за одной вишенки"
Пятый Элемент
UPD: сервис восстановили
#Waymo #Robotaxi #Blackout
———
@tsingular
💯72😁16 12❤9👍4👾3⚡1🤯1
Nvidia съест весь NAND после DRAM
Nvidia договорилась с SK Hynix и Kioxia о разработке «ИИ-накопителей» с 100 млн IOPS к 2027 году.
Проблема в том, что GPU упираются в объём HBM-памяти, а серверная DRAM стала слишком дорогой из-за ИИ-бума.
Решение нашли в новой технологии - High Bandwidth Flash на базе SSD, но с дикой скоростью.
Нюанс: такие накопители работают на блоках по 512 байт вместо стандартных 4 КБ.
Для 100 млн IOPS через PCIe 7.0 нужны сотни флэш-чипов в одном корпусе — физически это граница возможного.
Хуже другое: если ИИ-дата-центры начнут жрать NAND так же, как сожрали DRAM, цены на обычные SSD взлетят.
Потребительский рынок накопителей рискует повторить судьбу оперативки — стать заложником ИИ-гонки.
Прототип SK Hynix обещают к концу 2026-го.
Сначала видеокарты не купить, потом память, теперь вот и SSD станут золотыми.
ИИ отбирает электричество, воду на охлаждение и компьютерные компоненты один за другим.
Интересно в какой момент придётся дёрнуть стоп-кран?
#Nvidia #NAND #SKHynix
———
@tsingular
Nvidia договорилась с SK Hynix и Kioxia о разработке «ИИ-накопителей» с 100 млн IOPS к 2027 году.
Проблема в том, что GPU упираются в объём HBM-памяти, а серверная DRAM стала слишком дорогой из-за ИИ-бума.
Решение нашли в новой технологии - High Bandwidth Flash на базе SSD, но с дикой скоростью.
Нюанс: такие накопители работают на блоках по 512 байт вместо стандартных 4 КБ.
Для 100 млн IOPS через PCIe 7.0 нужны сотни флэш-чипов в одном корпусе — физически это граница возможного.
Хуже другое: если ИИ-дата-центры начнут жрать NAND так же, как сожрали DRAM, цены на обычные SSD взлетят.
Потребительский рынок накопителей рискует повторить судьбу оперативки — стать заложником ИИ-гонки.
Прототип SK Hynix обещают к концу 2026-го.
Сначала видеокарты не купить, потом память, теперь вот и SSD станут золотыми.
ИИ отбирает электричество, воду на охлаждение и компьютерные компоненты один за другим.
Интересно в какой момент придётся дёрнуть стоп-кран?
#Nvidia #NAND #SKHynix
———
@tsingular
⚡13😁6❤3👍1