GLM-5-Turbo: Нативная модель для OpenClaw
Z.ai представили GLM-5-Turbo — фундаментальную модель, оптимизированную под архитектуру OpenClaw уже на этапе обучения.
🛠 Технические параметры:
— Объем: 200K контекст, 128K выход.
— Функции: Thinking Mode, Context Caching, Native MCP, Structured JSON.
🧠 OpenClaw Native:
— Tool Calling: Точный вызов внешних инструментов без сбоев в многошаговых задачах.
— Time Dimensions: Нативное понимание временных триггеров и запланированных задач.
— Long-chain: Стабильность в длинных логических цепочках и высокая пропускная способность.
— Бенчмарки: Модель прошла оптимизацию под ClawBench для работы в бизнес-сценариях.
💼 Зачем бизнесу:
GLM-5-Turbo убирает барьер между диалогом и исполнением действий. Это база для развертывания автономных роев агентов, управляющих сложной логикой без потери контекста.
неужели GLM перестанить тупить на Крабе?
Проверяем.
#ZAI #GLM5 #OpenClaw #Turbo
───
@tsingular
Z.ai представили GLM-5-Turbo — фундаментальную модель, оптимизированную под архитектуру OpenClaw уже на этапе обучения.
🛠 Технические параметры:
— Объем: 200K контекст, 128K выход.
— Функции: Thinking Mode, Context Caching, Native MCP, Structured JSON.
🧠 OpenClaw Native:
— Tool Calling: Точный вызов внешних инструментов без сбоев в многошаговых задачах.
— Time Dimensions: Нативное понимание временных триггеров и запланированных задач.
— Long-chain: Стабильность в длинных логических цепочках и высокая пропускная способность.
— Бенчмарки: Модель прошла оптимизацию под ClawBench для работы в бизнес-сценариях.
💼 Зачем бизнесу:
GLM-5-Turbo убирает барьер между диалогом и исполнением действий. Это база для развертывания автономных роев агентов, управляющих сложной логикой без потери контекста.
неужели GLM перестанить тупить на Крабе?
Проверяем.
#ZAI #GLM5 #OpenClaw #Turbo
───
@tsingular
🔥15⚡2👍1🆒1
Forwarded from Анализ данных (Data analysis)
🧠 Новый подход к архитектуре нейросетей: Attention Residuals
Исследователи предложили переосмыслить одну из базовых идей глубоких нейросетей - residual connections.
До сих пор такие соединения работали очень просто:
каждый слой добавляет свой результат к предыдущим слоям через фиксированное накопление.
Но у этого подхода есть проблемы:
• информация постепенно «размывается»
• растёт скрытое состояние
• модели сложнее извлекать важные представления из прошлых слоёв
Теперь предложена новая идея - Attention Residuals.
Вместо обычного сложения слоёв модель использует attention, чтобы выбирать, какие представления из предыдущих слоёв действительно нужны.
Проще говоря:
модель сама решает, к каким слоям прошлого стоит “вернуться”.
Что это даёт:
🔹 сеть может избирательно извлекать нужные представления
🔹 уменьшается эффект «размывания» информации
🔹 контролируется рост скрытых состояний
🔹 глубина сети используется гораздо эффективнее
Чтобы это работало на больших моделях, авторы предложили механизм Block AttnRes.
Он делит сеть на блоки и применяет сжатое attention между ними, делая кросс-слойное внимание масштабируемым.
По результатам экспериментов:
• около 1.25× выигрыша по вычислениям
• <2% увеличение latency на инференсе
• стабильный рост качества на downstream-задачах
Метод протестировали на архитектуре Kimi Linear:
• 48B параметров всего
• 3B активных параметров
Если идея подтвердится на больших LLM, это может стать новым стандартом для глубинных архитектур нейросетей.
https://github.com/MoonshotAI/Attention-Residuals/blob/master/Attention_Residuals.pdf
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Исследователи предложили переосмыслить одну из базовых идей глубоких нейросетей - residual connections.
До сих пор такие соединения работали очень просто:
каждый слой добавляет свой результат к предыдущим слоям через фиксированное накопление.
Но у этого подхода есть проблемы:
• информация постепенно «размывается»
• растёт скрытое состояние
• модели сложнее извлекать важные представления из прошлых слоёв
Теперь предложена новая идея - Attention Residuals.
Вместо обычного сложения слоёв модель использует attention, чтобы выбирать, какие представления из предыдущих слоёв действительно нужны.
Проще говоря:
модель сама решает, к каким слоям прошлого стоит “вернуться”.
Что это даёт:
🔹 сеть может избирательно извлекать нужные представления
🔹 уменьшается эффект «размывания» информации
🔹 контролируется рост скрытых состояний
🔹 глубина сети используется гораздо эффективнее
Чтобы это работало на больших моделях, авторы предложили механизм Block AttnRes.
Он делит сеть на блоки и применяет сжатое attention между ними, делая кросс-слойное внимание масштабируемым.
По результатам экспериментов:
• около 1.25× выигрыша по вычислениям
• <2% увеличение latency на инференсе
• стабильный рост качества на downstream-задачах
Метод протестировали на архитектуре Kimi Linear:
• 48B параметров всего
• 3B активных параметров
Если идея подтвердится на больших LLM, это может стать новым стандартом для глубинных архитектур нейросетей.
https://github.com/MoonshotAI/Attention-Residuals/blob/master/Attention_Residuals.pdf
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
1🔥9✍4⚡2❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Для гиков: Лора для Z-Image для знаменитостей
Пока Нанабанана шарахается от известных имен, китайские друзья натренировали Лору для Зимажа на огромном датасете со знаменитостями.
Лора и полный список знаменитостей тут:
https://huggingface.co/nphSi/Z-Image-Lora
Галерея с сотировкой по алфавиту:
https://huggingface.co/spaces/nphSi/Lookalike-LoRA-Index
@cgevent
Пока Нанабанана шарахается от известных имен, китайские друзья натренировали Лору для Зимажа на огромном датасете со знаменитостями.
Лора и полный список знаменитостей тут:
https://huggingface.co/nphSi/Z-Image-Lora
Галерея с сотировкой по алфавиту:
https://huggingface.co/spaces/nphSi/Lookalike-LoRA-Index
@cgevent
1🔥9⚡2❤1👍1
Media is too big
VIEW IN TELEGRAM
ИМБА от Сергея Пименова на базе китайского фреймворка MiroFish
Помните на той неделе обсуждали фреймворк?
Сергей с командой его развернули, русифицировали и поставили интересный эксперимент:
Представьте: вы загружаете в цифровую песочницу вселенную «СССР: ЦИКЛ» — с её уникальным тоном, логикой и персонажами — и спрашиваете ИИ-толпу:
В течение двух часов виртуальные агенты обсуждали, спорили, выдвигали версии и формировали общественную реакцию — как настоящее, живое сообщество с нюансами, эмоциями и органическим развитием мнений.
Полная версия в PDF в комментарии
Получается, можно спокойно формировать предпросмотр того, как реальные люди воспримут ваш продукт, кампанию или даже вымышленную вселенную.
Подходит для:
За деталями обращайтесь на Фабрику контента к Сергею.
На ближайшем эфире сможете задать вопросы как она работает :)
Или может даже Сергей покажет.
#MiroFish #ФабрикаКонтента #pimenov
———
@tsingular
Помните на той неделе обсуждали фреймворк?
Сергей с командой его развернули, русифицировали и поставили интересный эксперимент:
Представьте: вы загружаете в цифровую песочницу вселенную «СССР: ЦИКЛ» — с её уникальным тоном, логикой и персонажами — и спрашиваете ИИ-толпу:
«Что произойдёт, если блогеры из этой вселенной внезапно появятся в социальных сетях нашего мира?»
В течение двух часов виртуальные агенты обсуждали, спорили, выдвигали версии и формировали общественную реакцию — как настоящее, живое сообщество с нюансами, эмоциями и органическим развитием мнений.
Полная версия в PDF в комментарии
Получается, можно спокойно формировать предпросмотр того, как реальные люди воспримут ваш продукт, кампанию или даже вымышленную вселенную.
Подходит для:
— брендов и стартапов, которым важно понять, как их идея «зайдёт» в реальную среду
— маркетологов, тестирующих концепции
— авторов проектов, ищущих валидацию глубины мира и убедительности историй
— стратегов, которым нужна не статистика, а прореагировавшее сообщество
За деталями обращайтесь на Фабрику контента к Сергею.
На ближайшем эфире сможете задать вопросы как она работает :)
Или может даже Сергей покажет.
#MiroFish #ФабрикаКонтента #pimenov
———
@tsingular
2🔥16❤3⚡1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
NVIDIA DLSS 5 — GPT-момент для графики
NVIDIA анонсировала DLSS 5 — самый значимый прорыв в компьютерной графике со времён рейтрейсинга в реальном времени (2018).
Суть технологии:
Не просто апскейлинг — теперь нейросеть генерирует фотореалистичное освещение и материалы прямо в реальном времени, в 4K, на основе цвета и motion vectors каждого кадра.
Модель понимает семантику сцены: кожа, волосы, ткань, условия освещения — и применяет корректный рендеринг (subsurface scattering, шин ткани, отражения) без брутфорс-рендера.
Ключевые цифры:
DLSS 4.5 генерировал 23 из 24 пикселей
DLSS 5 — полный нейрорендер поверх 3D-сцены
Real-time, до 4K, frame-consistent (не генеративный хаос)
Интеграция:
- Тот же Streamline framework что и у DLSS/Reflex
- Контроль для художников: интенсивность, цветокоррекция, маскинг
- Поддержка: Bethesda, CAPCOM, Ubisoft, Warner Bros., Tencent и др.
Игры с поддержкой на старте: Starfield, Assassin's Creed Shadows, Resident Evil Requiem, Hogwarts Legacy, The Elder Scrolls IV: Oblivion Remastered и ещё ~10 тайтлов.
Релиз: осень 2026.
По сути — NVIDIA делает то же, что OpenAI сделала с генерацией текста: заменяет детерминированный пайплайн нейросетевым, но сохраняет контроль и предсказуемость для производства.
#NVIDIA #DLSS5 #GraphicsAI #RealTimeRendering
———
@tsingular
NVIDIA анонсировала DLSS 5 — самый значимый прорыв в компьютерной графике со времён рейтрейсинга в реальном времени (2018).
Суть технологии:
Не просто апскейлинг — теперь нейросеть генерирует фотореалистичное освещение и материалы прямо в реальном времени, в 4K, на основе цвета и motion vectors каждого кадра.
Модель понимает семантику сцены: кожа, волосы, ткань, условия освещения — и применяет корректный рендеринг (subsurface scattering, шин ткани, отражения) без брутфорс-рендера.
Ключевые цифры:
DLSS 4.5 генерировал 23 из 24 пикселей
DLSS 5 — полный нейрорендер поверх 3D-сцены
Real-time, до 4K, frame-consistent (не генеративный хаос)
Интеграция:
- Тот же Streamline framework что и у DLSS/Reflex
- Контроль для художников: интенсивность, цветокоррекция, маскинг
- Поддержка: Bethesda, CAPCOM, Ubisoft, Warner Bros., Tencent и др.
Игры с поддержкой на старте: Starfield, Assassin's Creed Shadows, Resident Evil Requiem, Hogwarts Legacy, The Elder Scrolls IV: Oblivion Remastered и ещё ~10 тайтлов.
Релиз: осень 2026.
По сути — NVIDIA делает то же, что OpenAI сделала с генерацией текста: заменяет детерминированный пайплайн нейросетевым, но сохраняет контроль и предсказуемость для производства.
#NVIDIA #DLSS5 #GraphicsAI #RealTimeRendering
———
@tsingular
1🔥23 10⚡4❤1
NVIDIA GTC Keynote 2026
https://www.youtube.com/watch?v=jw_o0xr8MWU
Много про будущее.
Плюс промо ролик обновили.
Красиво.
#Nvidia
———
@tsingular
https://www.youtube.com/watch?v=jw_o0xr8MWU
Много про будущее.
Плюс промо ролик обновили.
Красиво.
#Nvidia
———
@tsingular
⚡4👍4✍2
рейтинг ведущих инференс партнёров NVidia
полезное на случай если будете искать где модели взять в облаке
#nvidia #cloud
———
@tsingular
полезное на случай если будете искать где модели взять в облаке
#nvidia #cloud
———
@tsingular
✍4⚡2
А вот это интересно - модели Qwen3 235B рассматриваются как маркетинговая халява уже :)
При этом новая платформа Vera Rubin позволяет генерить ответы на порядки быстрее, а следовательно датацентры будут больше зарабатывать, а пользователи с радостью в 5 раз больше платить :)
Подписку за $200 в месяц будем вспоминать с ностальгией.
На подходе $1000/месяц судя по всему.
#nvidia #inference #vera #rubin
———
@tsingular
При этом новая платформа Vera Rubin позволяет генерить ответы на порядки быстрее, а следовательно датацентры будут больше зарабатывать, а пользователи с радостью в 5 раз больше платить :)
Подписку за $200 в месяц будем вспоминать с ностальгией.
На подходе $1000/месяц судя по всему.
#nvidia #inference #vera #rubin
———
@tsingular
✍9👍3❤2
новое железо Nvidia Vera Rubin + Groq3
Планируют выпускать десятки тысяч карт в неделю.
В плане производства - выпускать карты для 1 гигваттного датацентра в месяц.
Суммарный прирост скорости в 350 раз за 3 года.
#nvidia #groq
———
@tsingular
Планируют выпускать десятки тысяч карт в неделю.
В плане производства - выпускать карты для 1 гигваттного датацентра в месяц.
Суммарный прирост скорости в 350 раз за 3 года.
#nvidia #groq
———
@tsingular
❤7👍4
Крышесносная штука - виртуальная среда для строительства датацентров.
нужно будет потом отдельно ролик вырезать с демкой как он работает.
#Nvidia #AIFactory
———
@tsingular
нужно будет потом отдельно ролик вырезать с демкой как он работает.
#Nvidia #AIFactory
———
@tsingular
❤6✍2
Новая парадигма, - какой Ваш план внедрения OpenClaw агентов?
OpenClaw - это как операционная система для агентов.
Новый ключевой элемент инфраструктуры, такой же как когда то стала Windows, Линукс. Кубер и т.д.
Каждая SaaS компания превратится в AGaaS компанию.
#openclaw #агенты
———
@tsingular
OpenClaw - это как операционная система для агентов.
Новый ключевой элемент инфраструктуры, такой же как когда то стала Windows, Линукс. Кубер и т.д.
Каждая SaaS компания превратится в AGaaS компанию.
#openclaw #агенты
———
@tsingular
❤7👀3🔥1
Nemoclaw - корпоративный стек для openclaw
корпоративные политики, безопасность и все что нужно для энтерпрайза.
чтобы ваши крабы не нарушали правила.
#nemoclaw #openclaw
———
@tsingular
корпоративные политики, безопасность и все что нужно для энтерпрайза.
чтобы ваши крабы не нарушали правила.
#nemoclaw #openclaw
———
@tsingular
❤7🔥1
Партнёры Nvidia. записываем :)
каждая компания скоро будет иметь в P&L отдельную строку на расход токенов.
#Nvidia
———
@tsingular
каждая компания скоро будет иметь в P&L отдельную строку на расход токенов.
#Nvidia
———
@tsingular
👍8❤3
Media is too big
VIEW IN TELEGRAM
👍8👀5❤4🤣2⚡1🤔1