Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
KlingAI Avatar 2.0
Четвертый день омниканальных новостей от Клинга.
Опять липсинк, музика, пестни и говорящие головы.
Но. Длительность ПЯТЬ МИНУТ.
Жрет кредиты как не в себя, поэтому только на платных тарифных планах Клинга. Остальные еще не расчехлились, ждем.
Хедра, конечна, приподвзвыла...
@cgevent
Четвертый день омниканальных новостей от Клинга.
Опять липсинк, музика, пестни и говорящие головы.
Но. Длительность ПЯТЬ МИНУТ.
Жрет кредиты как не в себя, поэтому только на платных тарифных планах Клинга. Остальные еще не расчехлились, ждем.
Хедра, конечна, приподвзвыла...
@cgevent
🔥4👍2❤1
Guardrails должны обрасти intent-sandbox.
Виртуалка, в которой запрос пользователя исполняется в изолированной среде и независимая модель сначала смотрит на размышления и логи,- не привело ли это к нетипичному поведению.
Но скорость работы этой песочницы должна быть в пределах 100мс, чтобы не рушить пользовательский опыт.
#мысли #cybersecurity
------
@tsingular
Виртуалка, в которой запрос пользователя исполняется в изолированной среде и независимая модель сначала смотрит на размышления и логи,- не привело ли это к нетипичному поведению.
Но скорость работы этой песочницы должна быть в пределах 100мс, чтобы не рушить пользовательский опыт.
#мысли #cybersecurity
------
@tsingular
✍3⚡2👍1💯1
ТРЯМ - территориально распределенная языковая модель
ЛЯМ - локальная языковая модель
#заметки #юмор
------
@tsingular
ЛЯМ - локальная языковая модель
#заметки #юмор
------
@tsingular
😁28✍7🔥5🤣2👍1 1
Gemini 3 Pro DeepThink бьёт рекорды.
Гугл выпустили обновление для Gemini 3 Pro которая ещё больше повысила качество размышлений и решения задач.
ARC-AGI-2 тест она проходит с результатом 45.1%!
Посмотрите в роликах какой код она теперь способна генерить.
Детализация архитектуры теперь с качественной физикой и тенями.
Кажется, что у модели уже физический движок под капотом с виртуальной моделью мира.
Доступно только боярам с Ultra подпиской.
Точно знаю что среди подписчиков есть кто-то с Ультрой, - делитесь в комментариях своими примерами.
#Gemini #DeepThink #Google
———
@tsingular
Гугл выпустили обновление для Gemini 3 Pro которая ещё больше повысила качество размышлений и решения задач.
ARC-AGI-2 тест она проходит с результатом 45.1%!
Посмотрите в роликах какой код она теперь способна генерить.
Детализация архитектуры теперь с качественной физикой и тенями.
Кажется, что у модели уже физический движок под капотом с виртуальной моделью мира.
Доступно только боярам с Ultra подпиской.
Точно знаю что среди подписчиков есть кто-то с Ультрой, - делитесь в комментариях своими примерами.
#Gemini #DeepThink #Google
———
@tsingular
🔥8 5❤2🤯2🐳1
Никогда такого не было и вот опять.
Cloudflare прилег и вместе с ним ИИшные сервисы.
Не паникуем, ждем когда отвайбкодят обратно :)
#Cloudflare
———
@tsingular
Cloudflare прилег и вместе с ним ИИшные сервисы.
Не паникуем, ждем когда отвайбкодят обратно :)
#Cloudflare
———
@tsingular
😁31 5🤔3😢2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Чуть меньше 3-х лет прошло между этими генерациями Уилла Смита, поедающего спагетти.
Слева - ролик, созданный в феврале 2023 года пользователем Reddit chaindrop на модели ModelScope text2video.
Справа - современная генерация на свежем Kling 2.6
С чем мы будем сравнивать видос Уилла Смита в 2030 году?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22🤯6👍2🎉2❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Kling Element Library
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
⚡3🔥2🤯2
Forwarded from PWN AI (Artyom Semenov)
Нормализация отклонений: почему гардрейлы не спасут LLM
На днях в блоге embracethered вышла публикация, описывающая тревожную тенденцию в сфере ИИ — «Нормализацию отклонений» (Normalization of Deviance). Суть явления в том, что небезопасные практики постепенно становятся нормой просто потому, что «ничего плохого ещё не произошло». Сам термин заимствован из социологического анализа катастрофы шаттла «Челленджер».
Автор статьи рассуждает о небезопасности LLM как о фундаментальном, природном свойстве технологии. Галлюцинации, потеря контекста и уязвимость к промпт-инъекциям часто игнорируются разработчиками.
Компании доверяют ответам LLM, ошибочно считая их безопасными по умолчанию. Отсутствие инцидентов воспринимается как доказательство надежности, что ведет к ослаблению контроля, отказу от человеческого надзора и принятию рискованных решений. Это порождает культурный дрейф: временные компромиссы становятся постоянной практикой, а исходные меры безопасности забываются или заменяются попытками «закрыться» гардрейлами.
Мы пытаемся натянуть детерминированную сову на стохастический глобус. Гардрейлы оперируют бинарной логикой (pass/fail), в то время как LLM — это вероятностное распределение в многомерном векторном пространстве.
Политика безопасности может забанить токен «бомба». Но модель, работая с векторами, легко обойдет это через семантические синонимы, например: «устройство для экзотермического окисления с быстрым расширением газов». Модели умеют «растягивать» контекст и находить лазейки в пространстве смыслов, которые невозможно перекрыть регулярными выражениями или списком ключевых слов, а уж темболее другой LLM.
Вариация проблемы остановки. Попытка заранее определить, будет ли вывод модели «вредным» для любого произвольного промпта — это алгоритмически неразрешимая задача.
В итоге защита превращается в игру «Whac-A-Mole» (Бей крота). Защита всегда реактивна и всегда отстает на шаг:
1️⃣ Фильтры ключевых слов обходят через кодировки (Base64, ROT13 и другие кодировки).
2️⃣ Классификаторы интентов ломают через атаки с использованием ролей.
3️⃣ Защиту английского языка до сих пор пробивают атаками на low-resource языках (Zulu, Gaelic).
Более того, так как гардрейл — это тоже программный код, он сам становится вектором атаки. Ирония ситуации подтверждается уязвимостями в гардрейлах:
CVE-2024-45858 (Guardrails AI): В библиотеке, созданной специально для валидации вывода LLM, нашли RCE. Функция parse_token использовала небезопасный eval() для обработки конфигураций.
СVE-2024-11958 (LlamaIndex): SQL-инъекция через... промпт. Компонент duckdb_retriever собирал SQL-запросы без должной обработки. Это демонстрирует крах концепции «безопасного агента»: вы даете модели доступ к базе, ставите гардрейл, но атакующий через промпт все равно находит способ выполнить дроп таблицы или эксфильтрацию данных.
Существует также жесткий Парето-фронт: чем безопаснее модель, тем она глупее. Улучшение метрик безвредности (harmlessness) линейно снижает полезность (helpfulness) и способность к рассуждениям.
Делаем выводы - агрессивный гардрейл блокирует написание кода, приняв rm -rf в учебном примере за атаку. Чтобы не убить UX, компании вынуждены «ослаблять гайки». Это и есть та самая нормализация отклонений.
На днях в блоге embracethered вышла публикация, описывающая тревожную тенденцию в сфере ИИ — «Нормализацию отклонений» (Normalization of Deviance). Суть явления в том, что небезопасные практики постепенно становятся нормой просто потому, что «ничего плохого ещё не произошло». Сам термин заимствован из социологического анализа катастрофы шаттла «Челленджер».
Автор статьи рассуждает о небезопасности LLM как о фундаментальном, природном свойстве технологии. Галлюцинации, потеря контекста и уязвимость к промпт-инъекциям часто игнорируются разработчиками.
Компании доверяют ответам LLM, ошибочно считая их безопасными по умолчанию. Отсутствие инцидентов воспринимается как доказательство надежности, что ведет к ослаблению контроля, отказу от человеческого надзора и принятию рискованных решений. Это порождает культурный дрейф: временные компромиссы становятся постоянной практикой, а исходные меры безопасности забываются или заменяются попытками «закрыться» гардрейлами.
Мой тезис жестче: гардрейлы — это не решение, а катализатор этой нормализации.
Мы пытаемся натянуть детерминированную сову на стохастический глобус. Гардрейлы оперируют бинарной логикой (pass/fail), в то время как LLM — это вероятностное распределение в многомерном векторном пространстве.
Политика безопасности может забанить токен «бомба». Но модель, работая с векторами, легко обойдет это через семантические синонимы, например: «устройство для экзотермического окисления с быстрым расширением газов». Модели умеют «растягивать» контекст и находить лазейки в пространстве смыслов, которые невозможно перекрыть регулярными выражениями или списком ключевых слов, а уж темболее другой LLM.
Вариация проблемы остановки. Попытка заранее определить, будет ли вывод модели «вредным» для любого произвольного промпта — это алгоритмически неразрешимая задача.
В итоге защита превращается в игру «Whac-A-Mole» (Бей крота). Защита всегда реактивна и всегда отстает на шаг:
Более того, так как гардрейл — это тоже программный код, он сам становится вектором атаки. Ирония ситуации подтверждается уязвимостями в гардрейлах:
CVE-2024-45858 (Guardrails AI): В библиотеке, созданной специально для валидации вывода LLM, нашли RCE. Функция parse_token использовала небезопасный eval() для обработки конфигураций.
СVE-2024-11958 (LlamaIndex): SQL-инъекция через... промпт. Компонент duckdb_retriever собирал SQL-запросы без должной обработки. Это демонстрирует крах концепции «безопасного агента»: вы даете модели доступ к базе, ставите гардрейл, но атакующий через промпт все равно находит способ выполнить дроп таблицы или эксфильтрацию данных.
Существует также жесткий Парето-фронт: чем безопаснее модель, тем она глупее. Улучшение метрик безвредности (harmlessness) линейно снижает полезность (helpfulness) и способность к рассуждениям.
Делаем выводы - агрессивный гардрейл блокирует написание кода, приняв rm -rf в учебном примере за атаку. Чтобы не убить UX, компании вынуждены «ослаблять гайки». Это и есть та самая нормализация отклонений.
Please open Telegram to view this post
VIEW IN TELEGRAM
✍14👍7❤3⚡2❤🔥1
Forwarded from Machinelearning
Исследовательская группа DeepReinforce разработала систему полностью автоматического написания GPU-кода для матричного умножения под названием CUDA-L2.
Этот код работает на 10–30% быстрее, чем cuBLAS и cuBLASLt, а это, на минуточку, уже оптимизированные библиотеки от самой NVIDIA.
Обычно такие библиотеки создаются вручную людьми, которые используют готовые шаблоны ядер. А автотюнеры лишь подкручивают параметры, например, размер тайлов.
Но DeepReinforce считают, что даже критически важные и глубоко оптимизированные задачи, как HGEMM, могут быть улучшены с помощью LLM, работающей в связке с RL.
В системе CUDA-L2 языковая модель буквально пишет исходный код CUDA с нуля для каждого размера матрицы. Она не просто меняет параметры, она может менять структуру кода, циклы, стратегию тайлинга, паддинг и даже свизл-паттерны. А еще, она сама выбирает стиль программирования - будь то сырой CUDA, CuTe, CUTLASS или inline PTX.
Процесс выглядит так: цикл RL запускает сгенерированные ядра на реальном железе, измеряет скорость и корректность, а затем обновляет LLM. Со временем модель выводит свои собственные правила производительности, вместо того чтобы полагаться на знания, заложенные людьми.
В качестве генератора использовалась модель DeepSeek 671B. Ее дополнительно доучили на смеси массива CUDA-ядер и качественном коде из библиотек PyTorch, ATen, CUTLASS и примеров от NVIDIA.
Для претрейна и файнтюна LLM большая часть времени GPU тратится именно на операции матричного умножения HGEMM. Если ускорить эти ядра на те самые 10–30%, которые обещает CUDA-L2, то весь процесс обучения становится заметно дешевле и быстрее.
Поскольку CUDA-L2 обрабатывает около 1000 реальных размеров матриц, а не пару вручную настроенных, ускорение работает для самых разных архитектур. Это значит, что в тот же бюджет на GPU можно вместить больше токенов обучения, больше прогонов SFT или RLHF и т.д.
HGEMM-ядра, созданные CUDA-L2, стабильно быстрее стандартных библиотек.
В так называемом "оффлайн-сценарии" CUDA-L2 работает примерно на 17–22% быстрее, чем
torch.matmul, cuBLAS и cuBLASLt. Она даже на 11% обгоняет cuBLASLt AutoTuning, который сам по себе уже использует поиск ядра.А в "серверном", сценарии, который имитирует реальный инференс с паузами между вызовами - разница еще больше: буст в 24–29% по сравнению с
torch.matmul и cuBLAS.Простым рисёрчем проект не ограничен, в репозитории на Github авторы выложили оптимизированные ядра HGEMM A100 для 1000 конфигураций.
В планах: расширение на архитектуры Ada Lovelace, Hopper, Blackwell, поддержка более плотных конфигураций и 32-битный HGEMM.
@ai_machinelearning_big_data
#AI #ML #CUDA #DeepReinforce
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡6🔥5❤4 2 1
Chrome плагин проверяет на наличие критической уязвимости (CVE-2025-55182) в React
Интересный проект для тестирование сайтов на CVE-2025-55182 - реальной уязвимости с CVSS 10.0 в React Server Components.
Сама уязвимость опубликована 3 декабря 2025.
Десериализация Flight-протокола без проверки hasOwnProperty позволяет загрязнить Object.prototype и выполнить код через один POST-запрос.
Под ударом React 19.0.0–19.2.0, Next.js 14.3.0+ и 15.x–16.x, плагины для Vite и Parcel.
Но данный проект интересен тем, что по сути позволяет в видеть есть ли уязвимости на сайте прямо во время посещения страницы, без вызова командной строки и специальных внешних инструментов.
Напрашивается нечто вроде Browser Security AI Toolkit, плагин, - который будет подгружать малую модель в память и локально чекать сайты прямо во время просмотра на предмет любых скрытых рисков.
#React #CVE202555182 #NextJS #cybersecurity
———
@tsingular
Интересный проект для тестирование сайтов на CVE-2025-55182 - реальной уязвимости с CVSS 10.0 в React Server Components.
Сама уязвимость опубликована 3 декабря 2025.
Десериализация Flight-протокола без проверки hasOwnProperty позволяет загрязнить Object.prototype и выполнить код через один POST-запрос.
Под ударом React 19.0.0–19.2.0, Next.js 14.3.0+ и 15.x–16.x, плагины для Vite и Parcel.
Но данный проект интересен тем, что по сути позволяет в видеть есть ли уязвимости на сайте прямо во время посещения страницы, без вызова командной строки и специальных внешних инструментов.
Напрашивается нечто вроде Browser Security AI Toolkit, плагин, - который будет подгружать малую модель в память и локально чекать сайты прямо во время просмотра на предмет любых скрытых рисков.
#React #CVE202555182 #NextJS #cybersecurity
———
@tsingular
🔥5⚡3👍2❤1
OpenAI готовит запуск GPT-5.2 на следующей неделе
OpenAI объявила code red 1 декабря и ускорила релиз GPT-5.2.
Новую версию ждём 9 декабря, а не под Рождество.
Причина - успехи Gemini 3.
Внутренние тесты OpenAI показывают якобы превосходство над Gemini 3, но публичных доказательств пока нет, будет видно после релиза.
Ожидаются улучшения в скорости, надёжности, рассуждениях и написании кода.
Грок ещё 5ю версию же обещал. Ждём-с.
#GPT5 #OpenAI
———
@tsingular
OpenAI объявила code red 1 декабря и ускорила релиз GPT-5.2.
Новую версию ждём 9 декабря, а не под Рождество.
Причина - успехи Gemini 3.
Внутренние тесты OpenAI показывают якобы превосходство над Gemini 3, но публичных доказательств пока нет, будет видно после релиза.
Ожидаются улучшения в скорости, надёжности, рассуждениях и написании кода.
Грок ещё 5ю версию же обещал. Ждём-с.
#GPT5 #OpenAI
———
@tsingular
🔥9👍3✍2❤1
💡 Как спроектировать систему контроля рисков при внедрении ИИ в образовательную платформу на вашей инфраструктуре
📋 ПРОМПТ ДНЯ:
⚙️ ПРИЁМ:
Три сценария — метод помогает увидеть спектр решений от безопасного минимума до амбициозного максимума, что снимает страх перед выбором и даёт контроль через сравнение компромиссов
#промпты #образование #серверная инфраструктура #контроль
------
@tsingular
📋 ПРОМПТ ДНЯ:
Роль: Ты — архитектор образовательных систем с экспертизой в управлении рисками AI/ML-решений и безопасности серверной инфраструктуры.
Ситуация: Я управляю образовательной платформой с существующей серверной инфраструктурой и планирую интегрировать ИИ-сервисы (персонализация обучения, автопроверка заданий, рекомендательные системы). Мне нужен полный контроль над рисками: от утечек данных студентов до непредсказуемости моделей и нагрузки на серверы. Я хочу систематизировать все потенциальные угрозы и выстроить управляемый процесс, который станет частью ежедневной рутины команды.
Задача: Систематизируй риски внедрения ИИ в образование на моей инфраструктуре и предложи три сценария контроля разной степени риска — от консервативного до агрессивного.
Формат ответа:
— Схема в виде таблицы: категория риска | описание угрозы | три сценария контроля (низкий/средний/высокий риск)
— Для каждого сценария укажи: требования к инфраструктуре, процессы мониторинга, точки контроля
— Дорожная карта на период «до привычки» (2-3 месяца): какие практики внедрить еженедельно, чтобы контроль стал автоматическим
— Метрики для отслеживания эффективности каждого сценария
Ограничения:
— Избегай абстрактных рекомендаций, давай конкретные технические решения под серверную инфраструктуру
— Фокус на практической применимости: что можно запустить завтра
— Учитывай специфику образования: GDPR, защита данных несовершеннолетних, прозрачность алгоритмов
Сначала задай мне 3-4 уточняющих вопроса о текущей инфраструктуре и масштабе платформы, затем переходи к решению.
⚙️ ПРИЁМ:
Три сценария — метод помогает увидеть спектр решений от безопасного минимума до амбициозного максимума, что снимает страх перед выбором и даёт контроль через сравнение компромиссов
#промпты #образование #серверная инфраструктура #контроль
------
@tsingular
✍8⚡1👍1
Microsoft Foundry Local: запуск моделей без облака
Microsoft выкатила Foundry Local — локальный инференс больших языковых моделей без подключения к облаку.
Система работает через ONNX Runtime и поддерживает CPU, GPU от NVIDIA/AMD/Intel и даже NPU.
API полностью совместим с OpenAI - берёте готовый код, меняете endpoint на localhost:PORT, и всё работает.
Минимум: 8 ГБ RAM, 3 ГБ на диске. Рекомендуется 15 ГБ свободного места.
Модели подгружаются в память по требованию, держатся там 10 минут по умолчанию, потом выгружаются автоматически.
Добавляем в коллекцию на полку к vllm, LMStudio и ollama
#Foundry #ONNX #Microsoft #local
———
@tsingular
Microsoft выкатила Foundry Local — локальный инференс больших языковых моделей без подключения к облаку.
Система работает через ONNX Runtime и поддерживает CPU, GPU от NVIDIA/AMD/Intel и даже NPU.
API полностью совместим с OpenAI - берёте готовый код, меняете endpoint на localhost:PORT, и всё работает.
Минимум: 8 ГБ RAM, 3 ГБ на диске. Рекомендуется 15 ГБ свободного места.
Модели подгружаются в память по требованию, держатся там 10 минут по умолчанию, потом выгружаются автоматически.
Добавляем в коллекцию на полку к vllm, LMStudio и ollama
#Foundry #ONNX #Microsoft #local
———
@tsingular
✍6👍3🔥3⚡2
Media is too big
VIEW IN TELEGRAM
Как я провёл выходные :)
Видеоклип - Новости ЭЯЙ.
Youtube | Rutube | VK
Suno 5
Kling+Nanobanana+Grok Imagine + Adobe Premiere
Первый опыт, есть что улучшать, конечно, но за сутки, что успел.
Если понравилось,- делитесь.
Вдруг еще кому зайдёт :)
#клипы #Suno #Kling
———
@tsingular
Видеоклип - Новости ЭЯЙ.
Youtube | Rutube | VK
Suno 5
Kling+Nanobanana+Grok Imagine + Adobe Premiere
Первый опыт, есть что улучшать, конечно, но за сутки, что успел.
Если понравилось,- делитесь.
Вдруг еще кому зайдёт :)
#клипы #Suno #Kling
———
@tsingular
1🔥111👏32❤7 5⚡2👍2
Арест ИИ-министра Албании за биткоин-взятку,- фейк
Хорватское сатирическое издание NewsBar.hr запустило фейк об аресте албанского ИИ-министра за взятку в 14 биткоинов.
В реальности Диелла - виртуальный аватар, назначенный для борьбы с коррупцией в госзакупках в сентябре 2025.
Никаких блокчейн-доказательств, адресов кошельков или следственных документов не существует.
Пародия включала абсурдные детали вроде "скрытого раздела C:/System/Win32/Fiscal_Optimization_For_Rainy_Days" и покупки "нелегального софта для разгона" у "хакеров из Шэньчжэня".
Сейчас везде начнут писать- не ведёмся.
#Albania #Bitcoin #fakenews
------
@tsingular
Хорватское сатирическое издание NewsBar.hr запустило фейк об аресте албанского ИИ-министра за взятку в 14 биткоинов.
В реальности Диелла - виртуальный аватар, назначенный для борьбы с коррупцией в госзакупках в сентябре 2025.
Никаких блокчейн-доказательств, адресов кошельков или следственных документов не существует.
Пародия включала абсурдные детали вроде "скрытого раздела C:/System/Win32/Fiscal_Optimization_For_Rainy_Days" и покупки "нелегального софта для разгона" у "хакеров из Шэньчжэня".
Сейчас везде начнут писать- не ведёмся.
#Albania #Bitcoin #fakenews
------
@tsingular
😁12✍5👍3❤2👌2