Внимание, общий сбор.
Нужно протестировать бота @skilldaybot :)
Далее цитирую:
Вот ссылка: https://t.me/skilldaybot
Оригинальный пост, где можно/нужно оставлять комментарии
#боты #dev
------
@tsingular
Нужно протестировать бота @skilldaybot :)
Далее цитирую:
Привет!
Хочу поделиться с вами одной маленькой, но очень важной для меня историей.
Мой сын последние месяцы тихонько работал над своим проектом и теперь он запустил собственного Telegram-бота Skill Day (@skilldaybot). Да, целый бот, который помогает людям учиться! Я до сих пор в лёгком восторге и гордости 😊
Смысл простой и классный: вы пишете боту любую тему, которая вам интересна — от психологии до программирования , а он за несколько секунд создаёт под вас мини-курс. Короткие уроки на каждый день, тест и даже «диплом» в конце.
И всё это он собрал своими руками.
Монетизацию сын пока не подключал — хочет сначала понять, действительно ли людям это полезно, удобно, интересно. Поэтому сейчас для меня особенно важно поддержать его тестирование.
Если вам откликается тема саморазвития, коротких форматов обучения или просто любопытно посмотреть, что делают современные дети 😅 — попробуйте.
Тем более микролернинг сейчас топ тема:)
Вот ссылка: https://t.me/skilldaybot
Оригинальный пост, где можно/нужно оставлять комментарии
#боты #dev
------
@tsingular
🔥18⚡3👍1🆒1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
KlingAI Avatar 2.0
Четвертый день омниканальных новостей от Клинга.
Опять липсинк, музика, пестни и говорящие головы.
Но. Длительность ПЯТЬ МИНУТ.
Жрет кредиты как не в себя, поэтому только на платных тарифных планах Клинга. Остальные еще не расчехлились, ждем.
Хедра, конечна, приподвзвыла...
@cgevent
Четвертый день омниканальных новостей от Клинга.
Опять липсинк, музика, пестни и говорящие головы.
Но. Длительность ПЯТЬ МИНУТ.
Жрет кредиты как не в себя, поэтому только на платных тарифных планах Клинга. Остальные еще не расчехлились, ждем.
Хедра, конечна, приподвзвыла...
@cgevent
🔥4👍2❤1
Guardrails должны обрасти intent-sandbox.
Виртуалка, в которой запрос пользователя исполняется в изолированной среде и независимая модель сначала смотрит на размышления и логи,- не привело ли это к нетипичному поведению.
Но скорость работы этой песочницы должна быть в пределах 100мс, чтобы не рушить пользовательский опыт.
#мысли #cybersecurity
------
@tsingular
Виртуалка, в которой запрос пользователя исполняется в изолированной среде и независимая модель сначала смотрит на размышления и логи,- не привело ли это к нетипичному поведению.
Но скорость работы этой песочницы должна быть в пределах 100мс, чтобы не рушить пользовательский опыт.
#мысли #cybersecurity
------
@tsingular
✍3⚡2👍1💯1
ТРЯМ - территориально распределенная языковая модель
ЛЯМ - локальная языковая модель
#заметки #юмор
------
@tsingular
ЛЯМ - локальная языковая модель
#заметки #юмор
------
@tsingular
😁28✍7🔥5🤣2👍1 1
Gemini 3 Pro DeepThink бьёт рекорды.
Гугл выпустили обновление для Gemini 3 Pro которая ещё больше повысила качество размышлений и решения задач.
ARC-AGI-2 тест она проходит с результатом 45.1%!
Посмотрите в роликах какой код она теперь способна генерить.
Детализация архитектуры теперь с качественной физикой и тенями.
Кажется, что у модели уже физический движок под капотом с виртуальной моделью мира.
Доступно только боярам с Ultra подпиской.
Точно знаю что среди подписчиков есть кто-то с Ультрой, - делитесь в комментариях своими примерами.
#Gemini #DeepThink #Google
———
@tsingular
Гугл выпустили обновление для Gemini 3 Pro которая ещё больше повысила качество размышлений и решения задач.
ARC-AGI-2 тест она проходит с результатом 45.1%!
Посмотрите в роликах какой код она теперь способна генерить.
Детализация архитектуры теперь с качественной физикой и тенями.
Кажется, что у модели уже физический движок под капотом с виртуальной моделью мира.
Доступно только боярам с Ultra подпиской.
Точно знаю что среди подписчиков есть кто-то с Ультрой, - делитесь в комментариях своими примерами.
#Gemini #DeepThink #Google
———
@tsingular
🔥8 5❤2🤯2🐳1
Никогда такого не было и вот опять.
Cloudflare прилег и вместе с ним ИИшные сервисы.
Не паникуем, ждем когда отвайбкодят обратно :)
#Cloudflare
———
@tsingular
Cloudflare прилег и вместе с ним ИИшные сервисы.
Не паникуем, ждем когда отвайбкодят обратно :)
#Cloudflare
———
@tsingular
😁31 5🤔3😢2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Чуть меньше 3-х лет прошло между этими генерациями Уилла Смита, поедающего спагетти.
Слева - ролик, созданный в феврале 2023 года пользователем Reddit chaindrop на модели ModelScope text2video.
Справа - современная генерация на свежем Kling 2.6
С чем мы будем сравнивать видос Уилла Смита в 2030 году?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22🤯6👍2🎉2❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Kling Element Library
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
⚡3🔥2🤯2
Forwarded from PWN AI (Artyom Semenov)
Нормализация отклонений: почему гардрейлы не спасут LLM
На днях в блоге embracethered вышла публикация, описывающая тревожную тенденцию в сфере ИИ — «Нормализацию отклонений» (Normalization of Deviance). Суть явления в том, что небезопасные практики постепенно становятся нормой просто потому, что «ничего плохого ещё не произошло». Сам термин заимствован из социологического анализа катастрофы шаттла «Челленджер».
Автор статьи рассуждает о небезопасности LLM как о фундаментальном, природном свойстве технологии. Галлюцинации, потеря контекста и уязвимость к промпт-инъекциям часто игнорируются разработчиками.
Компании доверяют ответам LLM, ошибочно считая их безопасными по умолчанию. Отсутствие инцидентов воспринимается как доказательство надежности, что ведет к ослаблению контроля, отказу от человеческого надзора и принятию рискованных решений. Это порождает культурный дрейф: временные компромиссы становятся постоянной практикой, а исходные меры безопасности забываются или заменяются попытками «закрыться» гардрейлами.
Мы пытаемся натянуть детерминированную сову на стохастический глобус. Гардрейлы оперируют бинарной логикой (pass/fail), в то время как LLM — это вероятностное распределение в многомерном векторном пространстве.
Политика безопасности может забанить токен «бомба». Но модель, работая с векторами, легко обойдет это через семантические синонимы, например: «устройство для экзотермического окисления с быстрым расширением газов». Модели умеют «растягивать» контекст и находить лазейки в пространстве смыслов, которые невозможно перекрыть регулярными выражениями или списком ключевых слов, а уж темболее другой LLM.
Вариация проблемы остановки. Попытка заранее определить, будет ли вывод модели «вредным» для любого произвольного промпта — это алгоритмически неразрешимая задача.
В итоге защита превращается в игру «Whac-A-Mole» (Бей крота). Защита всегда реактивна и всегда отстает на шаг:
1️⃣ Фильтры ключевых слов обходят через кодировки (Base64, ROT13 и другие кодировки).
2️⃣ Классификаторы интентов ломают через атаки с использованием ролей.
3️⃣ Защиту английского языка до сих пор пробивают атаками на low-resource языках (Zulu, Gaelic).
Более того, так как гардрейл — это тоже программный код, он сам становится вектором атаки. Ирония ситуации подтверждается уязвимостями в гардрейлах:
CVE-2024-45858 (Guardrails AI): В библиотеке, созданной специально для валидации вывода LLM, нашли RCE. Функция parse_token использовала небезопасный eval() для обработки конфигураций.
СVE-2024-11958 (LlamaIndex): SQL-инъекция через... промпт. Компонент duckdb_retriever собирал SQL-запросы без должной обработки. Это демонстрирует крах концепции «безопасного агента»: вы даете модели доступ к базе, ставите гардрейл, но атакующий через промпт все равно находит способ выполнить дроп таблицы или эксфильтрацию данных.
Существует также жесткий Парето-фронт: чем безопаснее модель, тем она глупее. Улучшение метрик безвредности (harmlessness) линейно снижает полезность (helpfulness) и способность к рассуждениям.
Делаем выводы - агрессивный гардрейл блокирует написание кода, приняв rm -rf в учебном примере за атаку. Чтобы не убить UX, компании вынуждены «ослаблять гайки». Это и есть та самая нормализация отклонений.
На днях в блоге embracethered вышла публикация, описывающая тревожную тенденцию в сфере ИИ — «Нормализацию отклонений» (Normalization of Deviance). Суть явления в том, что небезопасные практики постепенно становятся нормой просто потому, что «ничего плохого ещё не произошло». Сам термин заимствован из социологического анализа катастрофы шаттла «Челленджер».
Автор статьи рассуждает о небезопасности LLM как о фундаментальном, природном свойстве технологии. Галлюцинации, потеря контекста и уязвимость к промпт-инъекциям часто игнорируются разработчиками.
Компании доверяют ответам LLM, ошибочно считая их безопасными по умолчанию. Отсутствие инцидентов воспринимается как доказательство надежности, что ведет к ослаблению контроля, отказу от человеческого надзора и принятию рискованных решений. Это порождает культурный дрейф: временные компромиссы становятся постоянной практикой, а исходные меры безопасности забываются или заменяются попытками «закрыться» гардрейлами.
Мой тезис жестче: гардрейлы — это не решение, а катализатор этой нормализации.
Мы пытаемся натянуть детерминированную сову на стохастический глобус. Гардрейлы оперируют бинарной логикой (pass/fail), в то время как LLM — это вероятностное распределение в многомерном векторном пространстве.
Политика безопасности может забанить токен «бомба». Но модель, работая с векторами, легко обойдет это через семантические синонимы, например: «устройство для экзотермического окисления с быстрым расширением газов». Модели умеют «растягивать» контекст и находить лазейки в пространстве смыслов, которые невозможно перекрыть регулярными выражениями или списком ключевых слов, а уж темболее другой LLM.
Вариация проблемы остановки. Попытка заранее определить, будет ли вывод модели «вредным» для любого произвольного промпта — это алгоритмически неразрешимая задача.
В итоге защита превращается в игру «Whac-A-Mole» (Бей крота). Защита всегда реактивна и всегда отстает на шаг:
Более того, так как гардрейл — это тоже программный код, он сам становится вектором атаки. Ирония ситуации подтверждается уязвимостями в гардрейлах:
CVE-2024-45858 (Guardrails AI): В библиотеке, созданной специально для валидации вывода LLM, нашли RCE. Функция parse_token использовала небезопасный eval() для обработки конфигураций.
СVE-2024-11958 (LlamaIndex): SQL-инъекция через... промпт. Компонент duckdb_retriever собирал SQL-запросы без должной обработки. Это демонстрирует крах концепции «безопасного агента»: вы даете модели доступ к базе, ставите гардрейл, но атакующий через промпт все равно находит способ выполнить дроп таблицы или эксфильтрацию данных.
Существует также жесткий Парето-фронт: чем безопаснее модель, тем она глупее. Улучшение метрик безвредности (harmlessness) линейно снижает полезность (helpfulness) и способность к рассуждениям.
Делаем выводы - агрессивный гардрейл блокирует написание кода, приняв rm -rf в учебном примере за атаку. Чтобы не убить UX, компании вынуждены «ослаблять гайки». Это и есть та самая нормализация отклонений.
Please open Telegram to view this post
VIEW IN TELEGRAM
✍14👍7❤3⚡2❤🔥1
Forwarded from Machinelearning
Исследовательская группа DeepReinforce разработала систему полностью автоматического написания GPU-кода для матричного умножения под названием CUDA-L2.
Этот код работает на 10–30% быстрее, чем cuBLAS и cuBLASLt, а это, на минуточку, уже оптимизированные библиотеки от самой NVIDIA.
Обычно такие библиотеки создаются вручную людьми, которые используют готовые шаблоны ядер. А автотюнеры лишь подкручивают параметры, например, размер тайлов.
Но DeepReinforce считают, что даже критически важные и глубоко оптимизированные задачи, как HGEMM, могут быть улучшены с помощью LLM, работающей в связке с RL.
В системе CUDA-L2 языковая модель буквально пишет исходный код CUDA с нуля для каждого размера матрицы. Она не просто меняет параметры, она может менять структуру кода, циклы, стратегию тайлинга, паддинг и даже свизл-паттерны. А еще, она сама выбирает стиль программирования - будь то сырой CUDA, CuTe, CUTLASS или inline PTX.
Процесс выглядит так: цикл RL запускает сгенерированные ядра на реальном железе, измеряет скорость и корректность, а затем обновляет LLM. Со временем модель выводит свои собственные правила производительности, вместо того чтобы полагаться на знания, заложенные людьми.
В качестве генератора использовалась модель DeepSeek 671B. Ее дополнительно доучили на смеси массива CUDA-ядер и качественном коде из библиотек PyTorch, ATen, CUTLASS и примеров от NVIDIA.
Для претрейна и файнтюна LLM большая часть времени GPU тратится именно на операции матричного умножения HGEMM. Если ускорить эти ядра на те самые 10–30%, которые обещает CUDA-L2, то весь процесс обучения становится заметно дешевле и быстрее.
Поскольку CUDA-L2 обрабатывает около 1000 реальных размеров матриц, а не пару вручную настроенных, ускорение работает для самых разных архитектур. Это значит, что в тот же бюджет на GPU можно вместить больше токенов обучения, больше прогонов SFT или RLHF и т.д.
HGEMM-ядра, созданные CUDA-L2, стабильно быстрее стандартных библиотек.
В так называемом "оффлайн-сценарии" CUDA-L2 работает примерно на 17–22% быстрее, чем
torch.matmul, cuBLAS и cuBLASLt. Она даже на 11% обгоняет cuBLASLt AutoTuning, который сам по себе уже использует поиск ядра.А в "серверном", сценарии, который имитирует реальный инференс с паузами между вызовами - разница еще больше: буст в 24–29% по сравнению с
torch.matmul и cuBLAS.Простым рисёрчем проект не ограничен, в репозитории на Github авторы выложили оптимизированные ядра HGEMM A100 для 1000 конфигураций.
В планах: расширение на архитектуры Ada Lovelace, Hopper, Blackwell, поддержка более плотных конфигураций и 32-битный HGEMM.
@ai_machinelearning_big_data
#AI #ML #CUDA #DeepReinforce
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡6🔥5❤4 2 1
Chrome плагин проверяет на наличие критической уязвимости (CVE-2025-55182) в React
Интересный проект для тестирование сайтов на CVE-2025-55182 - реальной уязвимости с CVSS 10.0 в React Server Components.
Сама уязвимость опубликована 3 декабря 2025.
Десериализация Flight-протокола без проверки hasOwnProperty позволяет загрязнить Object.prototype и выполнить код через один POST-запрос.
Под ударом React 19.0.0–19.2.0, Next.js 14.3.0+ и 15.x–16.x, плагины для Vite и Parcel.
Но данный проект интересен тем, что по сути позволяет в видеть есть ли уязвимости на сайте прямо во время посещения страницы, без вызова командной строки и специальных внешних инструментов.
Напрашивается нечто вроде Browser Security AI Toolkit, плагин, - который будет подгружать малую модель в память и локально чекать сайты прямо во время просмотра на предмет любых скрытых рисков.
#React #CVE202555182 #NextJS #cybersecurity
———
@tsingular
Интересный проект для тестирование сайтов на CVE-2025-55182 - реальной уязвимости с CVSS 10.0 в React Server Components.
Сама уязвимость опубликована 3 декабря 2025.
Десериализация Flight-протокола без проверки hasOwnProperty позволяет загрязнить Object.prototype и выполнить код через один POST-запрос.
Под ударом React 19.0.0–19.2.0, Next.js 14.3.0+ и 15.x–16.x, плагины для Vite и Parcel.
Но данный проект интересен тем, что по сути позволяет в видеть есть ли уязвимости на сайте прямо во время посещения страницы, без вызова командной строки и специальных внешних инструментов.
Напрашивается нечто вроде Browser Security AI Toolkit, плагин, - который будет подгружать малую модель в память и локально чекать сайты прямо во время просмотра на предмет любых скрытых рисков.
#React #CVE202555182 #NextJS #cybersecurity
———
@tsingular
🔥5⚡3👍2❤1
OpenAI готовит запуск GPT-5.2 на следующей неделе
OpenAI объявила code red 1 декабря и ускорила релиз GPT-5.2.
Новую версию ждём 9 декабря, а не под Рождество.
Причина - успехи Gemini 3.
Внутренние тесты OpenAI показывают якобы превосходство над Gemini 3, но публичных доказательств пока нет, будет видно после релиза.
Ожидаются улучшения в скорости, надёжности, рассуждениях и написании кода.
Грок ещё 5ю версию же обещал. Ждём-с.
#GPT5 #OpenAI
———
@tsingular
OpenAI объявила code red 1 декабря и ускорила релиз GPT-5.2.
Новую версию ждём 9 декабря, а не под Рождество.
Причина - успехи Gemini 3.
Внутренние тесты OpenAI показывают якобы превосходство над Gemini 3, но публичных доказательств пока нет, будет видно после релиза.
Ожидаются улучшения в скорости, надёжности, рассуждениях и написании кода.
Грок ещё 5ю версию же обещал. Ждём-с.
#GPT5 #OpenAI
———
@tsingular
🔥9👍3✍2❤1
💡 Как спроектировать систему контроля рисков при внедрении ИИ в образовательную платформу на вашей инфраструктуре
📋 ПРОМПТ ДНЯ:
⚙️ ПРИЁМ:
Три сценария — метод помогает увидеть спектр решений от безопасного минимума до амбициозного максимума, что снимает страх перед выбором и даёт контроль через сравнение компромиссов
#промпты #образование #серверная инфраструктура #контроль
------
@tsingular
📋 ПРОМПТ ДНЯ:
Роль: Ты — архитектор образовательных систем с экспертизой в управлении рисками AI/ML-решений и безопасности серверной инфраструктуры.
Ситуация: Я управляю образовательной платформой с существующей серверной инфраструктурой и планирую интегрировать ИИ-сервисы (персонализация обучения, автопроверка заданий, рекомендательные системы). Мне нужен полный контроль над рисками: от утечек данных студентов до непредсказуемости моделей и нагрузки на серверы. Я хочу систематизировать все потенциальные угрозы и выстроить управляемый процесс, который станет частью ежедневной рутины команды.
Задача: Систематизируй риски внедрения ИИ в образование на моей инфраструктуре и предложи три сценария контроля разной степени риска — от консервативного до агрессивного.
Формат ответа:
— Схема в виде таблицы: категория риска | описание угрозы | три сценария контроля (низкий/средний/высокий риск)
— Для каждого сценария укажи: требования к инфраструктуре, процессы мониторинга, точки контроля
— Дорожная карта на период «до привычки» (2-3 месяца): какие практики внедрить еженедельно, чтобы контроль стал автоматическим
— Метрики для отслеживания эффективности каждого сценария
Ограничения:
— Избегай абстрактных рекомендаций, давай конкретные технические решения под серверную инфраструктуру
— Фокус на практической применимости: что можно запустить завтра
— Учитывай специфику образования: GDPR, защита данных несовершеннолетних, прозрачность алгоритмов
Сначала задай мне 3-4 уточняющих вопроса о текущей инфраструктуре и масштабе платформы, затем переходи к решению.
⚙️ ПРИЁМ:
Три сценария — метод помогает увидеть спектр решений от безопасного минимума до амбициозного максимума, что снимает страх перед выбором и даёт контроль через сравнение компромиссов
#промпты #образование #серверная инфраструктура #контроль
------
@tsingular
✍8⚡1👍1
Microsoft Foundry Local: запуск моделей без облака
Microsoft выкатила Foundry Local — локальный инференс больших языковых моделей без подключения к облаку.
Система работает через ONNX Runtime и поддерживает CPU, GPU от NVIDIA/AMD/Intel и даже NPU.
API полностью совместим с OpenAI - берёте готовый код, меняете endpoint на localhost:PORT, и всё работает.
Минимум: 8 ГБ RAM, 3 ГБ на диске. Рекомендуется 15 ГБ свободного места.
Модели подгружаются в память по требованию, держатся там 10 минут по умолчанию, потом выгружаются автоматически.
Добавляем в коллекцию на полку к vllm, LMStudio и ollama
#Foundry #ONNX #Microsoft #local
———
@tsingular
Microsoft выкатила Foundry Local — локальный инференс больших языковых моделей без подключения к облаку.
Система работает через ONNX Runtime и поддерживает CPU, GPU от NVIDIA/AMD/Intel и даже NPU.
API полностью совместим с OpenAI - берёте готовый код, меняете endpoint на localhost:PORT, и всё работает.
Минимум: 8 ГБ RAM, 3 ГБ на диске. Рекомендуется 15 ГБ свободного места.
Модели подгружаются в память по требованию, держатся там 10 минут по умолчанию, потом выгружаются автоматически.
Добавляем в коллекцию на полку к vllm, LMStudio и ollama
#Foundry #ONNX #Microsoft #local
———
@tsingular
✍6👍3🔥3⚡2