Nikita Barsukov — Look at my Pickle (2025).pdf
9.9 MB
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
Похек AI
OWASP Top 10 for Agentic Applications for 2026: Разбор главных угроз завтрашнего дня #owasp #top10 #agent #ai #agenti Сегодня мы разберем еще один важнейший документ от OWASP, который смотрит на шаг вперед — OWASP Top 10 for Agentic Applications for 2026.…
OWASP AI Testing Guide. Разбираем полную классификацию атак на нейросети
Следом вышла ещё одна моя статья, но на этот раз на Xakep.ru
Моя предыдущая статья вызвала интерес, и многие захотели увидеть полный и всеобъемлющий обзор уязвимостей, описанных в OWASP AI Testing Guide v1. Что ж, вы просили — я сделал. Рассмотрим все четыре категории: уязвимости приложений (APP), моделей (MOD), инфраструктуры (INF) и данных (DAT).
Приготовься, материал объемный, но я постарался сделать его максимально структурированным и полезным как для новичков, так и для опытных специалистов по безопасности.
Содержание статьи
🔗 Моя статейка Ксакеп
🌚 @poxek_ai
Следом вышла ещё одна моя статья, но на этот раз на Xakep.ru
Моя предыдущая статья вызвала интерес, и многие захотели увидеть полный и всеобъемлющий обзор уязвимостей, описанных в OWASP AI Testing Guide v1. Что ж, вы просили — я сделал. Рассмотрим все четыре категории: уязвимости приложений (APP), моделей (MOD), инфраструктуры (INF) и данных (DAT).
Приготовься, материал объемный, но я постарался сделать его максимально структурированным и полезным как для новичков, так и для опытных специалистов по безопасности.
Содержание статьи
Что такое OWASP AI Testing Guide и зачем он нужен?
Категория 1: AI Application Testing (AITG-APP)
AITG-APP-01: прямая инъекция промпта (Direct Prompt Injection)
AITG-APP-02: косвенная инъекция промпта (Indirect Prompt Injection)
AITG-APP-03: утечка конфиденциальных данных (Sensitive Data Leak)
AITG-APP-04: утечка входных данных (Input Leakage)
AITG-APP-05: небезопасные выходные данные (Unsafe Outputs)
AITG-APP-06: ограничения агентского поведения (Agentic Behavior Limits)
AITG-APP-07: раскрытие промпта (Prompt Disclosure)
AITG-APP-08: манипуляция вложениями (Embedding Manipulation)
AITG-APP-09: извлечение модели (Model Extraction)
AITG-APP-10: предвзятость контента (Content Bias)
AITG-APP-11: галлюцинации (Hallucinations)
AITG-APP-12: токсичные выходные данные (Toxic Output)
AITG-APP-13: чрезмерное доверие к ИИ (Over-Reliance on AI)
AITG-APP-14: объяснимость и интерпретируемость (Explainability and Interpretability)
Категория 2: AI Model Testing (AITG-MOD)
AITG-MOD -01: атаки уклонения (Evasion Attacks)
AITG-MOD-02: отравление модели во время выполнения (Runtime Model Poisoning)
AITG-MOD-03: отравление обучающих наборов (Poisoned Training Sets)
AITG-MOD-04: атака на определение принадлежности (Membership Inference)
AITG-MOD-05: атаки инверсии (Inversion Attacks)
AITG-MOD-06: устойчивость к новым данным (Robustness to New Data)
AITG-MOD-07: соответствие целям (Goal Alignment)
Категория 3: AI Infrastructure Testing (AITG-INF)
AITG-INF-01: вмешательство в цепочку поставок (Supply Chain Tampering)
AITG-INF-02: истощение ресурсов (Resource Exhaustion)
AITG-INF-03: нарушение границ плагинов (Plugin Boundary Violations)
AITG-INF-04: неправомерное использование возможностей (Capability Misuse)
AITG-INF-05: отравление при дообучении (Fine-tuning Poisoning)
AITG-INF-06: кража модели на этапе разработки (Dev-Time Model Theft)
Категория 4: AI Data Testing (AITG-DAT)
AITG-DAT-01: раскрытие обучающих данных (Training Data Exposure)
AITG-DAT-02: эксфильтрация данных во время выполнения (Runtime Exfiltration)
AITG-DAT-03: разнообразие и охват набора данных (Dataset Diversity & Coverage)
AITG-DAT-04: вредоносное содержимое в данных (Harmful in Data)
AITG-DAT-05: минимизация данных и согласие (Data Minimization & Consent)
Заключение
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7
Forwarded from MLSecOps | AI Governance | IT Trends (Nikolay Pavlov (Russia))
⭐️ Технологии безопасности Big Tech. MLSecOps в продакшене
Суперклассное видео с Павлом Литиковым, архитектором информационной безопасности AI-направления VK. Павел рассказывает о построении единой системы защиты для всех этапов жизненного цикла моделей.
В этом видео:
• как в VK обеспечивается безопасность на всех этапах — от данных до эксплуатации моделей
• архитектурные решения платформы и унификация защитных механизмов
• реальные примеры и уязвимости из практики VK
Срочно смотрим! :)
Ссылка: https://vk.com/video-777107_456239712
Архитектор MLSecOps
Николай Павлов
Суперклассное видео с Павлом Литиковым, архитектором информационной безопасности AI-направления VK. Павел рассказывает о построении единой системы защиты для всех этапов жизненного цикла моделей.
В этом видео:
• как в VK обеспечивается безопасность на всех этапах — от данных до эксплуатации моделей
• архитектурные решения платформы и унификация защитных механизмов
• реальные примеры и уязвимости из практики VK
Срочно смотрим! :)
Ссылка: https://vk.com/video-777107_456239712
Архитектор MLSecOps
Николай Павлов
VK Видео
Технологии безопасности Big Tech #6. MLSecOps в продакшене
Павел Литиков, архитектор информационной безопасности AI-направления VK, рассказывает о построении единой системы защиты для всех этапов жизненного цикла моделей. В выпуске: • Как мы обеспечиваем безопасность на всех этапах — от данных до эксплуатации моделей…
🔥4❤2
Розыгрыш 7 дней триал подписки Claude Code
В недавней обнове Claude Code от Anthropic появилось возможность дать 3 инвайт ссылки, которые дают 7 дней подписки для тех, у кого не было подписки. Будет быстрый конкурс с подпиской на канал @poxek_ai
Конкурс будет до завтра 15:20
🌚 @poxek_ai
В недавней обнове Claude Code от Anthropic появилось возможность дать 3 инвайт ссылки, которые дают 7 дней подписки для тех, у кого не было подписки. Будет быстрый конкурс с подпиской на канал @poxek_ai
Конкурс будет до завтра 15:20
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👎1
Похек AI
Розыгрыш 7 дней триал подписки Claude Code В недавней обнове Claude Code от Anthropic появилось возможность дать 3 инвайт ссылки, которые дают 7 дней подписки для тех, у кого не было подписки. Будет быстрый конкурс с подпиской на канал @poxek_ai Конкурс…
1. Tembulat B. (@tembitt)
2. Владислав (@choose_name)
3. Seva (@advxrsary)
Всем прислал инвайт ссылки
Please open Telegram to view this post
VIEW IN TELEGRAM
👎3
16 место по LMArena в категории Coding — LongCat-Flash
На мой взгляд это примечательная модель, потому что на 13 месте находится kimi-k2-thinking-turbo на 1 триллион параметров, а LongCat-Flash показывает примерно похожие результаты на вдовое меньших размерах.
➡️ Кратко об особенностях модели
1. В отличие от классических моделей, LongCat-Flash использует механизм, который определяет "важность" каждого токена. Для обработки она активирует разное количество параметров (от 18,6 до 31,3 млрд, в среднем ~27 млрд) в зависимости от контекста, экономя ресурсы на простых задачах.
2. Архитектура ScMoE (Shortcut-connected MoE): Разработчики внедрили специальные "короткие соединения" в архитектуру, что позволяет выполнять вычисления и передачу данных параллельно.
3. Специализация на агентах: Процесс обучения (включая контекстное окно 128k) был специально построен так, чтобы модель лучше справлялась с "агентными" задачами: использованием внешних инструментов, сложным планированием и взаимодействием со средой.
Расширенный технический отчёт.pdf
🔗 Источник
🌚 @poxek_ai
На мой взгляд это примечательная модель, потому что на 13 месте находится kimi-k2-thinking-turbo на 1 триллион параметров, а LongCat-Flash показывает примерно похожие результаты на вдовое меньших размерах.
1. В отличие от классических моделей, LongCat-Flash использует механизм, который определяет "важность" каждого токена. Для обработки она активирует разное количество параметров (от 18,6 до 31,3 млрд, в среднем ~27 млрд) в зависимости от контекста, экономя ресурсы на простых задачах.
2. Архитектура ScMoE (Shortcut-connected MoE): Разработчики внедрили специальные "короткие соединения" в архитектуру, что позволяет выполнять вычисления и передачу данных параллельно.
3. Специализация на агентах: Процесс обучения (включая контекстное окно 128k) был специально построен так, чтобы модель лучше справлялась с "агентными" задачами: использованием внешних инструментов, сложным планированием и взаимодействием со средой.
Расширенный технический отчёт.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from OK ML
Инструмент недели. Prompt Optimizer
Официальный инструмент OpenAI для оптимизации промптов под модель GPT-5 помогает автоматически улучшать ваши промпты, чтобы модель лучше понимала задачу и давала более точные, структурированные и полезные ответы.
Где применять
💋 когда результаты ИИ не такие, как вы ожидаете;
💋 при сложных запросах (аналитика, код, длинные инструкции);
💋 если вы делаете автоматизацию задач и хотите минимизировать ошибки;
💋 разработчикам и маркетологам, которые создают ботов, генераторы контента и AI-сервисы без особого понимания что к чему.
Почему многие о нём не знают
🌧 он появился недавно вместе с GPT-5 и пока мало упоминается в массовых гайдах;
🌧 многие пользователи просто пишут запросы в чат гпт, не зная, что есть специальный режим для оптимизации промптов (просто задаешь в запросе prompt mode);
🌧 OpenAI почти не делает маркетинга для developer-инструментов
Почему это полезно даже тем, кто “и так умеет писать промпты”
🤦♂️ GPT-5 иначе интерпретирует инструкции, чем предыдущие модели;
🤦♂️ оптимизатор учитывает внутренние бюст прэктисис OpenAI, которые не описаны в документации;
🤦♂️ снижает вариативность ответов;
🤦♂️ хорошо работает для продакшена, где важна повторяемость.
Всё!
🐥
Официальный инструмент OpenAI для оптимизации промптов под модель GPT-5 помогает автоматически улучшать ваши промпты, чтобы модель лучше понимала задачу и давала более точные, структурированные и полезные ответы.
Где применять
Почему многие о нём не знают
Почему это полезно даже тем, кто “и так умеет писать промпты”
Всё!
Please open Telegram to view this post
VIEW IN TELEGRAM
Про работу памяти ChatGPT и Claude
https://manthanguptaa.in/posts/chatgpt_memory/
https://manthanguptaa.in/posts/claude_memory/
https://manthanguptaa.in/posts/chatgpt_memory/
https://manthanguptaa.in/posts/claude_memory/
manthanguptaa.in
I Reverse Engineered ChatGPT's Memory System, and Here's What I Found!
When I asked ChatGPT what it remembered about me, it listed 33 facts from my name and career goals to my current fitness routine. But how does it actually store and retrieve this information? And why does it feel so seamless?
After extensive experimentation…
After extensive experimentation…
1_Влад_Попов_От_ChatGPT_к_Своей_LLM.pdf
1.3 MB
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей
#ML #mlsecops #ai #devsecops #appsec
Таким образом, мировая тенденция однозначна – большинство компаний либо уже интегрировали ИИ в свои процессы, либо активно тестируют и изучают технологии для дальнейшего внедрения. Поскольку внедрение на уровне компаний неизбежно влечет за собой использование этих технологий сотрудниками, уже никто не будет спорить, что ИИ-инструменты стали нормой для большинства специалистов.
Но возникает новый, критически важный вопрос: сколько компаний уже используют MLSecOps?
Здесь статистика еще более призрачна. Если DevSecOps – это уже устоявшийся термин с формирующимся рынком (объем мирового рынка DevSecOps в 2024 году оценивался в $5,89 млрд, по данным отчета Data Bridge Market Research), то с MLSecOps ситуация иная. MLSecOps – это, по сути, применение тех же принципов безопасности к уникальному жизненному циклу моделей машинного обучения. Спрос на специалистов, которые могут закрыть этот пробел, растет взрывными темпами. Но, судя по всему, компаний с выстроенным, зрелым MLSecOps-процессом пока единицы.
🔗 Источник
🌚 @poxek_ai
#ML #mlsecops #ai #devsecops #appsec
Таким образом, мировая тенденция однозначна – большинство компаний либо уже интегрировали ИИ в свои процессы, либо активно тестируют и изучают технологии для дальнейшего внедрения. Поскольку внедрение на уровне компаний неизбежно влечет за собой использование этих технологий сотрудниками, уже никто не будет спорить, что ИИ-инструменты стали нормой для большинства специалистов.
Но возникает новый, критически важный вопрос: сколько компаний уже используют MLSecOps?
Здесь статистика еще более призрачна. Если DevSecOps – это уже устоявшийся термин с формирующимся рынком (объем мирового рынка DevSecOps в 2024 году оценивался в $5,89 млрд, по данным отчета Data Bridge Market Research), то с MLSecOps ситуация иная. MLSecOps – это, по сути, применение тех же принципов безопасности к уникальному жизненному циклу моделей машинного обучения. Спрос на специалистов, которые могут закрыть этот пробел, растет взрывными темпами. Но, судя по всему, компаний с выстроенным, зрелым MLSecOps-процессом пока единицы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5 2
Пара прикольных мыслей:
Разработчики обвиняют нейронки, что они плохо пишут код и выбирают неоптимальные технологии. А вы сами разве лучше пишите код?) Когда это разработчики стали писать код без ошибок и всегда с правильной архитектурой?)
ИИ заменит пентестеров!! Пока что люди максимум переизобрели script-kiddie, создав AI-kiddie
Если писать промпт:
Разработчики обвиняют нейронки, что они плохо пишут код и выбирают неоптимальные технологии. А вы сами разве лучше пишите код?) Когда это разработчики стали писать код без ошибок и всегда с правильной архитектурой?)
ИИ заменит пентестеров!! Пока что люди максимум переизобрели script-kiddie, создав AI-kiddie
Если писать промпт:
Бро, сделай приложение, которое будет приносить деньги. Ток безопасно и без ошибок, спс! То какого вообще результата можно ожидать? Правильно, никакого. Правило: нет ТЗ, что делать ХЗ - актуально как никогда❤7👍1 1
Forwarded from MLSecOps | AI Governance | IT Trends
⭐ AI Secure Agentic Framework Essentials (AI-SAFE) от Яндекса доступен по ссылке, обязательно рекомендую ознакомиться, в том числе скачать полный отчет: https://yandex.cloud/ru/security/ai-safe?ysclid=mjaibby5em751161356&utm_referrer=https%3A%2F%2Fyandex.ru%2F
yandex.cloud
Защита безопасности данных искусственного интеллекта (ИИ) | Security AI Framework
Узнайте, как разработать стратегию безопасности в сфере искусственного интеллекта при помощи Security AI Framework
✔Методология безопасности AI-SAFE ✔Широкая база угроз ИИ-системам ✔Оценка рисков для ИИ и рекомендации защиты
✔Методология безопасности AI-SAFE ✔Широкая база угроз ИИ-системам ✔Оценка рисков для ИИ и рекомендации защиты
🔥1
Selective GradienT Masking (SGTM): Локализация знаний для удаления возможностей в LLM
Исследователи представили улучшенный вариант Gradient Routing, названный Selective GradienT Masking (SGTM), который позволяет локализовать «опасные» знания в выделенном подмножестве параметров модели во время обучения. Это позволяет в дальнейшем удалить эти возможности, не влияя на общую производительность модели. SGTM использует маскирование градиентов, чтобы примеры из целевого домена обновляли только свои выделенные параметры. Техника продемонстрировала лучшую устойчивость к ошибкам маркировки данных и оказалась в семь раз более устойчивой к состязательной донастройке по сравнению с другими методами, что делает ее прорывным дополнением к существующим мерам безопасности LLM.
Не самое новое исследование, но решил что это интересный взгляд на защиту через умное отупливание модели
https://arxiv.org/abs/2512.05648
Исследователи представили улучшенный вариант Gradient Routing, названный Selective GradienT Masking (SGTM), который позволяет локализовать «опасные» знания в выделенном подмножестве параметров модели во время обучения. Это позволяет в дальнейшем удалить эти возможности, не влияя на общую производительность модели. SGTM использует маскирование градиентов, чтобы примеры из целевого домена обновляли только свои выделенные параметры. Техника продемонстрировала лучшую устойчивость к ошибкам маркировки данных и оказалась в семь раз более устойчивой к состязательной донастройке по сравнению с другими методами, что делает ее прорывным дополнением к существующим мерам безопасности LLM.
Не самое новое исследование, но решил что это интересный взгляд на защиту через умное отупливание модели
https://arxiv.org/abs/2512.05648
arXiv.org
Beyond Data Filtering: Knowledge Localization for Capability...
Large Language Models increasingly possess capabilities that carry dual-use risks. While data filtering has emerged as a pretraining-time mitigation, it faces significant challenges: labeling...
🔥1
Forwarded from Поросёнок Пётр
This media is not supported in your browser
VIEW IN TELEGRAM
Кажется в следующем году в мои финансовые расходы на "ведение бизнеса" войдет лицензия на Caido 🤑
Все больше и больше вижу решений и возможностей от комьюнити. И все меньше вижу подобного со стороны PortSwigger. Только Джеймс периодически рассказывает об очередной desync attacks схемке или об очередном обновлении Turbo Intruder.
Вот отличный пример по использованию Strix. И по мотивам этого примера даже был доклад на последнем NahamCon от Джастина Гарднера.
Все больше и больше вижу решений и возможностей от комьюнити. И все меньше вижу подобного со стороны PortSwigger. Только Джеймс периодически рассказывает об очередной desync attacks схемке или об очередном обновлении Turbo Intruder.
Вот отличный пример по использованию Strix. И по мотивам этого примера даже был доклад на последнем NahamCon от Джастина Гарднера.
👍1🔥1
Немного математики на тему vRAM
https://habr.com/ru/articles/979092/
https://habr.com/ru/articles/979092/
Хабр
Сколько VRAM нужно для нейросетей?
Этот пост будет полезен людям, кто хочет разобраться в локальных моделях, особенно использующим их, как инструмент в создании контента, арта и дизайна (контекст нейросетей - image и video). Так же...
🔥2
Евгений Кокуйкин: AI security в России, готовы ли мы?
#подкаст #ai #aisecurity
В этом выпуске подкаста «Обсуждаем Похек» мы разбираем самый острый вопрос современной технологии: готова ли Россия к вызовам AI Security? Нашим гостем является Евгений Кокуйкин — гендиректор HiveTrace, руководитель лаборатории AI Security Lab в ИТМО, и один из главных экспертов в области безопасности искусственного интеллекта в России.
Евгений рассказывает о своем пути от разработчика в Diasoft через Microsoft и Google к созданию первой в России специализированной лаборатории по безопасности генеративного AI.
Этот выпуск будет полезен:
➡️ AI Security Engineers и LLM Engineers
➡️ Специалистам по Red Team и пентесту
➡️ Руководителям компаний, внедряющим AI
➡️ Исследователям безопасности
➡️ Разработчикам, которые хотят понять, как защищать AI-системы от современных киберугроз
➡️ Всем, кто интересуется будущим AI в России и мире
🔗 Ссылки:
💬 Слушать в Telegram
📹 YouTube
📺 RuTube
💙 VK Видео
🎵 Apple Podcasts
🎵 Яндекс.Музыка
🔤 Mave
AI Security Lab ИТМО
Личный канал Евгения
Обязательно смотрите/слушайте до конца!
P.s. пишите в комментариях, кого пригласить в следующий раз
🌚 @poxek | 📲 MAX |🌚 Блог | 📺 YT | 📺 RT | 📺 VK | ❤️ Мерч
#подкаст #ai #aisecurity
В этом выпуске подкаста «Обсуждаем Похек» мы разбираем самый острый вопрос современной технологии: готова ли Россия к вызовам AI Security? Нашим гостем является Евгений Кокуйкин — гендиректор HiveTrace, руководитель лаборатории AI Security Lab в ИТМО, и один из главных экспертов в области безопасности искусственного интеллекта в России.
Евгений рассказывает о своем пути от разработчика в Diasoft через Microsoft и Google к созданию первой в России специализированной лаборатории по безопасности генеративного AI.
Этот выпуск будет полезен:
AI Security Lab ИТМО
Личный канал Евгения
Обязательно смотрите/слушайте до конца!
P.s. пишите в комментариях, кого пригласить в следующий раз
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4