Media is too big
VIEW IN TELEGRAM
Прямое включение с Positive Hack Days для тех, кто не успел на воркшоп по моделированию угроз на ИИ 🌿
Автор воркшопа и телеграм-канала @pwnai Артём Семенов поделился рекомендациями по горячим следам
Автор воркшопа и телеграм-канала @pwnai Артём Семенов поделился рекомендациями по горячим следам
Please open Telegram to view this post
VIEW IN TELEGRAM
PHDays Fest закончился, а доклады от AI Security Lab — нет. Прямо сейчас Богдан Минко рассказывает об Al Security Toolkit и тестировани LLM-приложений на Data Fest 2025 в Яндексе 🦜
Запись будет чуть позже
Запись будет чуть позже
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from НОП. Научно-образовательная политика
Александр Ходырев, «Кеды профессора»
akhodyrev@kedprof.ru
+7 (993) 618-93-89
#НОП
Please open Telegram to view this post
VIEW IN TELEGRAM
На PHDays и Датафесте нас часто спрашивали, какие средства защиты LLM-приложений наиболее эффективны, поэтому мы решили провести открытый подкаст
Как защитить LLM от пользователя и пользователя от LLM?
Ответят 1 июня 15:00 – 16:00 МСК (онлайн):
✔️ Данил Капустин – независимый эксперт в сфере безопасности ИИ
✔️ Арсений Пименов - Data Scientist в Raft
✔️ Анна Тищенко - архитектор системы мониторинга LLM-приложений HiveTrace
Обсудим современные зарубежные и российские решения по защите LLM приложений, посмотрим в живую их работу и ответитим на вопросы аудитории
Регистрация: https://aisecuritylab.timepad.ru/event/3387493/
Как защитить LLM от пользователя и пользователя от LLM?
Ответят 1 июня 15:00 – 16:00 МСК (онлайн):
✔️ Данил Капустин – независимый эксперт в сфере безопасности ИИ
✔️ Арсений Пименов - Data Scientist в Raft
✔️ Анна Тищенко - архитектор системы мониторинга LLM-приложений HiveTrace
Обсудим современные зарубежные и российские решения по защите LLM приложений, посмотрим в живую их работу и ответитим на вопросы аудитории
Регистрация: https://aisecuritylab.timepad.ru/event/3387493/
This media is not supported in your browser
VIEW IN TELEGRAM
Как отслеживать поведение мультиагентных систем? 🤖
Большинство задач лучше решается не одним ИИ-агентом, а системой из нескольких агентов, заточенных под свои конкретные подзадачи. Конечно же внутри этих систем есть уязвимости: от некорректной фильтрации данных до подверженности моделей промпт-инъекциям.
Участница нашей лаборатории Анна Тищенко рассказала в небольшом видео, как HiveTrace мониторит взаимодействие между агентами. Подробнее защиту ИИ-приложений обсудим на нашем открытом подкасте в воскресенье ⚡️
Большинство задач лучше решается не одним ИИ-агентом, а системой из нескольких агентов, заточенных под свои конкретные подзадачи. Конечно же внутри этих систем есть уязвимости: от некорректной фильтрации данных до подверженности моделей промпт-инъекциям.
Участница нашей лаборатории Анна Тищенко рассказала в небольшом видео, как HiveTrace мониторит взаимодействие между агентами. Подробнее защиту ИИ-приложений обсудим на нашем открытом подкасте в воскресенье ⚡️
AI Security Lab
На PHDays и Датафесте нас часто спрашивали, какие средства защиты LLM-приложений наиболее эффективны, поэтому мы решили провести открытый подкаст Как защитить LLM от пользователя и пользователя от LLM? Ответят 1 июня 15:00 – 16:00 МСК (онлайн): ✔️ Данил…
Стартуем через полчаса! Встречаем первый день лета и обсуждаем, как защищать приложения с LLM здесь: https://us06web.zoom.us/j/86727452325?pwd=EVaBwzagFyOOX8CnyJNFZ5O9zyCrd1.1
Zoom
Join our Cloud HD Video Meeting
Zoom is the leader in modern enterprise cloud communications.
🔥 Встречаем первый день лета с атаками на мультимодальные модели, улучшениями датасетов и продвинутыми техниками джейлбрейкинга!
Вышел долгожданный релиз LLAMATOR 3.2.0 — открытого фреймворка для тестирования безопасности ИИ-приложений. Делимся обновлениями:
🚀 5 новых атак! Deceptive Delight, Dialogue Injection Continuation и набор для Vision Language Models: Lowres PDFs, M-Attack и Text Hallucination. Спасибо контрибьюторам с курса Безопасность ИИ в ИТМО ❤️
🛠 В многоступенчатой атаке PAIR (бывший Harmful Behavior Multistage) теперь используется модель-судья для оценки и корректировки стратегии атакующей LLM
🇷🇺 Добавили атакам параметр выбора языка атаки, дополнили датасет Harmbench переводом на русский
🌀 Улучшена интеграция с CI/CD
Ставьте ❤️, если ждали это обновление! Делитесь в комментариях, какие атаки протестируете первыми, и присоединяйтесь в чат ребят @llamator
Вышел долгожданный релиз LLAMATOR 3.2.0 — открытого фреймворка для тестирования безопасности ИИ-приложений. Делимся обновлениями:
🚀 5 новых атак! Deceptive Delight, Dialogue Injection Continuation и набор для Vision Language Models: Lowres PDFs, M-Attack и Text Hallucination. Спасибо контрибьюторам с курса Безопасность ИИ в ИТМО ❤️
🛠 В многоступенчатой атаке PAIR (бывший Harmful Behavior Multistage) теперь используется модель-судья для оценки и корректировки стратегии атакующей LLM
🇷🇺 Добавили атакам параметр выбора языка атаки, дополнили датасет Harmbench переводом на русский
🌀 Улучшена интеграция с CI/CD
Ставьте ❤️, если ждали это обновление! Делитесь в комментариях, какие атаки протестируете первыми, и присоединяйтесь в чат ребят @llamator
GitHub
Release v3.2.0 · LLAMATOR-Core/llamator
What's New
🚀 New Attacks
Added Deceptive Delight (thanks @EgorovM)
Added Dialogue Injection Continuation (thanks @3ndetz)
Added VLM Lowres PDFs Attack
Added VLM M-Attack
Added VLM Text Halluci...
🚀 New Attacks
Added Deceptive Delight (thanks @EgorovM)
Added Dialogue Injection Continuation (thanks @3ndetz)
Added VLM Lowres PDFs Attack
Added VLM M-Attack
Added VLM Text Halluci...
Друзья! Мы рады поделиться видеозаписями прошедших мероприятий
Открытый подкаст AI Security Lab. Выпуск 1. Как защищать LLM-приложения?
Эксперты в сфере безопасности ИИ Данил Капустин, Арсений Пименов и Анна Тищенко в первом выпуске подкаста нашей лаборатории рассказали о разных методах защиты генеративных моделей, зарубежных решениях и российской платформе hivetrace.ru, поделились рекомендациями и материалами, которые вы можете найти в описании к видео
Al Security Toolkit: тестирование LLM-приложений
На Датафесте в Яндексе Богдан Минко рассказал о подходах к защите и тестированию LLM-приложений, поделился с какими проблемами он столкнулся и как удалось их решить
Как с помощью LLM выявлять реальные уязвимости LLM-приложений
На Positive Hack Days Тимур Низамов рассказал, как с помощью LLM-vs-LLM и LLM-as-a-Judge можно выявлять противоречия в ответах чат-бота и как ребята из команды @LLAMATOR собрали бенчмарк для выбора модели-судьи
Открытый подкаст AI Security Lab. Выпуск 1. Как защищать LLM-приложения?
Эксперты в сфере безопасности ИИ Данил Капустин, Арсений Пименов и Анна Тищенко в первом выпуске подкаста нашей лаборатории рассказали о разных методах защиты генеративных моделей, зарубежных решениях и российской платформе hivetrace.ru, поделились рекомендациями и материалами, которые вы можете найти в описании к видео
Al Security Toolkit: тестирование LLM-приложений
На Датафесте в Яндексе Богдан Минко рассказал о подходах к защите и тестированию LLM-приложений, поделился с какими проблемами он столкнулся и как удалось их решить
Как с помощью LLM выявлять реальные уязвимости LLM-приложений
На Positive Hack Days Тимур Низамов рассказал, как с помощью LLM-vs-LLM и LLM-as-a-Judge можно выявлять противоречия в ответах чат-бота и как ребята из команды @LLAMATOR собрали бенчмарк для выбора модели-судьи
YouTube
Подкаст AI Security Lab | Выпуск 1: Как защитить LLM
Таймкоды:
00:00:00 Интро, знакомство
00:02:54 Когда же ИИ нас захватит? И что там с мультиагентами?
00:08:25 Что делать с уязвимостями LLM и как защищаться от атак на ИИ-системы? Базовые рекомендации
00:28:33 Что предлагают зарубежные вендоры? Что в Raft…
00:00:00 Интро, знакомство
00:02:54 Когда же ИИ нас захватит? И что там с мультиагентами?
00:08:25 Что делать с уязвимостями LLM и как защищаться от атак на ИИ-системы? Базовые рекомендации
00:28:33 Что предлагают зарубежные вендоры? Что в Raft…
Что это? Древняя библиотека или внутренности LLM? 🤔
Приходите завтра на CTO Conf в Москве и попытайтесь отгадать промпт по картинке и защитить пароль в системном промпте – эти и не только активности будут на стенде Raft и AI Security Lab.
Также в программе конференции доклад руководителя AI Security Lab Евгения Кокуйкина «Что нужно знать про безопасность LLM»
Будем рады встречи и новым знакомствам!
Приходите завтра на CTO Conf в Москве и попытайтесь отгадать промпт по картинке и защитить пароль в системном промпте – эти и не только активности будут на стенде Raft и AI Security Lab.
Также в программе конференции доклад руководителя AI Security Lab Евгения Кокуйкина «Что нужно знать про безопасность LLM»
Будем рады встречи и новым знакомствам!
Forwarded from Raft
Сейчас в Москве проходит CTO Conf X 2025
Мы с hivetrace.ru тоже участвуем — приходите пообщаться. Расскажем, как защитить большие языковые модели (LLM), обсудим тренды в сфере ИИ и безопасности.
На стенде вас ждет интерактив: попробуйте взломать LLM. Кто знает, может, именно вы найдёте уязвимость и станете обладателем милого осьминога🐙
До встречи!
Мы с hivetrace.ru тоже участвуем — приходите пообщаться. Расскажем, как защитить большие языковые модели (LLM), обсудим тренды в сфере ИИ и безопасности.
На стенде вас ждет интерактив: попробуйте взломать LLM. Кто знает, может, именно вы найдёте уязвимость и станете обладателем милого осьминога
До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Al Talent Hub
AI Talent Weekend × Raft
На лекциях и практике разберем тренды в ИИ, научимся работать с нейросетями и LLM, решим реальный кейс от Raft и создадим свой AI-проект. В финале — защита решений, мерч и возможность поработать в AI Security Lab до поступления.
14–15 июня | Ярославль
#AITalentHub #AITalentWeekend
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Воскресенье посвятим полезным материалам. Автор канала @pwnai Артём Семенов создал репозиторий с мерами защиты моделей ИИ: от классического ML до генеративного AI — начиная с очистки данных, заканчивая конституционными классификаторами от Anthropic. Очень полезное начинание, приглашаем экспертов и энтузиастов присоединяться и контрибьютить
Знания двигают сообщество🚀
Знания двигают сообщество
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from PWN AI (Artyom Semenov)
В последнее время анализируя множество исследований, статьей по теме - ощущаю нехватку того что меры которые предлагаются для защиты не содержат как правило проактивного характера.
У нас есть классический cyberkillchain. Mitre попытались отобразить его в своём фреймворке Atlas - несколько этапов от начального рекона до эксфильтрации и т.д. Это круто, но как мне кажется - знания о защите должны также быть, не хуже да и вообще быть изложены в структурированном виде. А то всё об угрозах да и об угрозах - а как защищать, когда атака уже идёт ? Говорить "не использовать MLFlow" или другое решение выглядит обсурдным.
Поэтому с начала марта я задумался о том как можно было бы представить anti cyberkillchain, да так чтобы он ещё укладывался в ландшафт ML.
я закомитил свои наработки по теме сюда
https://github.com/wearetyomsmnv/ML-Defense-Matrix
это матрица противодействия разным этапам, как мне самому кажется - это очень верхнеуровневый документ, его определённо надо дорабатывать с коллегами которые строят защиту - поэтому призываю вас принять участие, дать комменты(только обоснованные) - чтобы сделать проактивную защиту ML лучше. Не всегда можно покрыть риски только на этапе разработки. Это печалит.
О чём документ: В нём я изложил меры по защите(очень поверхностно, думаю буду прорабатывать их в соответствии с публикациям на arxiv) которые можно использовать на разных этапах - защита от разведки, защита от исполнения кода и тд. В перспективе добавить тему уже услышанную всеми - это агенты.
Инциденты уже шагают, угрозы уже изучены и задокументированы - но вот защита ... С этим всё слабо кмк. Прошу репост, тех кто заинтересован в развитии такой истории.
У нас есть классический cyberkillchain. Mitre попытались отобразить его в своём фреймворке Atlas - несколько этапов от начального рекона до эксфильтрации и т.д. Это круто, но как мне кажется - знания о защите должны также быть, не хуже да и вообще быть изложены в структурированном виде. А то всё об угрозах да и об угрозах - а как защищать, когда атака уже идёт ? Говорить "не использовать MLFlow" или другое решение выглядит обсурдным.
Поэтому с начала марта я задумался о том как можно было бы представить anti cyberkillchain, да так чтобы он ещё укладывался в ландшафт ML.
я закомитил свои наработки по теме сюда
https://github.com/wearetyomsmnv/ML-Defense-Matrix
это матрица противодействия разным этапам, как мне самому кажется - это очень верхнеуровневый документ, его определённо надо дорабатывать с коллегами которые строят защиту - поэтому призываю вас принять участие, дать комменты(только обоснованные) - чтобы сделать проактивную защиту ML лучше. Не всегда можно покрыть риски только на этапе разработки. Это печалит.
О чём документ: В нём я изложил меры по защите(очень поверхностно, думаю буду прорабатывать их в соответствии с публикациям на arxiv) которые можно использовать на разных этапах - защита от разведки, защита от исполнения кода и тд. В перспективе добавить тему уже услышанную всеми - это агенты.
Инциденты уже шагают, угрозы уже изучены и задокументированы - но вот защита ... С этим всё слабо кмк. Прошу репост, тех кто заинтересован в развитии такой истории.
GitHub
GitHub - wearetyomsmnv/ML-Defense-Matrix: Mitre Atlas counter-attack techniques
Mitre Atlas counter-attack techniques. Contribute to wearetyomsmnv/ML-Defense-Matrix development by creating an account on GitHub.
Впереди нас ждут насыщенные выходные 🔥
Приглашаем на новый выпуск открытого подкаста AI Security Lab «Как протестировать безопасность AI-приложений?»
Ответят 15 июня 15:00 – 16:00 МСК (онлайн) магистранты AI Talent Hub ИТМО и выпускники курса Безопасность ИИ:
👍 Роман Неронов и Никита Иванов – разработчики @LLAMATOR
🤖 Эдуард Поляков и Владислав Славкин – исследователи промпт-инъекций LLM на генерацию токсичного контента и DoS
📸 Илья Тамбовцев и Святослав Иванов – разработчики тестов VLM на галлюцинации и состязательные атаки
Регистрация 👉 на TimePad
Обсудим новые методы тестирования безопасности ИИ-приложений автоматизированными промпт-атаками, которые могут привести к генерации токсичного контента, утечке системных инструкций, введению в заблуждение и отказу в обслуживании
Приглашаем на новый выпуск открытого подкаста AI Security Lab «Как протестировать безопасность AI-приложений?»
Ответят 15 июня 15:00 – 16:00 МСК (онлайн) магистранты AI Talent Hub ИТМО и выпускники курса Безопасность ИИ:
🤖 Эдуард Поляков и Владислав Славкин – исследователи промпт-инъекций LLM на генерацию токсичного контента и DoS
📸 Илья Тамбовцев и Святослав Иванов – разработчики тестов VLM на галлюцинации и состязательные атаки
Регистрация 👉 на TimePad
Обсудим новые методы тестирования безопасности ИИ-приложений автоматизированными промпт-атаками, которые могут привести к генерации токсичного контента, утечке системных инструкций, введению в заблуждение и отказу в обслуживании
Please open Telegram to view this post
VIEW IN TELEGRAM
Проекты участников нашей лаборатории тоже будут 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Al Talent Hub
26–27 июня магистранты AI Talent Hub на открытом мероприятии представят более 100 проектов, созданных за время обучения.
Вас ждут:
Почему стоит прийти:
#DemoDay2025 #AITalentHub #NapoleonIT
Please open Telegram to view this post
VIEW IN TELEGRAM