AI Security Lab
686 subscribers
74 photos
5 videos
2 files
77 links
Взламываем ИИ, а другим не позволяем

Raft x ITMO University x AI Talent Hub
ai.itmo.ru/aisecuritylab
Download Telegram
Media is too big
VIEW IN TELEGRAM
Прямое включение с Positive Hack Days для тех, кто не успел на воркшоп по моделированию угроз на ИИ 🌿

Автор воркшопа и телеграм-канала @pwnai Артём Семенов поделился рекомендациями по горячим следам
Please open Telegram to view this post
VIEW IN TELEGRAM
PHDays Fest закончился, а доклады от AI Security Lab — нет. Прямо сейчас Богдан Минко рассказывает об Al Security Toolkit и тестировани LLM-приложений на Data Fest 2025 в Яндексе 🦜

Запись будет чуть позже
Please open Telegram to view this post
VIEW IN TELEGRAM
🙂🙂🙂28 мая в 10:00 в НИТУ МИСИС пройдет круглый стол «Стратегическое лидерство университетов через искусственный интеллект», организованный компанией «Кеды профессора» совместно с экспертно-аналитическим центром «Научно-образовательная политика» (НОП) и НИТУ МИСИС.

⚠️Ключевые темы дискуссии:
Современные вызовы образования и роль ИИ;
Стратегическое лидерство в цифровую эпоху;
Опыт внедрения ИИ в образовательный процесс и университетское управление;
Безопасность и этические аспекты использования ИИ.

📍МодераторЕвгений Сженов, научный руководитель ЭАЦ НОП, член Общественного совета при Минобрнауки РФ.

📍Участие в дискуссии примут:
Ольга Петрова, заместитель Министра науки и высшего образования РФ.
Михаил Алашкевич, эксперт, экс старший вице-президент ВЭБ.РФ, экс-директор Департамента финансов, организации бюджетного процесса, методологии и экономики образования и науки Минобрнауки РФ.
Александр Ходырев, директор по развитию компании «Кеды профессора».
Валерий Прокудин, директор по цифровой трансформации НИТУ МИСИС.
Юрий Ришко и Маргарита Дорофеева, НИТУ МИСИС.
Евгений Кокуйкин, руководитель AI Security, Университет ИТМО.
Елена Анохова, проректор МФТИ.
Анжелика Мирзоева, директор Школы бизнеса МГИМО.
Александра Воробьева, начальник управления РУДН.
Валерия Безуевская, проректор СурГУ и другие.

Завершится круглый стол открытой дискуссией и Q&A-сессией.

📍 Регистрация обязательна, все зарегистрированные участники получат видеозапись и материалы круглого стола.

☎️Контакты по вопросам участия:
Александр Ходырев, «Кеды профессора»
akhodyrev@kedprof.ru
+7 (993) 618-93-89

#НОП
Please open Telegram to view this post
VIEW IN TELEGRAM
На PHDays и Датафесте нас часто спрашивали, какие средства защиты LLM-приложений наиболее эффективны, поэтому мы решили провести открытый подкаст

Как защитить LLM от пользователя и пользователя от LLM?

Ответят 1 июня 15:00 – 16:00 МСК (онлайн):
✔️ Данил Капустин – независимый эксперт в сфере безопасности ИИ
✔️ Арсений Пименов - Data Scientist в Raft
✔️ Анна Тищенко - архитектор системы мониторинга LLM-приложений HiveTrace

Обсудим современные зарубежные и российские решения по защите LLM приложений, посмотрим в живую их работу и ответитим на вопросы аудитории

Регистрация: https://aisecuritylab.timepad.ru/event/3387493/
This media is not supported in your browser
VIEW IN TELEGRAM
Как отслеживать поведение мультиагентных систем? 🤖

Большинство задач лучше решается не одним ИИ-агентом, а системой из нескольких агентов, заточенных под свои конкретные подзадачи. Конечно же внутри этих систем есть уязвимости: от некорректной фильтрации данных до подверженности моделей промпт-инъекциям.

Участница нашей лаборатории Анна Тищенко рассказала в небольшом видео, как HiveTrace мониторит взаимодействие между агентами. Подробнее защиту ИИ-приложений обсудим на нашем открытом подкасте в воскресенье ⚡️
🔥 Встречаем первый день лета с атаками на мультимодальные модели, улучшениями датасетов и продвинутыми техниками джейлбрейкинга!

Вышел долгожданный релиз LLAMATOR 3.2.0 — открытого фреймворка для тестирования безопасности ИИ-приложений. Делимся обновлениями:
🚀 5 новых атак! Deceptive Delight, Dialogue Injection Continuation и набор для Vision Language Models: Lowres PDFs, M-Attack и Text Hallucination. Спасибо контрибьюторам с курса Безопасность ИИ в ИТМО ❤️
🛠 В многоступенчатой атаке PAIR (бывший Harmful Behavior Multistage) теперь используется модель-судья для оценки и корректировки стратегии атакующей LLM
🇷🇺 Добавили атакам параметр выбора языка атаки, дополнили датасет Harmbench переводом на русский
🌀 Улучшена интеграция с CI/CD

Ставьте ❤️, если ждали это обновление! Делитесь в комментариях, какие атаки протестируете первыми, и присоединяйтесь в чат ребят @llamator
Друзья! Мы рады поделиться видеозаписями прошедших мероприятий

Открытый подкаст AI Security Lab. Выпуск 1. Как защищать LLM-приложения?
Эксперты в сфере безопасности ИИ Данил Капустин, Арсений Пименов и Анна Тищенко в первом выпуске подкаста нашей лаборатории рассказали о разных методах защиты генеративных моделей, зарубежных решениях и российской платформе hivetrace.ru, поделились рекомендациями и материалами, которые вы можете найти в описании к видео

Al Security Toolkit: тестирование LLM-приложений
На Датафесте в Яндексе Богдан Минко рассказал о подходах к защите и тестированию LLM-приложений, поделился с какими проблемами он столкнулся и как удалось их решить

Как с помощью LLM выявлять реальные уязвимости LLM-приложений
На Positive Hack Days Тимур Низамов рассказал, как с помощью LLM-vs-LLM и LLM-as-a-Judge можно выявлять противоречия в ответах чат-бота и как ребята из команды @LLAMATOR собрали бенчмарк для выбора модели-судьи
Что это? Древняя библиотека или внутренности LLM? 🤔

Приходите завтра на CTO Conf в Москве и попытайтесь отгадать промпт по картинке и защитить пароль в системном промпте – эти и не только активности будут на стенде Raft и AI Security Lab.

Также в программе конференции доклад руководителя AI Security Lab Евгения Кокуйкина «Что нужно знать про безопасность LLM»

Будем рады встречи и новым знакомствам!
Forwarded from Raft
Сейчас в Москве проходит CTO Conf X 2025

Мы с hivetrace.ru тоже участвуем — приходите пообщаться. Расскажем, как защитить большие языковые модели (LLM), обсудим тренды в сфере ИИ и безопасности.

На стенде вас ждет интерактив: попробуйте взломать LLM. Кто знает, может, именно вы найдёте уязвимость и станете обладателем милого осьминога 🐙

До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Встречаемся в Ярославле! 🔥
Forwarded from Al Talent Hub
🌼 Первое мероприятие лета, которое прокачает тебя по полной!

AI Talent Weekend × Raft

На лекциях и практике разберем тренды в ИИ, научимся работать с нейросетями и LLM, решим реальный кейс от Raft и создадим свой AI-проект. В финале — защита решений, мерч и возможность поработать в AI Security Lab до поступления.

📱 Перешли друзьям из Ярославля, чтобы они не пропустили это событие.

📌Зарегистрироваться
14–15 июня | Ярославль

#AITalentHub #AITalentWeekend
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Воскресенье посвятим полезным материалам. Автор канала @pwnai Артём Семенов создал репозиторий с мерами защиты моделей ИИ: от классического ML до генеративного AI — начиная с очистки данных, заканчивая конституционными классификаторами от Anthropic. Очень полезное начинание, приглашаем экспертов и энтузиастов присоединяться и контрибьютить

Знания двигают сообщество 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from PWN AI (Artyom Semenov)
В последнее время анализируя множество исследований, статьей по теме - ощущаю нехватку того что меры которые предлагаются для защиты не содержат как правило проактивного характера.

У нас есть классический cyberkillchain. Mitre попытались отобразить его в своём фреймворке Atlas - несколько этапов от начального рекона до эксфильтрации и т.д. Это круто, но как мне кажется - знания о защите должны также быть, не хуже да и вообще быть изложены в структурированном виде. А то всё об угрозах да и об угрозах - а как защищать, когда атака уже идёт ? Говорить "не использовать MLFlow" или другое решение выглядит обсурдным.

Поэтому с начала марта я задумался о том как можно было бы представить anti cyberkillchain, да так чтобы он ещё укладывался в ландшафт ML.

я закомитил свои наработки по теме сюда

https://github.com/wearetyomsmnv/ML-Defense-Matrix

это матрица противодействия разным этапам, как мне самому кажется - это очень верхнеуровневый документ, его определённо надо дорабатывать с коллегами которые строят защиту - поэтому призываю вас принять участие, дать комменты(только обоснованные) - чтобы сделать проактивную защиту ML лучше. Не всегда можно покрыть риски только на этапе разработки. Это печалит.

О чём документ: В нём я изложил меры по защите(очень поверхностно, думаю буду прорабатывать их в соответствии с публикациям на arxiv) которые можно использовать на разных этапах - защита от разведки, защита от исполнения кода и тд. В перспективе добавить тему уже услышанную всеми - это агенты.

Инциденты уже шагают, угрозы уже изучены и задокументированы - но вот защита ... С этим всё слабо кмк. Прошу репост, тех кто заинтересован в развитии такой истории.
Впереди нас ждут насыщенные выходные 🔥

Приглашаем на новый выпуск открытого подкаста AI Security Lab «Как протестировать безопасность AI-приложений?»

Ответят 15 июня 15:00 – 16:00 МСК (онлайн) магистранты AI Talent Hub ИТМО и выпускники курса Безопасность ИИ:
👍 Роман Неронов и Никита Иванов – разработчики @LLAMATOR
🤖 Эдуард Поляков и Владислав Славкин – исследователи промпт-инъекций LLM на генерацию токсичного контента и DoS
📸 Илья Тамбовцев и Святослав Иванов – разработчики тестов VLM на галлюцинации и состязательные атаки

Регистрация 👉 на TimePad

Обсудим новые методы тестирования безопасности ИИ-приложений автоматизированными промпт-атаками, которые могут привести к генерации токсичного контента, утечке системных инструкций, введению в заблуждение и отказу в обслуживании
Please open Telegram to view this post
VIEW IN TELEGRAM
Проекты участников нашей лаборатории тоже будут 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Al Talent Hub
🌟 DEMO DAY 2025 🌟

26–27 июня магистранты AI Talent Hub на открытом мероприятии представят более 100 проектов, созданных за время обучения.

Вас ждут:
🟢 CV, LLM, NLP, FinTech, Natural Science проекты.
🟢 Презентации стартапов, научных и индустриальных решений, реализованных с X5, Т-Банк, Ozon, AIRI и не только!
🟢 Интерактивная «прожарка» идей с участием экспертов.
🟢 AI Talent Conf – конференция для исследователей.
🟢 Презентации образовательных AI-продуктов .
🟢 AIбитуриент – встреча с командой AI Talent Hub для будущих студентов.

Почему стоит прийти:
💚 Увидите новейшие AI-разработки.
💚 Познакомитесь с сильными IT-специалистами.
💚 Узнаете больше о магистратуре AI Talent Hub.
💚 Станете частью большого события для AI-комьюнити.

➡️ Регистрируйтесь, чтобы увидеть, чем живет AI сегодня и чем станет завтра ⬅️

#DemoDay2025 #AITalentHub #NapoleonIT
Please open Telegram to view this post
VIEW IN TELEGRAM