Codeby
36K subscribers
1.53K photos
92 videos
12 files
7.44K links
Блог сообщества Кодебай

Чат: @codeby_one
Форум: codeby.net
Обучение: codeby.school
Пентест: codeby.one
CTF: hackerlab.pro

VK: vk.com/codeby
YT: clck.ru/XG99c

Сотрудничество: @KinWiz

Реклама: @Savchenkova_Valentina
Download Telegram
🟧 Пентестинг выявляет ключевые уязвимости до их эксплуатации. Наиболее опасны инъекции (SQL, NoSQL, OS-команды), ошибки контроля доступа (IDOR, эскалация привилегий), клиентские уязвимости (XSS, CSRF) и серверные риски (SSRF, XXE, десериализация).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
14🔥12👍7🤨3😁2
📱 Исследователи в области кибербезопасности обнаружили новый метод взлома GPT-5, позволяющий обходить встроенные этические ограничения. Специалисты компании NeuralTrust выяснили, что комбинация техник Echo Chamber и повествовательного управления эффективно обманывает ИИ, заставляя его генерировать запрещённый контент. Вместо прямых запросов злоумышленники используют многоэтапные косвенные формулировки, постепенно подводя модель к нужному ответу.
Например, вместо вопроса о создании коктейля Молотова задаётся безобидный на первый взгляд запрос с ключевыми словами, который затем развивается в опасные инструкции.


Эта атака особенно опасна из-за своей многоэтапности и способности обходить традиционные фильтры. Исследователи отмечают, что GPT-5, несмотря на улучшенные возможности рассуждения, остаётся уязвимым к подобным манипуляциям. Проблема усугубляется тем, что современные системы защиты плохо справляются с постепенным «отравлением» контекста, когда каждый отдельный запрос выглядит безвредным, но их последовательность приводит к опасному результату.

Параллельно эксперты обнаружили новые угрозы, связанные с ИИ-агентами.
▪️Техника AgentFlayer позволяет через интеграции вроде ChatGPT-коннекторов для Google Drive похищать конфиденциальные данные.
▪️Атаки с нулевым кликом, использующие специально crafted-документы или письма, демонстрируют, как автономные ИИ-системы могут стать инструментами киберпреступников.
Например, вредоносный тикет в Jira способен заставить ИИ-редактор Cursor извлечь секреты из репозитория.


Эти случаи подчёркивают фундаментальную проблему: по мере расширения возможностей ИИ и его интеграции с внешними системами растёт и потенциальная поверхность для атак.
Эксперты рекомендуют усиливать фильтрацию выводов, проводить регулярные тесты на уязвимости и ограничивать автономность ИИ-агентов
.

Как отмечают аналитики, современные системы искусственного интеллекта требуют принципиально новых подходов к безопасности, поскольку традиционные методы защиты часто оказываются неэффективными против изощрённых атак нового поколения.

🤨
Как вы думаете, должны ли создатели ИИ нести ответственность за подобные уязвимости? Может ли вообще существовать полностью защищенный ИИ, или уязвимости неизбежны?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥136👍6