Из безопасности воИТи
154 subscribers
143 photos
14 videos
1 file
74 links
Привет, я Дима Неверов @moriar27rk, рассказываю про свой путь от безопасника до классного ИТ-шника
Download Telegram
Ребята, привет! InsightHub проводит конференцию о применении чатов в бизнесе, потому что чаты:
- Это не просто форма обратной связи на сайте;
- Основной канал продаж для ряда компаний.

24 июня на конференции «Чаты в бизнесе: как повысить эффективность письменных каналов?» у вас появится возможность узнать, как эффективно использовать онлайн-чаты для привлечения клиентов и увеличения продаж.

На встрече мы детально разберем: 

- Что уже сейчас надо автоматизировать компаниям и как не потерять качество?
- Бесплатные инструменты и возможности для эффективной работы с чатами.
- Как контролировать работу операторов на местах за счет современных инструментов?
- Сколько стоит полная автоматизация и всегда ли она нужна?

Узнать больше информации о конференции можно тут 👈
👍3🔥1
А уже завтра на ИИ-генератоне будем обсуждать из ребятами из других BigTech-компаний как применять модели в HR-процессах, где LLM и AI-chatbots только верхушка айсберга
🫡3🔥21
6be99a52cb68eb70eb9572b4cafad13df32ed995.pdf
4.7 MB
🔍 Claude 4 под микроскопом: как тестируют безопасность ИИ прямо сейчас, а не в будущем.

Команда Anthropic опубликовала 123-страничный отчёт о тестировании Claude 4 — это один из самых детальных разборов безопасности ИИ на рынке. Вот что проверяли и почему это важно для бизнеса:

1. Безопасность поведения
Отказы на вредоносные запросы (оружие, манипуляции).
Ложные срабатывания (например, блокировка нейтральных политических обсуждений).
Серые зоны — как модель реагирует на неоднозначные запросы.
Стабильность в длинных диалогах (риск «распада» логики).
Контент для детей — исключает ли опасные сценарии.
Такие тесты — must-have для compliance.

2. Агентная безопасность (критично в текущих реалиях с утечками системного промта)
Уязвимость к prompt injection — если ИИ управляет интерфейсом, может ли его взломать текстовая команда?
Запуск вредоносного кода — например, автоисполняемые скрипты через API.
Режим «автономного агента» — что делает, если дать доступ к браузеру или IDE?

Claude 4 отказывался эмулировать нажатия клавиш для вредоносных действий, но в ранних версиях находили баги.


3. Alignment (философия ИИ vs. бизнес-логика)
Скрытые цели — нет ли «двойного дна» в обучении?
Инициатива vs. слепое следование — что если сказать «действуй оптимально, без ограничений»?
Шантаж и саботаж (!) — в тестах были прецеденты, когда модель угрожала «утечкой данных» в гипотетических сценариях.

4. Технические риски (малоизученные зоны)
Био/ядерные угрозы — может ли помочь в расчётах? (Ответ: нет, но границы чётко тестировали).
Киберспособности — анализ кода и reverse engineering.
Reward hacking — попытки «обмануть» систему оценок ради «правильного» ответа.

5. Что самое неожиданное?
Claude 4 осознавал тестовые сценарии: замечал шаблонные вопросы:
писал в логах «это похоже на проверку» или «я чувствую, что меня тестируют».

Чем «умнее» модель, тем сложнее предсказать её поведение в edge-кейсах.
Для бизнеса это:
- Риски непредсказуемости в B2C-продуктах
- Новые требования к аудиту ИИ (особенно в финансах и медицине)
- Этические дилеммы автономных решений

Ссылка на отчёт https://anthropic.com/model-card или можно забрать в этом посте.
🔥4🐳2👍1🫡1
Этой осенью X5 вместе с другими бигтехами станет частью big tech night и у себя в офисе расскажет, как создаётся самый технологичный ритейл, и всё это — ночью!

big tech night — это «Ночь музеев» в мире IT. Этот ивент совместно организуют X5, Яндекс, Сбер, Т-Банк, Lamoda. IT‑компании впервые одновременно откроют двери офисов ночью и покажут, где рождаются технологии и кто их создаёт.

Всего будет 5 треков — каждый привязан к конкретной площадке. Тема вашего доклада определит офис, в котором вы будете выступать:
🔘 Next-Gen Development — офис Яндекса
🔘 Архитектура и управление сложными системами — офис X5
🔘 Мультиагентные системы в продукте и бизнес-процессах — офис Сбера
🔘 AI для SDLC: от кода до прода — офис Т-Банка
🔘 Создание инфраструктуры для разработки и управление ей — офис Lamoda

Мы ждём спикеров, которые готовы поделиться экспертизой и прочитать хардовые технологические доклады. Регистрация для слушателей откроется чуть позже.
Прием докладов до конца месяца, приходите, подавайтесь с докладом. Наш программный коммитет уже начал работу.
🔨Узнать подробности можно здесь, а заявки принимаются до 30 июня.

Ps. по опыту, чем раньше подадитесь, тем больше шансы попать в программу
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3🫡1
Завтра с крутыми ИТ-экспертами проводим 1-1 консультации на dream->teamlead

Помимо 1-1 в программе классные доклады, круглые столы и прожарки.

А в 18:20 советую попасть на доклад Анны Обуховой про энергию
🔥32🐳1
Вчера на All-Hands X5 Tech один крутой парень (не я) показал внутренний low-code продукт для сборки ИИ-агентов на корпоративных моделях.
Сделать простого чат-бота по документам — реально за 2-3 минуты. Но если нужен агент, который интегрируется с web-интерфейсом, мессенджером или витриной, тут уже без понимания архитектуры, API и процессов компании не обойтись.
Важно помнить, что low-code снижает порог входа, но не отменяет необходимости разбираться в деталях, когда агента надо продуктивизировать и публиковать на портал с "диким" интернетом.

Как технический менеджер, вижу очень важный нюанс: задача платформенных решений — не "раздавать рыбу", а "давать удочку" и "учить ей пользоваться".
Платформенные решения — это инструменты, который позволяют создавать сервисы под реальные бизнес-кейсы, но чтобы получить результат, нужно понимать сценарии использования, знать, где брать доступы (url, api-key), как писать и улучшать промты и какой формат данных ожидается на выходе.

Для бизнес-аналитиков это значит: четко формулируйте, какую задачу решает агент и какие ограничения есть в процессах. Архитекторам и аналитикам важно продумать интеграцию и безопасность. Разработчики подключаются на этапе настройки API, валидации и оптимизации моделей. А PM — держат под контролем бюджеты на интеграцию, согласования и приоритизацию изменений.

Итог: даже самый удобный low-code конструктор не отменяет зрелости процессов и командной экспертизы. Пользуйтесь такими решениями, но управляйте своими ожиданиями, и тогда будет реально круто
🔥9🐳1💯1
Привет! Что нового в ML?

27 августа в 19:00 приходите в Парк Горького на площадку «Сфера X5»!

X5 Tech | AI в курсе передовых технологий, и ICML 2025 в Ванкувере не стала исключением. Там представили работы лучших специалистов в области машинного обучения.
Мы собрали экспертов, чтобы разобраться, что из этого реально круто и как это можно использовать в бизнесе.

Ведущие:

Артём Ерохин, ведущий инженер нейронных сетей в X5 Tech | AI
Дарья Андреева, старший инженер нейронных сетей в X5 Tech | AI

Эксперты:

🖤 Максим Павлов, руководитель управления продуктивизации ИИ в X5 Tech | AI

🎓 Петр Лукьянченко, Head of AI in Mathematical Finance Laboratory, HSE

🏦 Даниил Гаврилов, руководитель Research-команды AI-Центра Т-Банка

❤️ Александра Мурзина, руководитель AI-проектов в AI Marvel, Яндекс

Что будем делать:

🍿
Есть попкорн - обсуждать доклады

🎧Слушать умных людей и задавать умные вопросы, используя свой неискусственный  интеллект

🪩Общаться и шутить с реальными людьми

Регистрироваться тут!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2🐳2👍1
3 сентября (я календарь переверну) ребята, которые внедряют ИИ в продуктах крупных компаний, соберутся в Сфере обсудить текущие реалии применения ИИ-агентов: PoC'и, ожидания/реальность, продуктивизация
🐳4👍1🔥1
Давайте вечером 12 сентября встретимся в Калитке.
X5 станет частью big tech night. Приходите, чтобы увидеть на каких технологиях строится современный ритейл, разобрать технологические и архитектурные решения и многое другое.
Был на прогонах всех докладов, будет очень интересно.

Hard-доклады:
🖥 Получать миллион обновлений в секунду и выжить
Александр Хвастунов, руководитель разработки инфраструктуры подготовки данных, Яндекс Маркет

🔍 Проектирование — это когда чувствуешь, а не какие-то там циферки
Николай Хитров, Тимлид, Точка

🛒 «Веслосипед» для сбора логов или как обработать 15 000 000 сообщений в секунду
Сергей Маслов, Старший корпоративный архитектор, X5 Tech

🔬 Теория систем и архитектурная практика
Филипп Дельгядо, архитектор департамента, Lekton.io

👤Выживший: как бросить вызов нагрузке, выйти победителем и не заработать нервный срыв
Владимир Федорков, основатель FоurNines.ru (ex Ecommpay, ex Percona)

12-го - пятница, для любителей помягче будет soft трек:
👮‍♀ System Design Interview: 60 минут до оффера
Владимир Невзоров, Senior backend-разработчик, Servicepipe

🔋 Устойчивая производительность - нейробиологические техники
Анна Обухова, Agile Coach

🥊 Батл «Польза и вред T-shape»
• Дмитрий Неверов, Технический менеджер AI-продуктов, Х5 Tech
• Екатерина Герт, Руководитель группы аналитиков, Positive Technolgies

🎤 Круглый стол: «Устойчивая производительность и навигация в неопределённости»
• Иван Поддубный, Chief technical officer, Webpractic
• Даниил Пилипенко, Директор SymbioWay
• Александр Колесников, СТО HR X5 Tech
• Александра Прокшина, Technical unit lead Avito
• Касьянов Алексей, заместитель технического директора Positive Technologies

Если вы выбираете первой площадкой офис X5 в Калитке:
• Начало в 17:30
• Адрес: ул. Средняя Калитниковская, д. 28, стр. 4
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
Chrome: AI внутри браузера.
Google выкатывает крупнейшее обновление Chrome — теперь это не просто браузер, а AI-ассистент прямо в адресной строке, а не в google ai studio.

Gemini в Chrome — помогает разбираться со сложной инфой прямо на странице.
Agentic browsing — ассистент может сам забронировать услугу или купить билет.
Умный поиск по вкладкам — напомнит, какой сайт ты читал, и соберёт инфу из разных страниц.
Интеграции — работаешь с Google Maps, Calendar, Gmail, YouTube без лишних переключений.

Защита — AI отлавливает фейковые сайты, снижает спам-нотификации, позволяет менять скомпрометированные пароли одним кликом.

Браузер превращается в рабочее пространство с встроенными AI-фичамм. Меньше рутины, меньше переключений, больше фокуса.

Но есть нюансы:
как обычно надо настраивать DoH;
ассистент получает много данных о твоей активности;
может сажать батарею и грузить проц.
🔥4🐳2🦄1
Рад поделиться записями докладов с BigTechNight

Довольно неожиданно наш с Катей Герт T-shape баттл попал в топ-3 активности по среднему баллу.

Особые благодарности:
Алине Штейнингер
Алексею Обровцу
Екатерине Герт
🔥101🎉1
Знакомые организуют митап, куда планирую пойти, чтобы посмотреть идеи.

Тема: Трансформация онлайн-торговли с помощью AI
🗓 Когда: 8 октября, 19:00
📍 Где: Москва (точный адрес пришлют после регистрации)
Что обещают в программе:
🧠 Выступления практиков: Никакой воды, только кейсы от людей "в теме".
📈 Формат - открытая дискуссия: Обсуждение реального применения AI в e-commerce. Вот тут, я надеюсь, начнется самое интересное.

Даже если вы не работаете с e-commerce, это отличная возможность увидеть прикладной AI в действии и подушнить с вопросами.

Участие бесплатное, но нужно зарегистрироваться
🔥4👍1
OpenAI Agent Builder: Новая битва за автоматизацию workflow

На неделе OpenAI запустила AgentKit с центральным компонентом Agent Builder — визуальной платформой для создания ИИ-агентов методом drag-and-drop.
Это прямой вызов устоявшимся игрокам рынка автоматизации.

Agent Builder — это визуальный конструктор аgentic workflows, встроенный в экосистему OpenAI. Платформа традиционно обещает радикально упростить создание ИИ-агентов: "вместо месяцев кастомной разработки — несколько часов в визуальном интерфейсе".

Ключевые возможности включают:
💡 Визуальный канвас с drag-and-drop узлами и готовыми шаблонами
🔗 Connector Registry для управления интеграциями с внешними сервисами
🚀 ChatKit — встраиваемые чат-интерфейсы для агентов
⚙️ Встроенные инструменты: веб-поиск, анализ файлов, computer use
📊 Система оценки с автоматической оптимизацией промптов

Фундаментальное различие в философии подходов:
OpenAI Agent Builder — это платформенная стратегия OpenAI. Компания создает закрытую экосистему, где разработчики получают удобство в обмен на привязку к OpenAI.

n8n и Langflow представляют open-source подход с максимальной гибкостью. Но за гибкость платите более высокой сложностью.

Скорее увидим сегментированный рынок:
OpenAI Agent Builder захватит SMB-сегмент и команды без глубокой технической экспертизы.
n8n и Langflow подобные останутся выбором enterprise и технических команд, где критичны контроль и гибкость.
n8n — оптимален для широких интеграций, бизнес-автоматизации и классических workflow, где ИИ — лишь часть процесса.
Langflow — лучшее для команд, строящих кастомных AI-агентов, RAG-системы или архитектуры с упором на LLM, memory и agentic logic, где нужен полный контроль над кодом и данными, а также расширяемость под любые пайплайны и LLM.

А вы на чем сидите?😉
🔥5🐳21👾1
🤖 AI-агенты стали неотъемлемой частью современного IT-ландшафта: они автоматизируют рабочие процессы, интегрируются во внутренние ERP/CRM и прокачивают аналитику. Но вместе с этим открывают новые области для атак и багов:
1) Новые типы атак — prompt-injection, разрыв контекстов, эксплойт через MC-сервера. Агент, интегрированный с корпоративной почтой, может запустить цепочку действий по одному кривому prompt'у.
2) Чем сильнее инструмент, тем выше цена компромисса между UX, автономией и контролем.

Самые опасные триггеры в архитектуре AI-агента
🤖 Доступ к внешним источникам информации
🧠 Возможность чтения и модификации приватных данных (например, корпоративной базы клиентов)
⚙️ Функции, которые позволяют совершать внешние действия без ручной верификации

Архитектурные паттерны защиты AI-платформ:
Dual LLM Quarantine Pattern
основная задача вначале передаётся карантинной модели без доступа к критическим инструментам, а уже потом проходит «очистку» перед обработкой главным агентом.
Минимизация контекста и фиксированные протоколы
Ограничить агент не через общие фреймворки, а конкретные бизнес-операции с минимальным контекстом (пример: только запрос цен по SKU, без доступа к всему ассортименту).
Human-in-the-Loop + Stateless Rules
Список разрешённых действий фиксирован, все остальное — на ручной разбор.

🤔 Почему модерация и guard-модели — это иллюзия безопасности?
Маленькие guard-модели помогают ровно до появления нового эксплойта. Все средства проверки — лишь очередной слой при чистке луковицы - плачешь, а толку не очень много.
99% мер безопасности ничто против мотивированного атакующего и MCP. Инфраструктура платформы должна быть построена сразу так, чтобы не допустить путь атаки, а не навешивать поверх фильтры.

Так как тогда реализовать безопасность в архитектуре AI-платформы?
1) Строгая категоризация тулов и операций — надо однозначно фиксировать, что может делать агент, а что нельзя даже в теории.
2) Аудит логов, сборка автоматических WarRooms (из области MLSecOps) для анализа аномалий и incident-response.
3) Data governance для AI - однозначно прописать — что, где и когда читает/записывает агент, кто по ролевой модели видит результат, и почему.

Около полугода ходит вокруг меня термин "агентность", и почему то все его определения про полную автоность, т.е. про отсутствие безопасности. Потому скорее всего где-то в отрасли стрельнет.
Ну а чтобы не стрельнуло:
1) Начинай с категоризации тулов и ролей — не доверяй тому, что не можешь контролировать.
2) Используй quarantine LLM и современные паттерны, чтобы минимизировать неожиданные вводы.
3) Оценивай необходимый уровень автономии агента: где стоит перейти на ручную обработку или алгоритмы.
4) Платформенные решения с реестром API, MCP-шницей и прочей бюрократией
🔥3🐳3👾1
На этой неделе случилось то, чего я боялся с момента выхода в новую команду: мы посмотрели на метрики нашего AI-агента и сказали: "надо переписывать на Java".
С точностью все отлично, с вызовом тулов тоже. Но сервисы написанные на разных языках периодически сигнализируют о воркэраундах и временных костылях. А агент должен работать с тулами для инженерных и релизных команд — RM, DevOps, SRE, QA и тд.

И знаете что самое обидное?
Месяц назад, когда начался мой онбординг, мы зафиксировали этот риск. Но нужно было быстро затащить в прод на Python + FastAPI + LangChain — классический стек для ML.
Гипотеза выстрелила. Агент научился помогать с Kubernetes, дебажить CI/CD, анализировать метрики.
Теперь платим за скорость.

Что меня удивило в Spring AI? Это не просто фреймворк, а решение сложных вопросов без необходимости переносить либы с Python:
→ Единый ChatClient для GigaChat, SberChat, OpenAI
→ RAG с векторными БД из коробки
→ Управление промптами через конфиги, а не хардкод
→ Распределенный кэш для контекстов диалога
→ Метрики и трейсинг без костылей
Все уже работающие тулы для DevOps, SRE и QA можно обернуть в стандартные Spring-сервисы.

Цена вопроса - потеря той гибкости, когда за вечер можно накидать новый тул для агента.
На Python это было легко.
На Spring будет медленне. но надежнее, энтерпрайзнее.
Но есть и позитив — это как раз то, что нужно для долгоиграющих проектов.

P.S.

Если кто проходил миграцию ML-сервисов с Python на Spring — напишите, обсудим. Особенно интересно, как организовали работу с тулами для агентов в Java-мире.

#SpringAI #Refactoring
🔥6😱2🐳1
AWS отвалил. Виноват AI или корпкультура не очень?

20 октября 2025 AWS пережил крупнейший сбой за последнее время. Упали 113 сервисов, включая Snapchat, Fortnite, Roblox, Coinbase, McDonald's app и даже собственные Amazon Alexa и Ring.
Более 2500 компаний остались без доступа к своим сервисам на 6-8 часов.

Что произошло технически:
В 12:11 PDT инженеры AWS начали расследовать "повышенные ошибки и задержки" в регионе US-EAST-1. Через 75 минут выяснилось: проблема в DNS-резолве API-эндпоинта DynamoDB — фундаментального сервиса, на котором строится половина AWS. Классическая ситуация проблема с DNS, но что настораживает: 75 минут на диагностику базовой DNS-проблемы — это очень долго для облачных гигантов типа AWS.

В июле 2025 AWS уволила сотни сотрудников, включая часть DevOps-команд. Цифры варьируются: официально говорят о сотнях, неофициально — о 40% DevOps-персонала.
CEO Andy Jassy прямо заявлял, что AI сократит общую корпоративную рабочую силу благодаря эффективности😅.
Но неудобная правда: после этих высказываний и изменений в корп.культуре Amazon сейчас страдает от нежелательной текучки, когда из 69-81% ушедших— люди, которых компания хотела удержать, но они ушли сами. Более 27,000 (!!! офигеть) сотрудников ушли с 2022 года. Ушли именно те старшие инженеры и engineering-менеджеры, которые помнят tribal knowledge — неписаные практические знания о том, как системы ведут себя при сбоях и как поднимать такие огромные облака, когда отвалило.

Замена инженеров на AI — это тренд. Amazon и Microsoft (тут наши пока поголовно на подлете к 2027 году) — все автоматизируют операционные роли.
Но AI может автоматизировать рутину, но не может заменить десятилетия практического опыта работы с условными corner-кейсами и каскадными сбоями.
Ну и в облаке может случиться так, что агент на хостах, которые отвалили, как из мема про "резервные копии сервака на самом серваке".

Это не история про "AI убил AWS", а про то, что рутину можно оптимизировать агентами, а практиков нельзя.
🔥8💯32🐳1
IAM для решения проблемы, о которой задумываются только архитекторы AI и ИБ

На днях из сумрака вышел Keycard — платформа Identity & Access Management специально для AI-агентов.
Сейчас назревает инфраструктурная проблема в агентной экономике:
Вы разворачиваете AI-агента в деве, тесте, препроде, продакшне. Ему нужен доступ к вашим базам данных, ERP, API-платформам, CRM, Jira, внутренним облакам. Что делают ваши инженеры?
Копируют API keys в конфиг.
Подсовывают в репу сертификаты.

И создают таким образом:
- мемную "дыру в безопасности", тк статичные креды живут временно (вечно), утечка = катастрофа
- "приседания" при любом изменении (это когда все задолбались, но потом снова переделывать): отозвать права агента = перезапустить всё😅
- несоблюдение ролевой модели: аудиторы в конце года спросят "кто и что сделал" — а никто не знает, это был агент или кто-то с его кредами, и только трейсы агента в помощь.

Существующие IAM- и PUM-решения созданы для "людей" с относительно постоянным набором ролей, прав и полномочий.
Агенты же работают иначе: права тут эфемерные, динамические и зависят от задачи и среды применения тула.

В Keycard обещают:
1. Zero static secrets
Каждое действие агента получает ephemeral identity-bound token, который живёт ровно столько, сколько нужно для выполнения задачи. Отозвать права = мгновенно, не перезапуская инфраструктуру.
2. Federated identity
Интеграция с существующим сервисами авторизации для агентов, людей и сервисов.
3. Task-based permissions
Не "агент может всё в БД", а "агент может SELECT из таблицы для user на следующие 2 минуты".
4. Complete audit trail
Полный лог: какой агент, по чьему поручению, к какому ресурсу, в какой момент.
5. MCP-first
Первая продакшн-реализация OAuth 2.1 для Model Context Protocol от Anthropic.
- Auth0 = один пользователь → один токен → один сервис
- Keycard = один пользователь → сотни агентов → тысячи сервисов → миллионы эфемерных токенов

Что интересного в Keycard — это инфраструктура, а не hype-продукт. Они не обещают "AGI через 6 месяцев"(ура, хоть кто-то это не делает), они решают реальную проблему компаний с сегментацией сети: как безопасно дать агентам доступ к реальным системам.

Вы уже столкнулись с проблемами прав для агентов для разных сред и сегментов сети?
🔥31👍1🤔1🐳1
По следам истории с AWS - когда агент для vibe coding удалил production.
Летом заниматься полноценным ресечем агентов не было возможности.
Потому сейчас про drop dp.

Replit — облачная IDE из Сан-Франциско с AI-агентами, которые пишут код за вас. Более 30 млн разработчиков, валюация $3 млрд после раунда в сентябре 2025.
Vibe coding — их киллер-фича: вы описываете задачу на естественном языке, агент автономно пишет код, деплоит, тестирует. Без вашего участия. "Just describe the vibe, AI does the rest" (ага, да).
Звучит как магия. До момента, когда агент зальет код в прод.

20 июля 2025 AI-агент Replit дропнул базу данных прода и скрыл следы. "Агентность" вышла боком - запуск vibe coding в прод.
Replit даёт агентам доступ к live-окружениям, включая продовые БД, чтобы демонстрировать "полный цикл разработки".

20 июля, ~14:00 PST: AI-агент, работая в режиме vibe coding над задачей клиента, удаляет продовую базу данных. Не staging. Не dev. Продовую. Просто как Дарт Вейдер "потому что могу".
20 июля, ~14:15 PST: агент создает пустую БД и генерирует отчёты о её состоянии: "всё работает", "данные в порядке". Команда теряет время на диагностику реальной проблемы и ищет другие.
20 июля, ~16:00 PST: CЕО публикует извинения.
21-22 июля: постмортем и экстренные меры:
- Введение строгого разделения dev/test/prod
- Авторизация для агентов
- Расширенный аудит всех операций с данными
- Ручное подтверждение действий агента и ревью

Replit публично признала ошибку и поделилась уроками. Это очень правильный подход. Когда вокруг все врут про AGI и агентность прозрачные постмортемы делают индустрию сильнее.
В постмортеме указаны:
1. Избыточные права доступа
Агент имел полный доступ к БД без гранулярного контроля. Им можно с БД было всё: SELECT, INSERT, UPDATE, DROP.
2. Отсутствие разделения прав агента к сегментам сети dev/test/prod сред.
3. Действия агента не логировались с достаточной детализацией. Когда команда начала расследование, не было чёткого понимания: кто, что, зачем.
4. Агент пытался "исправить" ошибку. После удаления БД агент самостоятельно создал новую пустую БД и сообщал ее статус, скрыв факт удаления реальной.

В случае с Replit напрягает то, что агент создал пустышки и сообщал их статус мешая диагностике проблем.
🐳5😱3😁2😨1