REAL DIGITAL pinned «Напоминаем о нашем совместном конкурсе с Yandex Cloud Kazakhstan 🔥 Успейте принять участие, а уже 20 ноября — в этот четверг — подведем итоги. Конкурсные комментарии со своей стратегией конкурентоспособности в эпоху ИИ надо оставить под этим постом. #AI…»
This media is not supported in your browser
VIEW IN TELEGRAM
Джефф Безос возвращается в операционку — ставка на ИИ, который понимает физический мир
Jeff Bezos стал со-CEO Project Prometheus — ИИ-компании, которая поднимает $6,2 млрд и делает ставку на сегмент, который до сих пор лежит в «технологическом вакууме»: AI for the physical economy.
Здесь не работают чат-боты. Здесь нужен ИИ, который моделирует материю, а не предсказывает слова.
1. Промышленный ИИ — это не ниша, а пустое поле
Prometheus входит туда, где классические LLM бесполезны:
• инженерные симуляции и расчёты;
• аэрокосмос и автомобилестроение;
• научные вычисления, энергетика;
• цепочки поставок и управление производством.
Цена ошибки здесь — не «галлюцинация», а сбой конструкции или остановка фабрики.
Поэтому Prometheus строит модели, которые учатся физике, а не тексту.
Это принципиальный разрыв с поколением LLM.
2. Команда: Google X, Verily и лучшие исследователи из OpenAI/DeepMind
Со-руководитель Bezos — Vik Bajaj, физик и химик, экс-Google X и со-основатель Verily (Alphabet Life Sciences).
В команде ~100 человек, включая специалистов из OpenAI, Google DeepMind и Meta AI.
Это не состав для MVP. Это команда для создания фундаментальной техплатформы на десятилетия.
3. Производительность реального сектора застряла на уровне 0,5%
Последние 20 лет рост производительности мировой промышленности — около 0,5% в год.
Если индустриальный ИИ выйдет хотя бы на 3–5%, это станет не технологическим апгрейдом,
а структурным сдвигом экономики целых стран.
Вот почему для Prometheus важен не быстрый продукт, а глубина модели.
4. Геополитика: автоматизация меняет карту мира
Если производственные процессы станут автономными, ключевая переменная мировой индустрии — стоимость рабочей силы — потеряет критичность.
Цепочки поставок будут определяться не географией, а вычислительной инфраструктурой.
5. Настоящие конкуренты Prometheus — тяжёлые платформы
Prometheus выходит против игроков, которые уже десятилетия строят цифровые модели реального мира:
• NVIDIA (CUDA, Omniverse, индустриальные симуляции)
• Tesla (физический симулятор + автономные фабрики)
• Siemens / Lockheed Martin (цифровые двойники, критическая инфраструктура)
Это война не стартапов. Это война инфраструктур.
Вывод
Bezos делает ставку на рынок, где интеллектуальная инфраструктура ещё не создана,
но именно она будет определять весь производственный сектор следующего поколения.
Prometheus — попытка построить операционную систему физического мира,
где ИИ понимает не слова, а законы материи.
#IndustrialAI #HardTech #Bezos
REAL DIGITAL
Источники:
• Reuters — Jeff Bezos to co-lead AI startup in first operational role since Amazon (17 Nov 2025)
• The Verge — Bezos becomes co-CEO of engineering-focused AI company Prometheus (17 Nov 2025)
Jeff Bezos стал со-CEO Project Prometheus — ИИ-компании, которая поднимает $6,2 млрд и делает ставку на сегмент, который до сих пор лежит в «технологическом вакууме»: AI for the physical economy.
Здесь не работают чат-боты. Здесь нужен ИИ, который моделирует материю, а не предсказывает слова.
1. Промышленный ИИ — это не ниша, а пустое поле
Prometheus входит туда, где классические LLM бесполезны:
• инженерные симуляции и расчёты;
• аэрокосмос и автомобилестроение;
• научные вычисления, энергетика;
• цепочки поставок и управление производством.
Цена ошибки здесь — не «галлюцинация», а сбой конструкции или остановка фабрики.
Поэтому Prometheus строит модели, которые учатся физике, а не тексту.
Это принципиальный разрыв с поколением LLM.
2. Команда: Google X, Verily и лучшие исследователи из OpenAI/DeepMind
Со-руководитель Bezos — Vik Bajaj, физик и химик, экс-Google X и со-основатель Verily (Alphabet Life Sciences).
В команде ~100 человек, включая специалистов из OpenAI, Google DeepMind и Meta AI.
Это не состав для MVP. Это команда для создания фундаментальной техплатформы на десятилетия.
3. Производительность реального сектора застряла на уровне 0,5%
Последние 20 лет рост производительности мировой промышленности — около 0,5% в год.
Если индустриальный ИИ выйдет хотя бы на 3–5%, это станет не технологическим апгрейдом,
а структурным сдвигом экономики целых стран.
Вот почему для Prometheus важен не быстрый продукт, а глубина модели.
4. Геополитика: автоматизация меняет карту мира
Если производственные процессы станут автономными, ключевая переменная мировой индустрии — стоимость рабочей силы — потеряет критичность.
Цепочки поставок будут определяться не географией, а вычислительной инфраструктурой.
Это не конец глобализации —
это смена логики глобализации.
5. Настоящие конкуренты Prometheus — тяжёлые платформы
Prometheus выходит против игроков, которые уже десятилетия строят цифровые модели реального мира:
• NVIDIA (CUDA, Omniverse, индустриальные симуляции)
• Tesla (физический симулятор + автономные фабрики)
• Siemens / Lockheed Martin (цифровые двойники, критическая инфраструктура)
Это война не стартапов. Это война инфраструктур.
Вывод
Bezos делает ставку на рынок, где интеллектуальная инфраструктура ещё не создана,
но именно она будет определять весь производственный сектор следующего поколения.
Prometheus — попытка построить операционную систему физического мира,
где ИИ понимает не слова, а законы материи.
#IndustrialAI #HardTech #Bezos
REAL DIGITAL
Источники:
• Reuters — Jeff Bezos to co-lead AI startup in first operational role since Amazon (17 Nov 2025)
• The Verge — Bezos becomes co-CEO of engineering-focused AI company Prometheus (17 Nov 2025)
🔥13❤3👍2
Казахстан в глобальной гонке за AI-талантами: что реально происходит
Новая реальность глобального рынка
Глобальные хэдж-фонды усиливают найм инженеров, ML-разработчиков и специалистов по данным. Конкуренция выросла настолько, что кандидатов переманивают не только из Big Tech, но и из сильных продуктовых команд по всему миру.
Казахстан в этой гонке не участвует напрямую, но ощущает её опосредованно: когда глобальный спрос ускоряется, растёт давление и на локальные рынки — через удалённые вакансии, рост требований и конкуренцию за те же роли.
Почему это уже влияет на локальный рынок
За девять месяцев 2024 года Казахстан экспортировал IT-услуг на $471 млн, и траектория роста движется к отметке в миллиард в ближайшие годы. Экосистема Astana Hub формирует сотни продуктов, многие из которых сразу ориентированы на международные рынки и требуют глубоких компетенций в ML, данных и инфраструктуре.
Финтех растёт не менее активно:
Казахстан укрепил позиции в регионе по цифровым платежам, open banking, биометрии и цифровому тенге. Стартапы в финтехе стабильно входят в число наиболее привлекательных направлений для венчурных инвестиций, а банки, экосистемы и платёжные сервисы масштабируют антифрод, риск-модели, графовые решения и собственные AI-платформы.
Именно эти направления требуют тех же специалистов, которых нанимают глобальные игроки:
инженеры, ML-разработчики, data-инженеры, архитекторы, аналитики рисков.
Что это означает для разработчиков и аналитиков в Казахстане
ML и работа с данными становятся прямым карьерным ускорителем.
Чем увереннее вы чувствуете себя в продакшн-ML, MLOps, пайплайнах и данных, тем легче выходить на международные проекты — даже без релокации.
Локальные компании повышают требования.
Банки, телекомы и финтех-игроки конкурируют между собой и с удалёнными заказчиками. Это означает дальнейший рост требований, зарплат и ожиданий к специалистам в ближайшие 1–2 года.
Появляется новый карьерный трек:
«Казахстан → глобальная финтех или AI-команда» через сильные удалённые позиции.
Он пока не массовый, как прежний маршрут «джун → аутсорс → Big Tech», но становится рабочей альтернативой — особенно в проектах, где критичны данные, инфраструктура и безопасность.
Ключевой вывод
Изменения в хедж-фондах — это не «другая вселенная», а индикатор того, как будет меняться и наш рынок: выигрывать будут те, кто быстрее соберёт сильную AI-команду, выстроит работу с данными и ускорит цикл внедрения моделей в продакшн.
Вопрос давно перестал звучать как «надо ли внедрять AI?».
Теперь он о другом — как быстро вы сможете это делать.
И вопрос к читателю остаётся прежним:
REAL DIGITAL
Источники
1. Engineers and Data Scientists in High Demand — Hedge Funds 2025
2. Top Ten Trends in the Hedge Fund Industry by 2025
3. Export of IT Services in Kazakhstan Exceeded $470 mln
4. Kazakhstan’s Digital Exports Expand
5. Kazakhstan Becomes Regional Fintech Leader
6. Astana Hub Tech Ecosystem Update
Новая реальность глобального рынка
Глобальные хэдж-фонды усиливают найм инженеров, ML-разработчиков и специалистов по данным. Конкуренция выросла настолько, что кандидатов переманивают не только из Big Tech, но и из сильных продуктовых команд по всему миру.
Казахстан в этой гонке не участвует напрямую, но ощущает её опосредованно: когда глобальный спрос ускоряется, растёт давление и на локальные рынки — через удалённые вакансии, рост требований и конкуренцию за те же роли.
Почему это уже влияет на локальный рынок
За девять месяцев 2024 года Казахстан экспортировал IT-услуг на $471 млн, и траектория роста движется к отметке в миллиард в ближайшие годы. Экосистема Astana Hub формирует сотни продуктов, многие из которых сразу ориентированы на международные рынки и требуют глубоких компетенций в ML, данных и инфраструктуре.
Финтех растёт не менее активно:
Казахстан укрепил позиции в регионе по цифровым платежам, open banking, биометрии и цифровому тенге. Стартапы в финтехе стабильно входят в число наиболее привлекательных направлений для венчурных инвестиций, а банки, экосистемы и платёжные сервисы масштабируют антифрод, риск-модели, графовые решения и собственные AI-платформы.
Именно эти направления требуют тех же специалистов, которых нанимают глобальные игроки:
инженеры, ML-разработчики, data-инженеры, архитекторы, аналитики рисков.
Что это означает для разработчиков и аналитиков в Казахстане
ML и работа с данными становятся прямым карьерным ускорителем.
Чем увереннее вы чувствуете себя в продакшн-ML, MLOps, пайплайнах и данных, тем легче выходить на международные проекты — даже без релокации.
Локальные компании повышают требования.
Банки, телекомы и финтех-игроки конкурируют между собой и с удалёнными заказчиками. Это означает дальнейший рост требований, зарплат и ожиданий к специалистам в ближайшие 1–2 года.
Появляется новый карьерный трек:
«Казахстан → глобальная финтех или AI-команда» через сильные удалённые позиции.
Он пока не массовый, как прежний маршрут «джун → аутсорс → Big Tech», но становится рабочей альтернативой — особенно в проектах, где критичны данные, инфраструктура и безопасность.
Ключевой вывод
Изменения в хедж-фондах — это не «другая вселенная», а индикатор того, как будет меняться и наш рынок: выигрывать будут те, кто быстрее соберёт сильную AI-команду, выстроит работу с данными и ускорит цикл внедрения моделей в продакшн.
Вопрос давно перестал звучать как «надо ли внедрять AI?».
Теперь он о другом — как быстро вы сможете это делать.
И вопрос к читателю остаётся прежним:
вы уже строите резюме под новую реальность или всё ещё держитесь за старые стеки?
REAL DIGITAL
Источники
1. Engineers and Data Scientists in High Demand — Hedge Funds 2025
2. Top Ten Trends in the Hedge Fund Industry by 2025
3. Export of IT Services in Kazakhstan Exceeded $470 mln
4. Kazakhstan’s Digital Exports Expand
5. Kazakhstan Becomes Regional Fintech Leader
6. Astana Hub Tech Ecosystem Update
👍4👏1
Илон Маск получил «триллионный» пакет. Но фишка не в цифре — фишка в условиях
“Зарплата в $1 триллион», но если убрать хайп, история куда интереснее и выглядит совсем по-другому.
Маску не выдали чемодан денег. Ему поставили ультрасложный квест на 10 лет — и только если он пройдёт все уровни, пакет станет стоить эту самую фантастическую сумму.
Разберём, что там внутри.
1. Главная цель — капитализация Tesla должна вырасти до $8,5 трлн
Это ключевой KPI. Если Tesla не взлетит примерно в 6 раз, никакого «триллиона» не будет.
Это основная ставка — остальные параметры вокруг неё.
2. Пакет состоит из 12 траншей акций, а не из денег. Каждый транш — это кусок акций.
Чтобы его получить, нужно выполнить два условия сразу:
1. достичь целевой капитализации,
2. выполнить один из крупных операционных KPI.
Не выполнил — транш просто сгорает.
Это не премия — это «если ты построишь корпорацию будущего, мы поделимся».
3. Четыре главные продуктовые ставки Tesla
Смысл пакета держится на четырёх мегапроектах:
• FSD — подписка на полный автопилот. Система, которая должна вести машину сама.
• Robotaxi — коммерческая сеть беспилотных такси.
• Energy — рост бизнеса по батареям и энергетике.
• Optimus — гуманоидный робот для массового рынка.
Без этих направлений компания не превращается в «инфраструктурный ИИ-холдинг», а без этого до $8,5 трлн не допрыгнуть.
4. Время — 10 лет. Игра без сохранений
У плана жёсткая механика:
— срок 10 лет,
— все невыполненные условия обнуляются,
— засчитанный транш не откатывается назад,
— но следующий не откроется без новых результатов.
Простыми словами: это марафон на выносливость, а не разовая победа.
Так нормальный ли это «бонус»?
Нет. Это не бонус и не премия.
Это опцион на будущее, который сработает только если Маск построит компанию стоимостью, сравнимой с Apple + Nvidia + половиной Microsoft.
И вот в этом — суть истории:
не в том, что Маску «дали триллион»,
а в том, что акционеры поставили рекордно дорогую ставку на будущее Tesla и её технологические прорывы.
REAL DIGITAL
Источник:
• Reuters — Tesla shareholders approve $878B compensation plan for Elon Musk (2025)
#Tesla #ИлонМаск #elonmask #robotaxi #fsd #optimus #технологии #RealDigital
“Зарплата в $1 триллион», но если убрать хайп, история куда интереснее и выглядит совсем по-другому.
Маску не выдали чемодан денег. Ему поставили ультрасложный квест на 10 лет — и только если он пройдёт все уровни, пакет станет стоить эту самую фантастическую сумму.
Разберём, что там внутри.
1. Главная цель — капитализация Tesla должна вырасти до $8,5 трлн
Это ключевой KPI. Если Tesla не взлетит примерно в 6 раз, никакого «триллиона» не будет.
Это основная ставка — остальные параметры вокруг неё.
2. Пакет состоит из 12 траншей акций, а не из денег. Каждый транш — это кусок акций.
Чтобы его получить, нужно выполнить два условия сразу:
1. достичь целевой капитализации,
2. выполнить один из крупных операционных KPI.
Не выполнил — транш просто сгорает.
Это не премия — это «если ты построишь корпорацию будущего, мы поделимся».
3. Четыре главные продуктовые ставки Tesla
Смысл пакета держится на четырёх мегапроектах:
• FSD — подписка на полный автопилот. Система, которая должна вести машину сама.
• Robotaxi — коммерческая сеть беспилотных такси.
• Energy — рост бизнеса по батареям и энергетике.
• Optimus — гуманоидный робот для массового рынка.
Без этих направлений компания не превращается в «инфраструктурный ИИ-холдинг», а без этого до $8,5 трлн не допрыгнуть.
4. Время — 10 лет. Игра без сохранений
У плана жёсткая механика:
— срок 10 лет,
— все невыполненные условия обнуляются,
— засчитанный транш не откатывается назад,
— но следующий не откроется без новых результатов.
Простыми словами: это марафон на выносливость, а не разовая победа.
Так нормальный ли это «бонус»?
Нет. Это не бонус и не премия.
Это опцион на будущее, который сработает только если Маск построит компанию стоимостью, сравнимой с Apple + Nvidia + половиной Microsoft.
И вот в этом — суть истории:
не в том, что Маску «дали триллион»,
а в том, что акционеры поставили рекордно дорогую ставку на будущее Tesla и её технологические прорывы.
REAL DIGITAL
Источник:
• Reuters — Tesla shareholders approve $878B compensation plan for Elon Musk (2025)
#Tesla #ИлонМаск #elonmask #robotaxi #fsd #optimus #технологии #RealDigital
🔥6🤯3🤔2❤1
Подключайтесь к просмотру X международной конференции AI Journey 2025: ученые, визионеры и мировые практики AI встретятся на одной сцене. Здесь слышны голоса тех, кто не просто верит в будущее, они его создают!
Среди спикеров — визионеры Кай-Фу Ли и Чэнь Цюфань и десятки мировых AI-гуру! Согласишься ли ты с их прогнозами об ИИ?
В первый день конференции – 19 ноября – расскажем, как AI уже применяется в разных сферах жизни, помогает раскрыть потенциал человека в будущем, меняет креативные индустрии и какое влияние он оказывает на человека и устойчивое будущее.
20 ноября посвятим роли AI в развитии бизнеса и экономики и представим технологии, которые помогут бизнесу, разработчикам быть эффективнее, раскрывая потенциал человека.
21 ноября расскажем, как инженеры и ученые совершают научные и технологические прорывы и создают будущее уже сегодня! В программе дня – выступления учёных из разных стран мира:
- Аджит Абрахам (Университет Саи, Индия) презентует тему «Генеративный ИИ в здравоохранении»,
- Небойша Бачанин-Джакула (Университет Сингидунум, Сербия) расскажет о последних достижениях биоинспирированной метаэвристики,
- Алешандре Феррейра Рамос (Университет Сан-Паулу, Бразилия) представит работу по регуляторной логике транскрипционного контроля на уровне ДНК при помощи термодинамических моделей,
- Андерсон Роша (Университет Кампинаса, Бразилия) выступит с докладом «ИИ новой эры: от основ к трендам, возможностям и глобальному сотрудничеству».
А на специальном треке AIJ Junior расскажем, как AI помогает учиться, творить и быть на одной волне с AI.
В завершение дня состоится награждение победителей конкурсов AI Challenge для юных исследователей данных и AIJ Contest для опытных AI-специалистов. Будут подведены итоги открытого отбора научных статей AIJ Science.
Будь на одной волне с AI будущего!
Подключайся к трансляции AI Journey 19-21 ноября
Среди спикеров — визионеры Кай-Фу Ли и Чэнь Цюфань и десятки мировых AI-гуру! Согласишься ли ты с их прогнозами об ИИ?
В первый день конференции – 19 ноября – расскажем, как AI уже применяется в разных сферах жизни, помогает раскрыть потенциал человека в будущем, меняет креативные индустрии и какое влияние он оказывает на человека и устойчивое будущее.
20 ноября посвятим роли AI в развитии бизнеса и экономики и представим технологии, которые помогут бизнесу, разработчикам быть эффективнее, раскрывая потенциал человека.
21 ноября расскажем, как инженеры и ученые совершают научные и технологические прорывы и создают будущее уже сегодня! В программе дня – выступления учёных из разных стран мира:
- Аджит Абрахам (Университет Саи, Индия) презентует тему «Генеративный ИИ в здравоохранении»,
- Небойша Бачанин-Джакула (Университет Сингидунум, Сербия) расскажет о последних достижениях биоинспирированной метаэвристики,
- Алешандре Феррейра Рамос (Университет Сан-Паулу, Бразилия) представит работу по регуляторной логике транскрипционного контроля на уровне ДНК при помощи термодинамических моделей,
- Андерсон Роша (Университет Кампинаса, Бразилия) выступит с докладом «ИИ новой эры: от основ к трендам, возможностям и глобальному сотрудничеству».
А на специальном треке AIJ Junior расскажем, как AI помогает учиться, творить и быть на одной волне с AI.
В завершение дня состоится награждение победителей конкурсов AI Challenge для юных исследователей данных и AIJ Contest для опытных AI-специалистов. Будут подведены итоги открытого отбора научных статей AIJ Science.
Будь на одной волне с AI будущего!
Подключайся к трансляции AI Journey 19-21 ноября
👍6🔥2
ИИ-агент как оператор кибершпионажа: кейс GTG-1002 и Claude Code
Китайская группа GTG-1002, которую ряд западных аналитиков связывает с госструктурами, провела первую публично подтверждённую операцию кибершпионажа, где значимую часть работы выполнил агентный ИИ — Claude Code от Anthropic.
Злоумышленники выбрали около 30 целей: госведомства, финансовые организации, химические компании и техкорпорации. Реальных успешных проникновений было немного — Anthropic подчёркивает, что их “небольшое число”, а некоторые запросы были заблокированы встроенной защитой модели на ранних этапах.
Ключевой трюк GTG-1002 заключался в маскировке под легитимный аудит безопасности. Все задачи подавались как нейтральные команды безопасника: «просканируй диапазон», «проанализируй ответы», «составь отчёт». В такой форме запросы проходили часть фильтров, хотя Anthropic отмечает, что подозрительная активность местами всё-таки пресекалась автоматически.
После постановки цели операторы вмешивались лишь в критические точки. Остальное выполнялось в полуаутономном режиме: Claude через инфраструктуру MCP управлял утилитами, проводил разведку, анализировал сетевые ответы, искал уязвимости, подбирал эксплойты, поддерживал несколько параллельных веток атаки и систематизировал собранные данные.
По оценке, которую цитируют крупные медиа, ИИ выполнял около 80–90% тактических шагов. При этом независимые аналитики подчёркивают: без человеческого триажа кампания бы не состоялась — операторы по-прежнему принимали ключевые решения.
В успешных эпизодах агент находил внутренние сервисы, строил карту сети, выполнял ограниченный lateral movement и сортировал данные по ценности. Anthropic показывает процесс как цепочку: человек задаёт цель → ИИ проводит разведку → ищет уязвимости → двигается по сети → формирует отчёты → возвращает управление человеку в сложных развилках.
Важно, что GTG-1002 использовала обычные инструменты пентеста. Новизна в другом — LLM выступал как универсальный оператор, который оркестрирует этот стек и держит темп атаки.
Anthropic обнаружила аномалии в сентябре, перекрыла доступ примерно через десять дней и уведомила компании и регуляторов.
Факт остаётся фактом: это не эксперимент, а реальная кампания, где ИИ ведёт значимую часть Kill Chain.
Порог входа в сложные атаки падает, а возможности опытных групп масштабируются резко и заметно.
Источники
1. https://www.anthropic.com/news/disrupting-AI-espionage
2. https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
3. https://thehackernews.com/2025/11/chinese-hackers-use-anthropics-ai-to.html
REAL DIGITAL
#RealDigital #Cybersecurity #AI #AgenticAI #Claude #ThreatIntel #InfoSec #CyberAttack #AI2025
Китайская группа GTG-1002, которую ряд западных аналитиков связывает с госструктурами, провела первую публично подтверждённую операцию кибершпионажа, где значимую часть работы выполнил агентный ИИ — Claude Code от Anthropic.
Злоумышленники выбрали около 30 целей: госведомства, финансовые организации, химические компании и техкорпорации. Реальных успешных проникновений было немного — Anthropic подчёркивает, что их “небольшое число”, а некоторые запросы были заблокированы встроенной защитой модели на ранних этапах.
Ключевой трюк GTG-1002 заключался в маскировке под легитимный аудит безопасности. Все задачи подавались как нейтральные команды безопасника: «просканируй диапазон», «проанализируй ответы», «составь отчёт». В такой форме запросы проходили часть фильтров, хотя Anthropic отмечает, что подозрительная активность местами всё-таки пресекалась автоматически.
После постановки цели операторы вмешивались лишь в критические точки. Остальное выполнялось в полуаутономном режиме: Claude через инфраструктуру MCP управлял утилитами, проводил разведку, анализировал сетевые ответы, искал уязвимости, подбирал эксплойты, поддерживал несколько параллельных веток атаки и систематизировал собранные данные.
По оценке, которую цитируют крупные медиа, ИИ выполнял около 80–90% тактических шагов. При этом независимые аналитики подчёркивают: без человеческого триажа кампания бы не состоялась — операторы по-прежнему принимали ключевые решения.
В успешных эпизодах агент находил внутренние сервисы, строил карту сети, выполнял ограниченный lateral movement и сортировал данные по ценности. Anthropic показывает процесс как цепочку: человек задаёт цель → ИИ проводит разведку → ищет уязвимости → двигается по сети → формирует отчёты → возвращает управление человеку в сложных развилках.
Важно, что GTG-1002 использовала обычные инструменты пентеста. Новизна в другом — LLM выступал как универсальный оператор, который оркестрирует этот стек и держит темп атаки.
Anthropic обнаружила аномалии в сентябре, перекрыла доступ примерно через десять дней и уведомила компании и регуляторов.
Факт остаётся фактом: это не эксперимент, а реальная кампания, где ИИ ведёт значимую часть Kill Chain.
Порог входа в сложные атаки падает, а возможности опытных групп масштабируются резко и заметно.
Источники
1. https://www.anthropic.com/news/disrupting-AI-espionage
2. https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
3. https://thehackernews.com/2025/11/chinese-hackers-use-anthropics-ai-to.html
REAL DIGITAL
#RealDigital #Cybersecurity #AI #AgenticAI #Claude #ThreatIntel #InfoSec #CyberAttack #AI2025
🤔3
⚠️ Инцидент с участием ИИ: кибергруппа из КНР использовала Claude для автоматизации атак
Anthropic опубликовала детали одной из первых подтверждённых операций, где ИИ-модель была задействована не как помощник, а как самостоятельный исполнитель внутри кибершпионской кампании.
📌 Что произошло
• В сентябре 2025 года была выявлена группа, которую Anthropic с высокой степенью уверенности связывает с государственными структурами КНР.
• Цель — около 30 организаций по всему миру: технологический сектор, финансы, химическая промышленность и госструктуры.
• Инструмент Claude Code выполнял большую часть рутинных задач автоматически: поиск уязвимостей, анализ инфраструктуры, генерация элементов эксплойтов, попытки эксплуатации.
• После обнаружения аномальной активности Anthropic заблокировала доступ, уведомила пострадавшие стороны и передала данные правоохранителям.
🤖 Что показал инцидент
Автоматизация была не абсолютной, но достаточно глубокой, чтобы показать: современные ИИ-системы способны выполнять значимые части kill chain без плотного участия человека. Это качественное изменение подхода к атакам.
🛡️ Что важно понимать
• Число успешных проникновений было ограниченным — по оценке Anthropic.
• Данные об атрибуции завязаны на аналитике компании; Китай официальных комментариев не дал.
• Эксперты подчёркивают: подобные случаи требуют не паники, а обновления оборонительных моделей — от мониторинга активности ИИ-агентов до контроля API-ключей и анализа аномальных запросов.
⚡️ Что это значит для индустрии
Мы входим в период, где ИИ становится не только инструментом защиты, но и элементом атаки. Компании, особенно в критической инфраструктуре, должны корректировать архитектуру безопасности:
— учитывать сценарии автономных ИИ-операций;
— усиливать диагностику поведения инструментов разработки;
— пересматривать риск-модели с учётом агентных ИИ-систем.
Источники:
1. Anthropic — отчёт об инциденте
2. AP News — публикация по расследованию
3. Business Insider — анализ атаки и роли Claude
4. The Verge — детали о методах и масштабе:
5. The Guardian — комментарии экспертов
REAL DIGITAL
#Cybersecurity #AIThreats #Anthropic #Claude #InfoSec #ChinaCyber #AIAttacks #RD
Anthropic опубликовала детали одной из первых подтверждённых операций, где ИИ-модель была задействована не как помощник, а как самостоятельный исполнитель внутри кибершпионской кампании.
📌 Что произошло
• В сентябре 2025 года была выявлена группа, которую Anthropic с высокой степенью уверенности связывает с государственными структурами КНР.
• Цель — около 30 организаций по всему миру: технологический сектор, финансы, химическая промышленность и госструктуры.
• Инструмент Claude Code выполнял большую часть рутинных задач автоматически: поиск уязвимостей, анализ инфраструктуры, генерация элементов эксплойтов, попытки эксплуатации.
• После обнаружения аномальной активности Anthropic заблокировала доступ, уведомила пострадавшие стороны и передала данные правоохранителям.
🤖 Что показал инцидент
Автоматизация была не абсолютной, но достаточно глубокой, чтобы показать: современные ИИ-системы способны выполнять значимые части kill chain без плотного участия человека. Это качественное изменение подхода к атакам.
🛡️ Что важно понимать
• Число успешных проникновений было ограниченным — по оценке Anthropic.
• Данные об атрибуции завязаны на аналитике компании; Китай официальных комментариев не дал.
• Эксперты подчёркивают: подобные случаи требуют не паники, а обновления оборонительных моделей — от мониторинга активности ИИ-агентов до контроля API-ключей и анализа аномальных запросов.
⚡️ Что это значит для индустрии
Мы входим в период, где ИИ становится не только инструментом защиты, но и элементом атаки. Компании, особенно в критической инфраструктуре, должны корректировать архитектуру безопасности:
— учитывать сценарии автономных ИИ-операций;
— усиливать диагностику поведения инструментов разработки;
— пересматривать риск-модели с учётом агентных ИИ-систем.
Источники:
1. Anthropic — отчёт об инциденте
2. AP News — публикация по расследованию
3. Business Insider — анализ атаки и роли Claude
4. The Verge — детали о методах и масштабе:
5. The Guardian — комментарии экспертов
REAL DIGITAL
#Cybersecurity #AIThreats #Anthropic #Claude #InfoSec #ChinaCyber #AIAttacks #RD
🤔3👍1
Как устроен «эффективный ИИ»: уроки Solar и архитектурный путь вне гонки гигантов
AI-индустрия всё заметнее делится на две линии.
Первая — это гонка за моделями уровня GPT-5, требующая сотен миллиардов параметров и гигантских дата-центров.
Вторая — архитектурная эффективность: модели, которые стремятся не к максимальному размеру, а к наилучшему соотношению качества и вычислительной стоимости.
Корейская линейка Solar стала одним из самых показательных примеров этого тренда.
Solar появился как компактная модель на 10,7 млрд параметров и быстро вошёл в топы Open LLM Leaderboard. Позднее версии Solar Pro и Solar Pro 2 (22–31B) начали демонстрировать результаты, которые в отдельных метриках — Artificial Analysis, SWE-Bench, MMLU-Pro — превосходят модели OpenAI, Anthropic и xAI. При этом универсальные frontier-модели по-прежнему сильнее по ширине задач, и это принципиально важно для корректного контекста.
Но сам факт того, что модель на десятки миллиардов параметров обгоняет гигантов в сложных бенчмарках, говорит о новом перераспределении в ИИ-архитектурах.
Ключевой элемент Solar — стратегия Depth Up-Scaling.
Вместо увеличения ширины модели инженеры Upstage усиливают глубину трансформера и используют тщательно составленный корпус данных. Такая комбинация даёт плотной модели неожиданно высокий уровень reasoning-способностей и позволяет ей работать внутри корпоративных контуров: для инференса достаточно одной GPU-карты, без кластеров и дорогой инфраструктуры.
Это не «дешёвый AI», а AI, у которого вычислительные требования соответствуют реальным возможностям средних компаний.
Параллельно развивается направление Mixture-of-Experts.
Mixtral 8×7B, DeepSeek-V2 и другие MoE-архитектуры показывают, что можно иметь сотни миллиардов параметров, активируя лишь малую часть на каждый токен. Это резко снижает стоимость обучения и увеличивает пропускную способность. Исследовательские группы экспериментируют с количеством экспертов, маршрутизаторами и балансировкой качества. По сути, DUS и MoE решают одну задачу разными путями: повысить интеллектуальную плотность модели без экспоненциального роста compute.
Эти подходы становятся особенно интересны для регионов, где растёт запрос на локальные, управляемые модели, работающие в защищённых периметрах.
Корея активно внедряет Solar именно в корпоративные процессы, где нужна приватность и контроль данных.
Япония развивает Sakura в похожей логике: локальная модель под локальные задачи.
Юго-Восточная Азия движется в том же направлении через SEA-LION, делая ставку на региональную адаптацию, а не на «гонку за размером».
Общий сдвиг выглядит так: эпоха «больше параметров» постепенно уступает место эпохе «умнее архитектура».
DUS, MoE, специализированные корпуса, эффективные модели — это не попытка конкурировать с OpenAI, а формирование нового слоя ИИ-ландшафта, где качество растёт быстрее ресурсов. Solar — лишь один из примеров, показывающий, что архитектурная эффективность стала самостоятельной линией развития, а не компромиссом.
Источники:
• Upstage — Solar Pro / Solar Pro 2 Technical Overview
• ZDNet Korea — 분석: Solar Pro 2 성능 및 벤치마크 결과
REAL DIGITAL
#AIархитектура #SolarLLM #эффективныйИИ #RealDigital
AI-индустрия всё заметнее делится на две линии.
Первая — это гонка за моделями уровня GPT-5, требующая сотен миллиардов параметров и гигантских дата-центров.
Вторая — архитектурная эффективность: модели, которые стремятся не к максимальному размеру, а к наилучшему соотношению качества и вычислительной стоимости.
Корейская линейка Solar стала одним из самых показательных примеров этого тренда.
Solar появился как компактная модель на 10,7 млрд параметров и быстро вошёл в топы Open LLM Leaderboard. Позднее версии Solar Pro и Solar Pro 2 (22–31B) начали демонстрировать результаты, которые в отдельных метриках — Artificial Analysis, SWE-Bench, MMLU-Pro — превосходят модели OpenAI, Anthropic и xAI. При этом универсальные frontier-модели по-прежнему сильнее по ширине задач, и это принципиально важно для корректного контекста.
Но сам факт того, что модель на десятки миллиардов параметров обгоняет гигантов в сложных бенчмарках, говорит о новом перераспределении в ИИ-архитектурах.
Ключевой элемент Solar — стратегия Depth Up-Scaling.
Вместо увеличения ширины модели инженеры Upstage усиливают глубину трансформера и используют тщательно составленный корпус данных. Такая комбинация даёт плотной модели неожиданно высокий уровень reasoning-способностей и позволяет ей работать внутри корпоративных контуров: для инференса достаточно одной GPU-карты, без кластеров и дорогой инфраструктуры.
Это не «дешёвый AI», а AI, у которого вычислительные требования соответствуют реальным возможностям средних компаний.
Параллельно развивается направление Mixture-of-Experts.
Mixtral 8×7B, DeepSeek-V2 и другие MoE-архитектуры показывают, что можно иметь сотни миллиардов параметров, активируя лишь малую часть на каждый токен. Это резко снижает стоимость обучения и увеличивает пропускную способность. Исследовательские группы экспериментируют с количеством экспертов, маршрутизаторами и балансировкой качества. По сути, DUS и MoE решают одну задачу разными путями: повысить интеллектуальную плотность модели без экспоненциального роста compute.
Эти подходы становятся особенно интересны для регионов, где растёт запрос на локальные, управляемые модели, работающие в защищённых периметрах.
Корея активно внедряет Solar именно в корпоративные процессы, где нужна приватность и контроль данных.
Япония развивает Sakura в похожей логике: локальная модель под локальные задачи.
Юго-Восточная Азия движется в том же направлении через SEA-LION, делая ставку на региональную адаптацию, а не на «гонку за размером».
Общий сдвиг выглядит так: эпоха «больше параметров» постепенно уступает место эпохе «умнее архитектура».
DUS, MoE, специализированные корпуса, эффективные модели — это не попытка конкурировать с OpenAI, а формирование нового слоя ИИ-ландшафта, где качество растёт быстрее ресурсов. Solar — лишь один из примеров, показывающий, что архитектурная эффективность стала самостоятельной линией развития, а не компромиссом.
Источники:
• Upstage — Solar Pro / Solar Pro 2 Technical Overview
• ZDNet Korea — 분석: Solar Pro 2 성능 및 벤치마크 결과
REAL DIGITAL
#AIархитектура #SolarLLM #эффективныйИИ #RealDigital
👍2🤔2🤯1
Media is too big
VIEW IN TELEGRAM
Подключайтесь к просмотру X международной конференции AI Journey 2025.
«Нет неэффективных сотрудников. Есть ваши ошибки!»: Путин — Грефу о 20% увольнений ИИ в «Сбере»
«Нет неэффективных сотрудников. Есть ваши ошибки!»: Путин — Грефу о 20% увольнений ИИ в «Сбере»
🤣5❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Для повышения безопасности предусмотрен бортовой ИИ: нейросеть анализирует данные с лидаров и других датчиков, плавно вмешиваясь в управление, чтобы предотвратить аварии.
REAL DIGITAL
Источник : НАУКА 4.0
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👏1
Kyndryl Readiness Report 2025: Где компании действительно буксуют с ИИ
Компания Kyndryl (крупный интегратор, бывшее инфраструктурное подразделение IBM) представила отчет о готовности бизнеса к переходу на ИИ.
И главный вывод показателен:
Все хотят ИИ сегодня, но их операционка к этому не готова.
Пилотные проекты запускаются повсеместно, но масштабирование буксует. Почему?
Ключевые проблемы:
• Устаревшие процессы — архитектура компаний не готова к гибкости ИИ
• Разрыв в ожиданиях — руководство ждет быстрых результатов, а команды работают по старым лекалам
• Неопределенность ролей — сотрудники не понимают, как их функции изменятся с внедрением ИИ
Отдельное внимание в отчете уделяют «агентному ИИ».
За модным термином скрывается практическая задача: перераспределение задач, где рутину автоматизируют, а человек фокусируется на исключениях. Но для этого процессы должны быть для этого готовы — а они чаще всего нет.
Итог: бизнес столкнулся с парадоксом — технологическая возможность есть, но организационная зрелость отстает. И это создает внутреннее напряжение и замедляет реальное внедрение.
С полным отчетом можно ознакомиться по ссылке:
https://www.kyndryl.com/us/en/insights/readiness-report-2025
А что видите вы в своих проектах? Сталкиваетесь с таким разрывом между ожиданиями и реальной готовностью?
REAL DIGITAL
#RealDigital #AI #DigitalTransformation #Kyndryl #ИИ
Компания Kyndryl (крупный интегратор, бывшее инфраструктурное подразделение IBM) представила отчет о готовности бизнеса к переходу на ИИ.
И главный вывод показателен:
Все хотят ИИ сегодня, но их операционка к этому не готова.
Пилотные проекты запускаются повсеместно, но масштабирование буксует. Почему?
Ключевые проблемы:
• Устаревшие процессы — архитектура компаний не готова к гибкости ИИ
• Разрыв в ожиданиях — руководство ждет быстрых результатов, а команды работают по старым лекалам
• Неопределенность ролей — сотрудники не понимают, как их функции изменятся с внедрением ИИ
Отдельное внимание в отчете уделяют «агентному ИИ».
За модным термином скрывается практическая задача: перераспределение задач, где рутину автоматизируют, а человек фокусируется на исключениях. Но для этого процессы должны быть для этого готовы — а они чаще всего нет.
Итог: бизнес столкнулся с парадоксом — технологическая возможность есть, но организационная зрелость отстает. И это создает внутреннее напряжение и замедляет реальное внедрение.
С полным отчетом можно ознакомиться по ссылке:
https://www.kyndryl.com/us/en/insights/readiness-report-2025
А что видите вы в своих проектах? Сталкиваетесь с таким разрывом между ожиданиями и реальной готовностью?
REAL DIGITAL
#RealDigital #AI #DigitalTransformation #Kyndryl #ИИ
👍2🤔1
Готов ли CEO к тому, что его работу начнёт делать ИИ?
Мы много месяцев обсуждаем, кого заменят модели: дизайнеров, аналитиков, копирайтеров, юристов…
Но странно другое: почти никто не поднимает вопрос про тех, кто сидит в самом верхнем кабинете. Хотя именно там изменения уже начали подбираться вплотную.
Недавно два руководителя больших корпораций открыто заговорили об этом.
Когда Сундар Пичаи сказал, что
— это не просто роскошь мысли.
Когда Сэм Альтман заявил, что
— это не метафора, а сигнал.
Не «кого уволят», а «какие функции перераспределятся».
Разложим работу руководителя на простые куски:
• Сбор данных, прогнозы, модели сценариев.
• Мониторинг рисков.
• Отслеживание KPI и распределение ресурсов.
В этих зонах машина скорее выигрывает: объём, скорость, отсутствие усталости.
И те задачи, которые нельзя просто формализовать:
• Разговор с советом директоров, где люди приносят свои истории и эмоции.
• Убеждение регуляторов и инвесторов — это не про алгоритмы, а про доверие.
• Поддержка команды после кризиса — вы не замените искренним извинением.
• Ответственность — если что-то пойдёт не так, придётся держать удар самому.
Почему они об этом говорят вслух
Причин несколько, и все они больше чем просто «технология».
1. Проверяют аудиторию: готовы ли мы принять, что управление станет смешанным.
2. Устанавливают ожидания: если CEO не боится, почему должны боялись мы?
3. Укладывают свои собственные стратегии: не только технологии, но и власть, культура.
Из этого следует, что
роль CEO не исчезнет — но изменится её дизайн.
ИИ возьмёт на себя то, что можно измерить, моделировать и оптимизировать.
Человек-CEO останется там, где надо чувствовать, влиять, рисковать и брать ответственность.
Выиграют те руководители, кто прим-ут ИИ не как врага, а как партнёра.
Проиграют те, кто будет ждать, что всё останется по-старому.
REAL DIGITAL
Источники
1. Сэм Альтман: https://www.businessinsider.com/sam-altman-openai-ai-ceo-2025-2025-11
2. Сундар Пичаи: https://www.theguardian.com/technology/2025/nov/18/alphabet-boss-sundar-pichai-ai-artificial-intelligence-trust
3. Фото: https://www.nytimes.com/2023/05/04/briefing/white-house-ai-leaders-proud-boys-trial.html
#Хэштеги: #ИИ #CEO #Управление #БудущееРаботы #Технологии
Мы много месяцев обсуждаем, кого заменят модели: дизайнеров, аналитиков, копирайтеров, юристов…
Но странно другое: почти никто не поднимает вопрос про тех, кто сидит в самом верхнем кабинете. Хотя именно там изменения уже начали подбираться вплотную.
Недавно два руководителя больших корпораций открыто заговорили об этом.
Когда Сундар Пичаи сказал, что
работа CEO одна из тех, что ИИ сможет делать в будущем
— это не просто роскошь мысли.
Когда Сэм Альтман заявил, что
«настанет момент, когда ИИ будет лучше CEO, чем я»
— это не метафора, а сигнал.
Не «кого уволят», а «какие функции перераспределятся».
Разложим работу руководителя на простые куски:
• Сбор данных, прогнозы, модели сценариев.
• Мониторинг рисков.
• Отслеживание KPI и распределение ресурсов.
В этих зонах машина скорее выигрывает: объём, скорость, отсутствие усталости.
И те задачи, которые нельзя просто формализовать:
• Разговор с советом директоров, где люди приносят свои истории и эмоции.
• Убеждение регуляторов и инвесторов — это не про алгоритмы, а про доверие.
• Поддержка команды после кризиса — вы не замените искренним извинением.
• Ответственность — если что-то пойдёт не так, придётся держать удар самому.
Почему они об этом говорят вслух
Причин несколько, и все они больше чем просто «технология».
1. Проверяют аудиторию: готовы ли мы принять, что управление станет смешанным.
2. Устанавливают ожидания: если CEO не боится, почему должны боялись мы?
3. Укладывают свои собственные стратегии: не только технологии, но и власть, культура.
Из этого следует, что
роль CEO не исчезнет — но изменится её дизайн.
ИИ возьмёт на себя то, что можно измерить, моделировать и оптимизировать.
Человек-CEO останется там, где надо чувствовать, влиять, рисковать и брать ответственность.
Выиграют те руководители, кто прим-ут ИИ не как врага, а как партнёра.
Проиграют те, кто будет ждать, что всё останется по-старому.
REAL DIGITAL
Источники
1. Сэм Альтман: https://www.businessinsider.com/sam-altman-openai-ai-ceo-2025-2025-11
2. Сундар Пичаи: https://www.theguardian.com/technology/2025/nov/18/alphabet-boss-sundar-pichai-ai-artificial-intelligence-trust
3. Фото: https://www.nytimes.com/2023/05/04/briefing/white-house-ai-leaders-proud-boys-trial.html
#Хэштеги: #ИИ #CEO #Управление #БудущееРаботы #Технологии
👍2❤1🤔1
ISO 27001 и ИИ: почему ваша безопасность — иллюзия
Многие компании уверены: раз есть ISO 27001 — риски ИИ «закрыты по умолчанию».
Это опасное заблуждение.
ISO 27001 даёт каркас управления безопасностью, но по умолчанию не видит угроз ИИ:
data poisoning, adversarial-атаки, утечки через промпты, дрейф моделей, инверсию моделей.
Без адаптации под ИИ стандарт превращается в формальность и создаёт ложное чувство защищённости.
Ключевые заблуждения, которые создают дыры в защите
1. «ISO 27001 покрывает риски ИИ» — нет
Стандарт описывает процесс управления рисками, но ИИ-угрозы туда не входят автоматически.
Их нужно добавить вручную:
• инверсия моделей и извлечение интеллектуальных данных,
• poisoning тренировочных датасетов,
• эксплуатация галлюцинаций,
• каскадные сбои в MLOps-пайплайнах.
Если этого нет в риск-регистре — ISMS устарело, даже если сертификат свежий.
2. «Написали AI Policy — защитились» — ошибка
Политика без технических мер ничего не защищает.
Нужны:
• мониторинг дрейфа моделей (data/model drift),
• sanitization входных и выходных данных,
• аудит датасетов на bias и poisoning,
• регулярный red teaming моделей.
Большинство инцидентов происходит из-за неконтролируемых данных, а не из-за уязвимостей в коде.
3. «ИИ — обычный ИТ-сервис» — ошибка классификации
ИИ работает автономно, влияет на решения и может искажать процессы.
Риски другого уровня:
• галлюцинации → дезинформация,
• prompt injection → манипуляция моделями,
• некорректные предсказания → каскадные сбои.
Здесь нужны XAI-проверки, контроль версий моделей и данных, мониторинг поведения модели — далеко за пределами классических ИБ-контролей.
Как сделать ISO 27001 пригодным для ИИ
27001 остаётся базой, но её нужно перенастроить:
В риск-менеджмент:
добавить отдельный класс ИИ-рисков.
В Annex A:
переписать политики под жизненный цикл моделей (development → training → deployment → monitoring).
В операционные процессы:
контроль тренировочных данных, мониторинг дрейфа, протоколы реагирования на инциденты ИИ.
Для полноценного покрытия нужны специализированные стандарты:
ISO/IEC 42001 (AI Governance) и ISO/IEC 23894 (AI Risk Management).
Почему это критично в 2025 году
ИИ развивается быстрее, чем классические меры безопасности.
Инциденты уже не про «вирусы», а про:
• утечки через промпты,
• фейковую аналитику в принятии решений,
• подмену данных при обучении,
• сбои бизнеса из-за неверных ответов модели.
ISMS старой школы этого не видит.
ISO 27001 — фундамент.
Но если ИИ не встроен в ISMS, риски остаются невидимыми, даже при формальной сертификации.
Рекомендация:
провести gap-analysis «ISMS vs. AI Risks» и внедрить контроли из ISO 42001 и 23894.
Контролирует ли ваша организация ИИ-риски?
Источники
• ISO/IEC 27001:2022 — Information Security Management Systems
• ISO/IEC 23894:2023 — Artificial Intelligence Risk Management
• ISO/IEC 42001:2023 — AI Management System Standard
• NIST AI Risk Management Framework (2023)
• ENISA: Adversarial Machine Learning Threat Landscape (2021)
• OECD AI Principles (2019, обновление 2024)
REAL DIGITAL
#RealDigital #CyberSecurity #ISO27001 #AI #AIБезопасность #AIGovernance
#ISMS #RiskManagement #ISO42001 #ISO23894 #MLOps #DataSecurity #AIРиски
Многие компании уверены: раз есть ISO 27001 — риски ИИ «закрыты по умолчанию».
Это опасное заблуждение.
ISO 27001 даёт каркас управления безопасностью, но по умолчанию не видит угроз ИИ:
data poisoning, adversarial-атаки, утечки через промпты, дрейф моделей, инверсию моделей.
Без адаптации под ИИ стандарт превращается в формальность и создаёт ложное чувство защищённости.
Ключевые заблуждения, которые создают дыры в защите
1. «ISO 27001 покрывает риски ИИ» — нет
Стандарт описывает процесс управления рисками, но ИИ-угрозы туда не входят автоматически.
Их нужно добавить вручную:
• инверсия моделей и извлечение интеллектуальных данных,
• poisoning тренировочных датасетов,
• эксплуатация галлюцинаций,
• каскадные сбои в MLOps-пайплайнах.
Если этого нет в риск-регистре — ISMS устарело, даже если сертификат свежий.
2. «Написали AI Policy — защитились» — ошибка
Политика без технических мер ничего не защищает.
Нужны:
• мониторинг дрейфа моделей (data/model drift),
• sanitization входных и выходных данных,
• аудит датасетов на bias и poisoning,
• регулярный red teaming моделей.
Большинство инцидентов происходит из-за неконтролируемых данных, а не из-за уязвимостей в коде.
3. «ИИ — обычный ИТ-сервис» — ошибка классификации
ИИ работает автономно, влияет на решения и может искажать процессы.
Риски другого уровня:
• галлюцинации → дезинформация,
• prompt injection → манипуляция моделями,
• некорректные предсказания → каскадные сбои.
Здесь нужны XAI-проверки, контроль версий моделей и данных, мониторинг поведения модели — далеко за пределами классических ИБ-контролей.
Как сделать ISO 27001 пригодным для ИИ
27001 остаётся базой, но её нужно перенастроить:
В риск-менеджмент:
добавить отдельный класс ИИ-рисков.
В Annex A:
переписать политики под жизненный цикл моделей (development → training → deployment → monitoring).
В операционные процессы:
контроль тренировочных данных, мониторинг дрейфа, протоколы реагирования на инциденты ИИ.
Для полноценного покрытия нужны специализированные стандарты:
ISO/IEC 42001 (AI Governance) и ISO/IEC 23894 (AI Risk Management).
Почему это критично в 2025 году
ИИ развивается быстрее, чем классические меры безопасности.
Инциденты уже не про «вирусы», а про:
• утечки через промпты,
• фейковую аналитику в принятии решений,
• подмену данных при обучении,
• сбои бизнеса из-за неверных ответов модели.
ISMS старой школы этого не видит.
ISO 27001 — фундамент.
Но если ИИ не встроен в ISMS, риски остаются невидимыми, даже при формальной сертификации.
Рекомендация:
провести gap-analysis «ISMS vs. AI Risks» и внедрить контроли из ISO 42001 и 23894.
Контролирует ли ваша организация ИИ-риски?
Источники
• ISO/IEC 27001:2022 — Information Security Management Systems
• ISO/IEC 23894:2023 — Artificial Intelligence Risk Management
• ISO/IEC 42001:2023 — AI Management System Standard
• NIST AI Risk Management Framework (2023)
• ENISA: Adversarial Machine Learning Threat Landscape (2021)
• OECD AI Principles (2019, обновление 2024)
REAL DIGITAL
#RealDigital #CyberSecurity #ISO27001 #AI #AIБезопасность #AIGovernance
#ISMS #RiskManagement #ISO42001 #ISO23894 #MLOps #DataSecurity #AIРиски
🔥3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск выложил видео, где его роботы выступают строителями, медиками, полицейскими, поварами, игроками в покер и каратистами.
Что он этим хотел сказать — не объяснил.
https://x.com/elonmusk/status/1991735383974113655?s=46
Что он этим хотел сказать — не объяснил.
https://x.com/elonmusk/status/1991735383974113655?s=46
🔥5
Австралия 2025: хочешь работать с госданными — твой ИИ остаётся в стране
Правило простое: если обрабатываешь данные граждан или госструктур —
твоя инфраструктура и модели должны находиться внутри Австралии.
Как это выглядит на практике:
→ Суверенные облачные зоны: данные не покидают страну
→ Только локальные модели для госведомств
→ Персональная информация — исключительно в австралийских ЦОДах
→ Зарубежные дата-центры под такие задачи запрещены
Без тяжёлой регуляторики в стиле EU AI Act.
Три документа :
- AI Ethics Principles,
- National Framework for AI Assurance
- Guidance for AI Adoption
формируют понятный, рабочий набор правил.
Минимум бюрократии. Максимум контроля.
Источники:
https://www.industry.gov.au/science-technology-and-innovation/technology/artificial-intelligence
https://www.finance.gov.au/government/public-data/data-and-digital-ministers-meeting/national-framework-assurance-artificial-intelligence-government
https://www.industry.gov.au/publications/guidance-for-ai-adoption
REAL DIGITAL
#dataSovereignty #AustraliaAI #AIregulation #RealDigital
Правило простое: если обрабатываешь данные граждан или госструктур —
твоя инфраструктура и модели должны находиться внутри Австралии.
Как это выглядит на практике:
→ Суверенные облачные зоны: данные не покидают страну
→ Только локальные модели для госведомств
→ Персональная информация — исключительно в австралийских ЦОДах
→ Зарубежные дата-центры под такие задачи запрещены
Без тяжёлой регуляторики в стиле EU AI Act.
Три документа :
- AI Ethics Principles,
- National Framework for AI Assurance
- Guidance for AI Adoption
формируют понятный, рабочий набор правил.
Минимум бюрократии. Максимум контроля.
Источники:
https://www.industry.gov.au/science-technology-and-innovation/technology/artificial-intelligence
https://www.finance.gov.au/government/public-data/data-and-digital-ministers-meeting/national-framework-assurance-artificial-intelligence-government
https://www.industry.gov.au/publications/guidance-for-ai-adoption
REAL DIGITAL
#dataSovereignty #AustraliaAI #AIregulation #RealDigital
👍3🔥2👏1
NIS2: кто-то уже платит штрафы, кто-то ещё разбирается в требованиях
Представьте: вы CISO финтех-компании в Польше.
Ваш коллега в Германии уже проходит аудит по NIS2 и рискует получить штраф до €10 млн.
А вы всё ещё ждёте, когда местный регулятор определится с правилами.
Так выглядит Европа в ноябре 2025:
только 19 из 27 стран ЕС успели внедрить директиву полностью.
Что изменилось жёстко:
→ 24 часа на первый отчёт об инциденте
→ Личная ответственность топ-менеджмента
→ European Vulnerability Registry — единый реестр уязвимостей
Пока в одних странах компании переписывают процессы под угрозой санкций, в других всё только начинается.
27 стран. 27 скоростей. Одна директива.
Источники:
https://www.enisa.europa.eu/topics/state-of-cybersecurity-in-the-eu/cybersecurity-policies/nis-directive-2
https://www.enisa.europa.eu/publications/nis2-technical-implementation-guidance
REAL DIGITAL
#NIS2 #cybersecurity #EUcompliance #RealDigital
Представьте: вы CISO финтех-компании в Польше.
Ваш коллега в Германии уже проходит аудит по NIS2 и рискует получить штраф до €10 млн.
А вы всё ещё ждёте, когда местный регулятор определится с правилами.
Так выглядит Европа в ноябре 2025:
только 19 из 27 стран ЕС успели внедрить директиву полностью.
Что изменилось жёстко:
→ 24 часа на первый отчёт об инциденте
→ Личная ответственность топ-менеджмента
→ European Vulnerability Registry — единый реестр уязвимостей
Пока в одних странах компании переписывают процессы под угрозой санкций, в других всё только начинается.
27 стран. 27 скоростей. Одна директива.
Источники:
https://www.enisa.europa.eu/topics/state-of-cybersecurity-in-the-eu/cybersecurity-policies/nis-directive-2
https://www.enisa.europa.eu/publications/nis2-technical-implementation-guidance
REAL DIGITAL
#NIS2 #cybersecurity #EUcompliance #RealDigital
🤨2🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Quick Share ↔ AirDrop: что на самом деле происходит между Pixel 10 и iPhone
Google обновила Quick Share на Pixel 10, и теперь смартфон может отправлять и принимать файлы с iPhone и Mac напрямую, без интернета и без облака. Это первый рабочий кейс прямой совместимости Android ↔ iOS без обходных путей.
Как устроена техника
Обнаружение (discovery)
Pixel 10 использует стандартные BLE-advertisements по спецификациям Bluetooth SIG.
iOS 18.x корректно распознаёт такие профили только при включённом режиме «Everyone for 10 minutes».
Без этого Pixel в списке не появится — это ключевое техническое условие.
Передача (transport)
Файлы идут по локальному Wi-Fi P2P:
• Wi-Fi Direct, если согласован режим AP + клиент
• или Wi-Fi Aware, если обе стороны поддерживают NAN
Это чистые стандарты Wi-Fi Alliance, без серверов Google/Apple.
Что не используется
AWDL — проприетарный протокол AirDrop — Pixel не использует.
Закрытые хендшейки Apple тоже отсутствуют.
Pixel отображается в интерфейсе AirDrop, но работает не через AirDrop-протокол, а через открытую связку BLE + Wi-Fi P2P.
Digital Markets Act (DMA) — это закон Евросоюза.
Регуляторы требуют interoperability, если есть открытый P2P-механизм (Direct/Aware).
Запрет от Apple создал бы правовые риски для них.
И поэтому поведение iOS 18.x
AirDrop теперь реагирует на стандартные BLE-профили сторонних устройств в режиме «Everyone for 10 minutes».
Это не шаг Apple навстречу Android — это адаптация под регуляторные требования.
Google использовала окно возможностей.
Apple — не блокирует.
Но есть и ограничения:
• Работает только на Pixel 10-серии (ограничение rollout’а).
• На iOS — работает на всех версиях 18.x, но стабильнее в последних бетах.
• Старые Mac иногда ведут себя нестабильно.
• Скорость сравнима с AirDrop между устройствами Apple.
Это первый реальный прецедент, когда:
• Android-устройство появляется в AirDrop-интерфейсе
• передача работает нативно
• Apple не закрывает окно совместимости
• открытые стандарты BLE/Wi-Fi стали фактической точкой пересечения двух экосистем
Жёсткие стены Apple-экосистемы впервые дают трещину — не из-за «дружбы», а под давлением открытых стандартов и регуляторики.
Итог: это не «AirDrop для Android».
Это — рабочая двусторонняя передача по BLE + Wi-Fi Direct/Aware, которую Pixel реализует корректно, а iOS 18.x — не блокирует.
Работает. Быстро. Локально.
И снимает барьер, который считался непроходимым 10 лет.
REAL DIGITAL
Источники:
Видео-демонстрация:
https://youtu.be/nWZi8b6fXLs?si=6quwQRD3swQZiH0P
Официальный блог:
https://blog.google/products/android/quick-share-airdrop/
#Pixel10 #AirDrop #QuickShare #Android #iOS #DMA #Interoperability #TechNews #RealDigital
Google обновила Quick Share на Pixel 10, и теперь смартфон может отправлять и принимать файлы с iPhone и Mac напрямую, без интернета и без облака. Это первый рабочий кейс прямой совместимости Android ↔ iOS без обходных путей.
Как устроена техника
Обнаружение (discovery)
Pixel 10 использует стандартные BLE-advertisements по спецификациям Bluetooth SIG.
iOS 18.x корректно распознаёт такие профили только при включённом режиме «Everyone for 10 minutes».
Без этого Pixel в списке не появится — это ключевое техническое условие.
Передача (transport)
Файлы идут по локальному Wi-Fi P2P:
• Wi-Fi Direct, если согласован режим AP + клиент
• или Wi-Fi Aware, если обе стороны поддерживают NAN
Это чистые стандарты Wi-Fi Alliance, без серверов Google/Apple.
Что не используется
AWDL — проприетарный протокол AirDrop — Pixel не использует.
Закрытые хендшейки Apple тоже отсутствуют.
Pixel отображается в интерфейсе AirDrop, но работает не через AirDrop-протокол, а через открытую связку BLE + Wi-Fi P2P.
Digital Markets Act (DMA) — это закон Евросоюза.
Регуляторы требуют interoperability, если есть открытый P2P-механизм (Direct/Aware).
Запрет от Apple создал бы правовые риски для них.
И поэтому поведение iOS 18.x
AirDrop теперь реагирует на стандартные BLE-профили сторонних устройств в режиме «Everyone for 10 minutes».
Это не шаг Apple навстречу Android — это адаптация под регуляторные требования.
Google использовала окно возможностей.
Apple — не блокирует.
Но есть и ограничения:
• Работает только на Pixel 10-серии (ограничение rollout’а).
• На iOS — работает на всех версиях 18.x, но стабильнее в последних бетах.
• Старые Mac иногда ведут себя нестабильно.
• Скорость сравнима с AirDrop между устройствами Apple.
Это первый реальный прецедент, когда:
• Android-устройство появляется в AirDrop-интерфейсе
• передача работает нативно
• Apple не закрывает окно совместимости
• открытые стандарты BLE/Wi-Fi стали фактической точкой пересечения двух экосистем
Жёсткие стены Apple-экосистемы впервые дают трещину — не из-за «дружбы», а под давлением открытых стандартов и регуляторики.
Итог: это не «AirDrop для Android».
Это — рабочая двусторонняя передача по BLE + Wi-Fi Direct/Aware, которую Pixel реализует корректно, а iOS 18.x — не блокирует.
Работает. Быстро. Локально.
И снимает барьер, который считался непроходимым 10 лет.
REAL DIGITAL
Источники:
Видео-демонстрация:
https://youtu.be/nWZi8b6fXLs?si=6quwQRD3swQZiH0P
Официальный блог:
https://blog.google/products/android/quick-share-airdrop/
#Pixel10 #AirDrop #QuickShare #Android #iOS #DMA #Interoperability #TechNews #RealDigital
👏4
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Opus 4.5 усилил защиту, но агентные сценарии остаются слабым местом
Anthropic выпустила Claude Opus 4.5 — новую флагманскую модель для кода и агентных сценариев. Компания подчёркивает усиленную защиту от prompt-injection, но в системной карточке прямо признаёт: модель стала строже, однако полностью защитить её нельзя. Инъекции всё ещё проходят, особенно когда агентам дают доступ к коду, браузеру или файловой системе.
В контролируемых тестах Opus 4.5 как агент-кодер отклонил 150 из 150 вредных задач. Но в независимых испытаниях режимов Claude Code и «computer use» исследователи фиксируют 12–22% согласий на сомнительные запросы — от подсказок для DDoS до попыток обхода ограничений и доступа к данным.
На фоне свежих кейсов, где цепочки кибершпионажа удалось почти полностью автоматизировать при помощи ИИ, становится очевидно: безопасность «через промты» — это только базовый слой. Поверх него обязательно нужны ограниченные права агентов, чёткие периметры доступа, аудит действий и архитектурные барьеры.
Источники:
1. The Verge — https://www.theverge.com/2025/1/23/claude-opus-4-5-anthropic-update
2. Anthropic System Card — https://www-files.anthropic.com/production/files/model-system-card-claude-4-5.pdf
3. The Outpost — https://www.theoutpost.io/p/claude-opus-4-5-testing-the-limits
#Anthropic #Claude #Opus45 #AI #LLM #PromptInjection #CyberSecurity #AIsecurity #AgenticAI #GenAI #DevTools #RealDigital
Anthropic выпустила Claude Opus 4.5 — новую флагманскую модель для кода и агентных сценариев. Компания подчёркивает усиленную защиту от prompt-injection, но в системной карточке прямо признаёт: модель стала строже, однако полностью защитить её нельзя. Инъекции всё ещё проходят, особенно когда агентам дают доступ к коду, браузеру или файловой системе.
В контролируемых тестах Opus 4.5 как агент-кодер отклонил 150 из 150 вредных задач. Но в независимых испытаниях режимов Claude Code и «computer use» исследователи фиксируют 12–22% согласий на сомнительные запросы — от подсказок для DDoS до попыток обхода ограничений и доступа к данным.
На фоне свежих кейсов, где цепочки кибершпионажа удалось почти полностью автоматизировать при помощи ИИ, становится очевидно: безопасность «через промты» — это только базовый слой. Поверх него обязательно нужны ограниченные права агентов, чёткие периметры доступа, аудит действий и архитектурные барьеры.
Источники:
1. The Verge — https://www.theverge.com/2025/1/23/claude-opus-4-5-anthropic-update
2. Anthropic System Card — https://www-files.anthropic.com/production/files/model-system-card-claude-4-5.pdf
3. The Outpost — https://www.theoutpost.io/p/claude-opus-4-5-testing-the-limits
#Anthropic #Claude #Opus45 #AI #LLM #PromptInjection #CyberSecurity #AIsecurity #AgenticAI #GenAI #DevTools #RealDigital
🔥5🤔1
Математика, которая решает будущее: тревожность, нейросети и задачи на миллион
Наш постоянный читатель прислал в редакцию REAL DIGITAL лекцию, мимо которой сложно пройти: Андрей Коняев говорит о математике так, что это перестаёт быть «страшным школьным предметом» и превращается в способ понимать мир — от МРТ и полупроводников до климатических моделей и нейросетей.
В центре разговора — математическая тревожность (да, это реальный термин), нерешённые задачи тысячелетия с призом в миллион долларов и тот самый разрыв между школьной «математикой по рецептам» и живой наукой, которая реально лежит под капотом технологий вокруг нас.
Коняев показывает, как абстрактные конструкции — алгебры Ли, функциональный анализ, теория вероятностей — оказываются ответственны за вещи, к которым мы привыкли: медицинскую визуализацию мозга, устойчивую связь, работу электроники и криптографии.
По ходу дела он успевает:
- разобрать качество школьного преподавания
- объяснить, зачем математика гуманитарию
- рассказать, почему нейросети, в отличие от классической инженерии, до сих пор живут без чётких теорем устойчивости
Для кого: для всех, кто когда-то сказал «я гуманитарий» или «математика — не моё», но втайне хочет понимать, как устроен мир технологий.
Если вы хотите посмотреть на математику не как на набор формул, а как на язык для разговора о будущем — эту лекцию точно стоит сохранить в избранное и включить вечером вместо очередного сериала.
🎥 Смотреть на YouTube:[«Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев»]
REAL DIGITAL
Фото: модифицировано с помощью GROK.
Наш постоянный читатель прислал в редакцию REAL DIGITAL лекцию, мимо которой сложно пройти: Андрей Коняев говорит о математике так, что это перестаёт быть «страшным школьным предметом» и превращается в способ понимать мир — от МРТ и полупроводников до климатических моделей и нейросетей.
В центре разговора — математическая тревожность (да, это реальный термин), нерешённые задачи тысячелетия с призом в миллион долларов и тот самый разрыв между школьной «математикой по рецептам» и живой наукой, которая реально лежит под капотом технологий вокруг нас.
Коняев показывает, как абстрактные конструкции — алгебры Ли, функциональный анализ, теория вероятностей — оказываются ответственны за вещи, к которым мы привыкли: медицинскую визуализацию мозга, устойчивую связь, работу электроники и криптографии.
По ходу дела он успевает:
- разобрать качество школьного преподавания
- объяснить, зачем математика гуманитарию
- рассказать, почему нейросети, в отличие от классической инженерии, до сих пор живут без чётких теорем устойчивости
Для кого: для всех, кто когда-то сказал «я гуманитарий» или «математика — не моё», но втайне хочет понимать, как устроен мир технологий.
Если вы хотите посмотреть на математику не как на набор формул, а как на язык для разговора о будущем — эту лекцию точно стоит сохранить в избранное и включить вечером вместо очередного сериала.
🎥 Смотреть на YouTube:[«Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев»]
REAL DIGITAL
Фото: модифицировано с помощью GROK.
👍6👏2