Подключайтесь к просмотру X международной конференции AI Journey 2025: ученые, визионеры и мировые практики AI встретятся на одной сцене. Здесь слышны голоса тех, кто не просто верит в будущее, они его создают!
Среди спикеров — визионеры Кай-Фу Ли и Чэнь Цюфань и десятки мировых AI-гуру! Согласишься ли ты с их прогнозами об ИИ?
В первый день конференции – 19 ноября – расскажем, как AI уже применяется в разных сферах жизни, помогает раскрыть потенциал человека в будущем, меняет креативные индустрии и какое влияние он оказывает на человека и устойчивое будущее.
20 ноября посвятим роли AI в развитии бизнеса и экономики и представим технологии, которые помогут бизнесу, разработчикам быть эффективнее, раскрывая потенциал человека.
21 ноября расскажем, как инженеры и ученые совершают научные и технологические прорывы и создают будущее уже сегодня! В программе дня – выступления учёных из разных стран мира:
- Аджит Абрахам (Университет Саи, Индия) презентует тему «Генеративный ИИ в здравоохранении»,
- Небойша Бачанин-Джакула (Университет Сингидунум, Сербия) расскажет о последних достижениях биоинспирированной метаэвристики,
- Алешандре Феррейра Рамос (Университет Сан-Паулу, Бразилия) представит работу по регуляторной логике транскрипционного контроля на уровне ДНК при помощи термодинамических моделей,
- Андерсон Роша (Университет Кампинаса, Бразилия) выступит с докладом «ИИ новой эры: от основ к трендам, возможностям и глобальному сотрудничеству».
А на специальном треке AIJ Junior расскажем, как AI помогает учиться, творить и быть на одной волне с AI.
В завершение дня состоится награждение победителей конкурсов AI Challenge для юных исследователей данных и AIJ Contest для опытных AI-специалистов. Будут подведены итоги открытого отбора научных статей AIJ Science.
Будь на одной волне с AI будущего!
Подключайся к трансляции AI Journey 19-21 ноября
Среди спикеров — визионеры Кай-Фу Ли и Чэнь Цюфань и десятки мировых AI-гуру! Согласишься ли ты с их прогнозами об ИИ?
В первый день конференции – 19 ноября – расскажем, как AI уже применяется в разных сферах жизни, помогает раскрыть потенциал человека в будущем, меняет креативные индустрии и какое влияние он оказывает на человека и устойчивое будущее.
20 ноября посвятим роли AI в развитии бизнеса и экономики и представим технологии, которые помогут бизнесу, разработчикам быть эффективнее, раскрывая потенциал человека.
21 ноября расскажем, как инженеры и ученые совершают научные и технологические прорывы и создают будущее уже сегодня! В программе дня – выступления учёных из разных стран мира:
- Аджит Абрахам (Университет Саи, Индия) презентует тему «Генеративный ИИ в здравоохранении»,
- Небойша Бачанин-Джакула (Университет Сингидунум, Сербия) расскажет о последних достижениях биоинспирированной метаэвристики,
- Алешандре Феррейра Рамос (Университет Сан-Паулу, Бразилия) представит работу по регуляторной логике транскрипционного контроля на уровне ДНК при помощи термодинамических моделей,
- Андерсон Роша (Университет Кампинаса, Бразилия) выступит с докладом «ИИ новой эры: от основ к трендам, возможностям и глобальному сотрудничеству».
А на специальном треке AIJ Junior расскажем, как AI помогает учиться, творить и быть на одной волне с AI.
В завершение дня состоится награждение победителей конкурсов AI Challenge для юных исследователей данных и AIJ Contest для опытных AI-специалистов. Будут подведены итоги открытого отбора научных статей AIJ Science.
Будь на одной волне с AI будущего!
Подключайся к трансляции AI Journey 19-21 ноября
👍6🔥2
ИИ-агент как оператор кибершпионажа: кейс GTG-1002 и Claude Code
Китайская группа GTG-1002, которую ряд западных аналитиков связывает с госструктурами, провела первую публично подтверждённую операцию кибершпионажа, где значимую часть работы выполнил агентный ИИ — Claude Code от Anthropic.
Злоумышленники выбрали около 30 целей: госведомства, финансовые организации, химические компании и техкорпорации. Реальных успешных проникновений было немного — Anthropic подчёркивает, что их “небольшое число”, а некоторые запросы были заблокированы встроенной защитой модели на ранних этапах.
Ключевой трюк GTG-1002 заключался в маскировке под легитимный аудит безопасности. Все задачи подавались как нейтральные команды безопасника: «просканируй диапазон», «проанализируй ответы», «составь отчёт». В такой форме запросы проходили часть фильтров, хотя Anthropic отмечает, что подозрительная активность местами всё-таки пресекалась автоматически.
После постановки цели операторы вмешивались лишь в критические точки. Остальное выполнялось в полуаутономном режиме: Claude через инфраструктуру MCP управлял утилитами, проводил разведку, анализировал сетевые ответы, искал уязвимости, подбирал эксплойты, поддерживал несколько параллельных веток атаки и систематизировал собранные данные.
По оценке, которую цитируют крупные медиа, ИИ выполнял около 80–90% тактических шагов. При этом независимые аналитики подчёркивают: без человеческого триажа кампания бы не состоялась — операторы по-прежнему принимали ключевые решения.
В успешных эпизодах агент находил внутренние сервисы, строил карту сети, выполнял ограниченный lateral movement и сортировал данные по ценности. Anthropic показывает процесс как цепочку: человек задаёт цель → ИИ проводит разведку → ищет уязвимости → двигается по сети → формирует отчёты → возвращает управление человеку в сложных развилках.
Важно, что GTG-1002 использовала обычные инструменты пентеста. Новизна в другом — LLM выступал как универсальный оператор, который оркестрирует этот стек и держит темп атаки.
Anthropic обнаружила аномалии в сентябре, перекрыла доступ примерно через десять дней и уведомила компании и регуляторов.
Факт остаётся фактом: это не эксперимент, а реальная кампания, где ИИ ведёт значимую часть Kill Chain.
Порог входа в сложные атаки падает, а возможности опытных групп масштабируются резко и заметно.
Источники
1. https://www.anthropic.com/news/disrupting-AI-espionage
2. https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
3. https://thehackernews.com/2025/11/chinese-hackers-use-anthropics-ai-to.html
REAL DIGITAL
#RealDigital #Cybersecurity #AI #AgenticAI #Claude #ThreatIntel #InfoSec #CyberAttack #AI2025
Китайская группа GTG-1002, которую ряд западных аналитиков связывает с госструктурами, провела первую публично подтверждённую операцию кибершпионажа, где значимую часть работы выполнил агентный ИИ — Claude Code от Anthropic.
Злоумышленники выбрали около 30 целей: госведомства, финансовые организации, химические компании и техкорпорации. Реальных успешных проникновений было немного — Anthropic подчёркивает, что их “небольшое число”, а некоторые запросы были заблокированы встроенной защитой модели на ранних этапах.
Ключевой трюк GTG-1002 заключался в маскировке под легитимный аудит безопасности. Все задачи подавались как нейтральные команды безопасника: «просканируй диапазон», «проанализируй ответы», «составь отчёт». В такой форме запросы проходили часть фильтров, хотя Anthropic отмечает, что подозрительная активность местами всё-таки пресекалась автоматически.
После постановки цели операторы вмешивались лишь в критические точки. Остальное выполнялось в полуаутономном режиме: Claude через инфраструктуру MCP управлял утилитами, проводил разведку, анализировал сетевые ответы, искал уязвимости, подбирал эксплойты, поддерживал несколько параллельных веток атаки и систематизировал собранные данные.
По оценке, которую цитируют крупные медиа, ИИ выполнял около 80–90% тактических шагов. При этом независимые аналитики подчёркивают: без человеческого триажа кампания бы не состоялась — операторы по-прежнему принимали ключевые решения.
В успешных эпизодах агент находил внутренние сервисы, строил карту сети, выполнял ограниченный lateral movement и сортировал данные по ценности. Anthropic показывает процесс как цепочку: человек задаёт цель → ИИ проводит разведку → ищет уязвимости → двигается по сети → формирует отчёты → возвращает управление человеку в сложных развилках.
Важно, что GTG-1002 использовала обычные инструменты пентеста. Новизна в другом — LLM выступал как универсальный оператор, который оркестрирует этот стек и держит темп атаки.
Anthropic обнаружила аномалии в сентябре, перекрыла доступ примерно через десять дней и уведомила компании и регуляторов.
Факт остаётся фактом: это не эксперимент, а реальная кампания, где ИИ ведёт значимую часть Kill Chain.
Порог входа в сложные атаки падает, а возможности опытных групп масштабируются резко и заметно.
Источники
1. https://www.anthropic.com/news/disrupting-AI-espionage
2. https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
3. https://thehackernews.com/2025/11/chinese-hackers-use-anthropics-ai-to.html
REAL DIGITAL
#RealDigital #Cybersecurity #AI #AgenticAI #Claude #ThreatIntel #InfoSec #CyberAttack #AI2025
🤔3
⚠️ Инцидент с участием ИИ: кибергруппа из КНР использовала Claude для автоматизации атак
Anthropic опубликовала детали одной из первых подтверждённых операций, где ИИ-модель была задействована не как помощник, а как самостоятельный исполнитель внутри кибершпионской кампании.
📌 Что произошло
• В сентябре 2025 года была выявлена группа, которую Anthropic с высокой степенью уверенности связывает с государственными структурами КНР.
• Цель — около 30 организаций по всему миру: технологический сектор, финансы, химическая промышленность и госструктуры.
• Инструмент Claude Code выполнял большую часть рутинных задач автоматически: поиск уязвимостей, анализ инфраструктуры, генерация элементов эксплойтов, попытки эксплуатации.
• После обнаружения аномальной активности Anthropic заблокировала доступ, уведомила пострадавшие стороны и передала данные правоохранителям.
🤖 Что показал инцидент
Автоматизация была не абсолютной, но достаточно глубокой, чтобы показать: современные ИИ-системы способны выполнять значимые части kill chain без плотного участия человека. Это качественное изменение подхода к атакам.
🛡️ Что важно понимать
• Число успешных проникновений было ограниченным — по оценке Anthropic.
• Данные об атрибуции завязаны на аналитике компании; Китай официальных комментариев не дал.
• Эксперты подчёркивают: подобные случаи требуют не паники, а обновления оборонительных моделей — от мониторинга активности ИИ-агентов до контроля API-ключей и анализа аномальных запросов.
⚡️ Что это значит для индустрии
Мы входим в период, где ИИ становится не только инструментом защиты, но и элементом атаки. Компании, особенно в критической инфраструктуре, должны корректировать архитектуру безопасности:
— учитывать сценарии автономных ИИ-операций;
— усиливать диагностику поведения инструментов разработки;
— пересматривать риск-модели с учётом агентных ИИ-систем.
Источники:
1. Anthropic — отчёт об инциденте
2. AP News — публикация по расследованию
3. Business Insider — анализ атаки и роли Claude
4. The Verge — детали о методах и масштабе:
5. The Guardian — комментарии экспертов
REAL DIGITAL
#Cybersecurity #AIThreats #Anthropic #Claude #InfoSec #ChinaCyber #AIAttacks #RD
Anthropic опубликовала детали одной из первых подтверждённых операций, где ИИ-модель была задействована не как помощник, а как самостоятельный исполнитель внутри кибершпионской кампании.
📌 Что произошло
• В сентябре 2025 года была выявлена группа, которую Anthropic с высокой степенью уверенности связывает с государственными структурами КНР.
• Цель — около 30 организаций по всему миру: технологический сектор, финансы, химическая промышленность и госструктуры.
• Инструмент Claude Code выполнял большую часть рутинных задач автоматически: поиск уязвимостей, анализ инфраструктуры, генерация элементов эксплойтов, попытки эксплуатации.
• После обнаружения аномальной активности Anthropic заблокировала доступ, уведомила пострадавшие стороны и передала данные правоохранителям.
🤖 Что показал инцидент
Автоматизация была не абсолютной, но достаточно глубокой, чтобы показать: современные ИИ-системы способны выполнять значимые части kill chain без плотного участия человека. Это качественное изменение подхода к атакам.
🛡️ Что важно понимать
• Число успешных проникновений было ограниченным — по оценке Anthropic.
• Данные об атрибуции завязаны на аналитике компании; Китай официальных комментариев не дал.
• Эксперты подчёркивают: подобные случаи требуют не паники, а обновления оборонительных моделей — от мониторинга активности ИИ-агентов до контроля API-ключей и анализа аномальных запросов.
⚡️ Что это значит для индустрии
Мы входим в период, где ИИ становится не только инструментом защиты, но и элементом атаки. Компании, особенно в критической инфраструктуре, должны корректировать архитектуру безопасности:
— учитывать сценарии автономных ИИ-операций;
— усиливать диагностику поведения инструментов разработки;
— пересматривать риск-модели с учётом агентных ИИ-систем.
Источники:
1. Anthropic — отчёт об инциденте
2. AP News — публикация по расследованию
3. Business Insider — анализ атаки и роли Claude
4. The Verge — детали о методах и масштабе:
5. The Guardian — комментарии экспертов
REAL DIGITAL
#Cybersecurity #AIThreats #Anthropic #Claude #InfoSec #ChinaCyber #AIAttacks #RD
🤔3👍1
Как устроен «эффективный ИИ»: уроки Solar и архитектурный путь вне гонки гигантов
AI-индустрия всё заметнее делится на две линии.
Первая — это гонка за моделями уровня GPT-5, требующая сотен миллиардов параметров и гигантских дата-центров.
Вторая — архитектурная эффективность: модели, которые стремятся не к максимальному размеру, а к наилучшему соотношению качества и вычислительной стоимости.
Корейская линейка Solar стала одним из самых показательных примеров этого тренда.
Solar появился как компактная модель на 10,7 млрд параметров и быстро вошёл в топы Open LLM Leaderboard. Позднее версии Solar Pro и Solar Pro 2 (22–31B) начали демонстрировать результаты, которые в отдельных метриках — Artificial Analysis, SWE-Bench, MMLU-Pro — превосходят модели OpenAI, Anthropic и xAI. При этом универсальные frontier-модели по-прежнему сильнее по ширине задач, и это принципиально важно для корректного контекста.
Но сам факт того, что модель на десятки миллиардов параметров обгоняет гигантов в сложных бенчмарках, говорит о новом перераспределении в ИИ-архитектурах.
Ключевой элемент Solar — стратегия Depth Up-Scaling.
Вместо увеличения ширины модели инженеры Upstage усиливают глубину трансформера и используют тщательно составленный корпус данных. Такая комбинация даёт плотной модели неожиданно высокий уровень reasoning-способностей и позволяет ей работать внутри корпоративных контуров: для инференса достаточно одной GPU-карты, без кластеров и дорогой инфраструктуры.
Это не «дешёвый AI», а AI, у которого вычислительные требования соответствуют реальным возможностям средних компаний.
Параллельно развивается направление Mixture-of-Experts.
Mixtral 8×7B, DeepSeek-V2 и другие MoE-архитектуры показывают, что можно иметь сотни миллиардов параметров, активируя лишь малую часть на каждый токен. Это резко снижает стоимость обучения и увеличивает пропускную способность. Исследовательские группы экспериментируют с количеством экспертов, маршрутизаторами и балансировкой качества. По сути, DUS и MoE решают одну задачу разными путями: повысить интеллектуальную плотность модели без экспоненциального роста compute.
Эти подходы становятся особенно интересны для регионов, где растёт запрос на локальные, управляемые модели, работающие в защищённых периметрах.
Корея активно внедряет Solar именно в корпоративные процессы, где нужна приватность и контроль данных.
Япония развивает Sakura в похожей логике: локальная модель под локальные задачи.
Юго-Восточная Азия движется в том же направлении через SEA-LION, делая ставку на региональную адаптацию, а не на «гонку за размером».
Общий сдвиг выглядит так: эпоха «больше параметров» постепенно уступает место эпохе «умнее архитектура».
DUS, MoE, специализированные корпуса, эффективные модели — это не попытка конкурировать с OpenAI, а формирование нового слоя ИИ-ландшафта, где качество растёт быстрее ресурсов. Solar — лишь один из примеров, показывающий, что архитектурная эффективность стала самостоятельной линией развития, а не компромиссом.
Источники:
• Upstage — Solar Pro / Solar Pro 2 Technical Overview
• ZDNet Korea — 분석: Solar Pro 2 성능 및 벤치마크 결과
REAL DIGITAL
#AIархитектура #SolarLLM #эффективныйИИ #RealDigital
AI-индустрия всё заметнее делится на две линии.
Первая — это гонка за моделями уровня GPT-5, требующая сотен миллиардов параметров и гигантских дата-центров.
Вторая — архитектурная эффективность: модели, которые стремятся не к максимальному размеру, а к наилучшему соотношению качества и вычислительной стоимости.
Корейская линейка Solar стала одним из самых показательных примеров этого тренда.
Solar появился как компактная модель на 10,7 млрд параметров и быстро вошёл в топы Open LLM Leaderboard. Позднее версии Solar Pro и Solar Pro 2 (22–31B) начали демонстрировать результаты, которые в отдельных метриках — Artificial Analysis, SWE-Bench, MMLU-Pro — превосходят модели OpenAI, Anthropic и xAI. При этом универсальные frontier-модели по-прежнему сильнее по ширине задач, и это принципиально важно для корректного контекста.
Но сам факт того, что модель на десятки миллиардов параметров обгоняет гигантов в сложных бенчмарках, говорит о новом перераспределении в ИИ-архитектурах.
Ключевой элемент Solar — стратегия Depth Up-Scaling.
Вместо увеличения ширины модели инженеры Upstage усиливают глубину трансформера и используют тщательно составленный корпус данных. Такая комбинация даёт плотной модели неожиданно высокий уровень reasoning-способностей и позволяет ей работать внутри корпоративных контуров: для инференса достаточно одной GPU-карты, без кластеров и дорогой инфраструктуры.
Это не «дешёвый AI», а AI, у которого вычислительные требования соответствуют реальным возможностям средних компаний.
Параллельно развивается направление Mixture-of-Experts.
Mixtral 8×7B, DeepSeek-V2 и другие MoE-архитектуры показывают, что можно иметь сотни миллиардов параметров, активируя лишь малую часть на каждый токен. Это резко снижает стоимость обучения и увеличивает пропускную способность. Исследовательские группы экспериментируют с количеством экспертов, маршрутизаторами и балансировкой качества. По сути, DUS и MoE решают одну задачу разными путями: повысить интеллектуальную плотность модели без экспоненциального роста compute.
Эти подходы становятся особенно интересны для регионов, где растёт запрос на локальные, управляемые модели, работающие в защищённых периметрах.
Корея активно внедряет Solar именно в корпоративные процессы, где нужна приватность и контроль данных.
Япония развивает Sakura в похожей логике: локальная модель под локальные задачи.
Юго-Восточная Азия движется в том же направлении через SEA-LION, делая ставку на региональную адаптацию, а не на «гонку за размером».
Общий сдвиг выглядит так: эпоха «больше параметров» постепенно уступает место эпохе «умнее архитектура».
DUS, MoE, специализированные корпуса, эффективные модели — это не попытка конкурировать с OpenAI, а формирование нового слоя ИИ-ландшафта, где качество растёт быстрее ресурсов. Solar — лишь один из примеров, показывающий, что архитектурная эффективность стала самостоятельной линией развития, а не компромиссом.
Источники:
• Upstage — Solar Pro / Solar Pro 2 Technical Overview
• ZDNet Korea — 분석: Solar Pro 2 성능 및 벤치마크 결과
REAL DIGITAL
#AIархитектура #SolarLLM #эффективныйИИ #RealDigital
👍2🤔2🤯1
Media is too big
VIEW IN TELEGRAM
Подключайтесь к просмотру X международной конференции AI Journey 2025.
«Нет неэффективных сотрудников. Есть ваши ошибки!»: Путин — Грефу о 20% увольнений ИИ в «Сбере»
«Нет неэффективных сотрудников. Есть ваши ошибки!»: Путин — Грефу о 20% увольнений ИИ в «Сбере»
🤣5❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Для повышения безопасности предусмотрен бортовой ИИ: нейросеть анализирует данные с лидаров и других датчиков, плавно вмешиваясь в управление, чтобы предотвратить аварии.
REAL DIGITAL
Источник : НАУКА 4.0
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👏1
Kyndryl Readiness Report 2025: Где компании действительно буксуют с ИИ
Компания Kyndryl (крупный интегратор, бывшее инфраструктурное подразделение IBM) представила отчет о готовности бизнеса к переходу на ИИ.
И главный вывод показателен:
Все хотят ИИ сегодня, но их операционка к этому не готова.
Пилотные проекты запускаются повсеместно, но масштабирование буксует. Почему?
Ключевые проблемы:
• Устаревшие процессы — архитектура компаний не готова к гибкости ИИ
• Разрыв в ожиданиях — руководство ждет быстрых результатов, а команды работают по старым лекалам
• Неопределенность ролей — сотрудники не понимают, как их функции изменятся с внедрением ИИ
Отдельное внимание в отчете уделяют «агентному ИИ».
За модным термином скрывается практическая задача: перераспределение задач, где рутину автоматизируют, а человек фокусируется на исключениях. Но для этого процессы должны быть для этого готовы — а они чаще всего нет.
Итог: бизнес столкнулся с парадоксом — технологическая возможность есть, но организационная зрелость отстает. И это создает внутреннее напряжение и замедляет реальное внедрение.
С полным отчетом можно ознакомиться по ссылке:
https://www.kyndryl.com/us/en/insights/readiness-report-2025
А что видите вы в своих проектах? Сталкиваетесь с таким разрывом между ожиданиями и реальной готовностью?
REAL DIGITAL
#RealDigital #AI #DigitalTransformation #Kyndryl #ИИ
Компания Kyndryl (крупный интегратор, бывшее инфраструктурное подразделение IBM) представила отчет о готовности бизнеса к переходу на ИИ.
И главный вывод показателен:
Все хотят ИИ сегодня, но их операционка к этому не готова.
Пилотные проекты запускаются повсеместно, но масштабирование буксует. Почему?
Ключевые проблемы:
• Устаревшие процессы — архитектура компаний не готова к гибкости ИИ
• Разрыв в ожиданиях — руководство ждет быстрых результатов, а команды работают по старым лекалам
• Неопределенность ролей — сотрудники не понимают, как их функции изменятся с внедрением ИИ
Отдельное внимание в отчете уделяют «агентному ИИ».
За модным термином скрывается практическая задача: перераспределение задач, где рутину автоматизируют, а человек фокусируется на исключениях. Но для этого процессы должны быть для этого готовы — а они чаще всего нет.
Итог: бизнес столкнулся с парадоксом — технологическая возможность есть, но организационная зрелость отстает. И это создает внутреннее напряжение и замедляет реальное внедрение.
С полным отчетом можно ознакомиться по ссылке:
https://www.kyndryl.com/us/en/insights/readiness-report-2025
А что видите вы в своих проектах? Сталкиваетесь с таким разрывом между ожиданиями и реальной готовностью?
REAL DIGITAL
#RealDigital #AI #DigitalTransformation #Kyndryl #ИИ
👍2🤔1
Готов ли CEO к тому, что его работу начнёт делать ИИ?
Мы много месяцев обсуждаем, кого заменят модели: дизайнеров, аналитиков, копирайтеров, юристов…
Но странно другое: почти никто не поднимает вопрос про тех, кто сидит в самом верхнем кабинете. Хотя именно там изменения уже начали подбираться вплотную.
Недавно два руководителя больших корпораций открыто заговорили об этом.
Когда Сундар Пичаи сказал, что
— это не просто роскошь мысли.
Когда Сэм Альтман заявил, что
— это не метафора, а сигнал.
Не «кого уволят», а «какие функции перераспределятся».
Разложим работу руководителя на простые куски:
• Сбор данных, прогнозы, модели сценариев.
• Мониторинг рисков.
• Отслеживание KPI и распределение ресурсов.
В этих зонах машина скорее выигрывает: объём, скорость, отсутствие усталости.
И те задачи, которые нельзя просто формализовать:
• Разговор с советом директоров, где люди приносят свои истории и эмоции.
• Убеждение регуляторов и инвесторов — это не про алгоритмы, а про доверие.
• Поддержка команды после кризиса — вы не замените искренним извинением.
• Ответственность — если что-то пойдёт не так, придётся держать удар самому.
Почему они об этом говорят вслух
Причин несколько, и все они больше чем просто «технология».
1. Проверяют аудиторию: готовы ли мы принять, что управление станет смешанным.
2. Устанавливают ожидания: если CEO не боится, почему должны боялись мы?
3. Укладывают свои собственные стратегии: не только технологии, но и власть, культура.
Из этого следует, что
роль CEO не исчезнет — но изменится её дизайн.
ИИ возьмёт на себя то, что можно измерить, моделировать и оптимизировать.
Человек-CEO останется там, где надо чувствовать, влиять, рисковать и брать ответственность.
Выиграют те руководители, кто прим-ут ИИ не как врага, а как партнёра.
Проиграют те, кто будет ждать, что всё останется по-старому.
REAL DIGITAL
Источники
1. Сэм Альтман: https://www.businessinsider.com/sam-altman-openai-ai-ceo-2025-2025-11
2. Сундар Пичаи: https://www.theguardian.com/technology/2025/nov/18/alphabet-boss-sundar-pichai-ai-artificial-intelligence-trust
3. Фото: https://www.nytimes.com/2023/05/04/briefing/white-house-ai-leaders-proud-boys-trial.html
#Хэштеги: #ИИ #CEO #Управление #БудущееРаботы #Технологии
Мы много месяцев обсуждаем, кого заменят модели: дизайнеров, аналитиков, копирайтеров, юристов…
Но странно другое: почти никто не поднимает вопрос про тех, кто сидит в самом верхнем кабинете. Хотя именно там изменения уже начали подбираться вплотную.
Недавно два руководителя больших корпораций открыто заговорили об этом.
Когда Сундар Пичаи сказал, что
работа CEO одна из тех, что ИИ сможет делать в будущем
— это не просто роскошь мысли.
Когда Сэм Альтман заявил, что
«настанет момент, когда ИИ будет лучше CEO, чем я»
— это не метафора, а сигнал.
Не «кого уволят», а «какие функции перераспределятся».
Разложим работу руководителя на простые куски:
• Сбор данных, прогнозы, модели сценариев.
• Мониторинг рисков.
• Отслеживание KPI и распределение ресурсов.
В этих зонах машина скорее выигрывает: объём, скорость, отсутствие усталости.
И те задачи, которые нельзя просто формализовать:
• Разговор с советом директоров, где люди приносят свои истории и эмоции.
• Убеждение регуляторов и инвесторов — это не про алгоритмы, а про доверие.
• Поддержка команды после кризиса — вы не замените искренним извинением.
• Ответственность — если что-то пойдёт не так, придётся держать удар самому.
Почему они об этом говорят вслух
Причин несколько, и все они больше чем просто «технология».
1. Проверяют аудиторию: готовы ли мы принять, что управление станет смешанным.
2. Устанавливают ожидания: если CEO не боится, почему должны боялись мы?
3. Укладывают свои собственные стратегии: не только технологии, но и власть, культура.
Из этого следует, что
роль CEO не исчезнет — но изменится её дизайн.
ИИ возьмёт на себя то, что можно измерить, моделировать и оптимизировать.
Человек-CEO останется там, где надо чувствовать, влиять, рисковать и брать ответственность.
Выиграют те руководители, кто прим-ут ИИ не как врага, а как партнёра.
Проиграют те, кто будет ждать, что всё останется по-старому.
REAL DIGITAL
Источники
1. Сэм Альтман: https://www.businessinsider.com/sam-altman-openai-ai-ceo-2025-2025-11
2. Сундар Пичаи: https://www.theguardian.com/technology/2025/nov/18/alphabet-boss-sundar-pichai-ai-artificial-intelligence-trust
3. Фото: https://www.nytimes.com/2023/05/04/briefing/white-house-ai-leaders-proud-boys-trial.html
#Хэштеги: #ИИ #CEO #Управление #БудущееРаботы #Технологии
👍2❤1🤔1
ISO 27001 и ИИ: почему ваша безопасность — иллюзия
Многие компании уверены: раз есть ISO 27001 — риски ИИ «закрыты по умолчанию».
Это опасное заблуждение.
ISO 27001 даёт каркас управления безопасностью, но по умолчанию не видит угроз ИИ:
data poisoning, adversarial-атаки, утечки через промпты, дрейф моделей, инверсию моделей.
Без адаптации под ИИ стандарт превращается в формальность и создаёт ложное чувство защищённости.
Ключевые заблуждения, которые создают дыры в защите
1. «ISO 27001 покрывает риски ИИ» — нет
Стандарт описывает процесс управления рисками, но ИИ-угрозы туда не входят автоматически.
Их нужно добавить вручную:
• инверсия моделей и извлечение интеллектуальных данных,
• poisoning тренировочных датасетов,
• эксплуатация галлюцинаций,
• каскадные сбои в MLOps-пайплайнах.
Если этого нет в риск-регистре — ISMS устарело, даже если сертификат свежий.
2. «Написали AI Policy — защитились» — ошибка
Политика без технических мер ничего не защищает.
Нужны:
• мониторинг дрейфа моделей (data/model drift),
• sanitization входных и выходных данных,
• аудит датасетов на bias и poisoning,
• регулярный red teaming моделей.
Большинство инцидентов происходит из-за неконтролируемых данных, а не из-за уязвимостей в коде.
3. «ИИ — обычный ИТ-сервис» — ошибка классификации
ИИ работает автономно, влияет на решения и может искажать процессы.
Риски другого уровня:
• галлюцинации → дезинформация,
• prompt injection → манипуляция моделями,
• некорректные предсказания → каскадные сбои.
Здесь нужны XAI-проверки, контроль версий моделей и данных, мониторинг поведения модели — далеко за пределами классических ИБ-контролей.
Как сделать ISO 27001 пригодным для ИИ
27001 остаётся базой, но её нужно перенастроить:
В риск-менеджмент:
добавить отдельный класс ИИ-рисков.
В Annex A:
переписать политики под жизненный цикл моделей (development → training → deployment → monitoring).
В операционные процессы:
контроль тренировочных данных, мониторинг дрейфа, протоколы реагирования на инциденты ИИ.
Для полноценного покрытия нужны специализированные стандарты:
ISO/IEC 42001 (AI Governance) и ISO/IEC 23894 (AI Risk Management).
Почему это критично в 2025 году
ИИ развивается быстрее, чем классические меры безопасности.
Инциденты уже не про «вирусы», а про:
• утечки через промпты,
• фейковую аналитику в принятии решений,
• подмену данных при обучении,
• сбои бизнеса из-за неверных ответов модели.
ISMS старой школы этого не видит.
ISO 27001 — фундамент.
Но если ИИ не встроен в ISMS, риски остаются невидимыми, даже при формальной сертификации.
Рекомендация:
провести gap-analysis «ISMS vs. AI Risks» и внедрить контроли из ISO 42001 и 23894.
Контролирует ли ваша организация ИИ-риски?
Источники
• ISO/IEC 27001:2022 — Information Security Management Systems
• ISO/IEC 23894:2023 — Artificial Intelligence Risk Management
• ISO/IEC 42001:2023 — AI Management System Standard
• NIST AI Risk Management Framework (2023)
• ENISA: Adversarial Machine Learning Threat Landscape (2021)
• OECD AI Principles (2019, обновление 2024)
REAL DIGITAL
#RealDigital #CyberSecurity #ISO27001 #AI #AIБезопасность #AIGovernance
#ISMS #RiskManagement #ISO42001 #ISO23894 #MLOps #DataSecurity #AIРиски
Многие компании уверены: раз есть ISO 27001 — риски ИИ «закрыты по умолчанию».
Это опасное заблуждение.
ISO 27001 даёт каркас управления безопасностью, но по умолчанию не видит угроз ИИ:
data poisoning, adversarial-атаки, утечки через промпты, дрейф моделей, инверсию моделей.
Без адаптации под ИИ стандарт превращается в формальность и создаёт ложное чувство защищённости.
Ключевые заблуждения, которые создают дыры в защите
1. «ISO 27001 покрывает риски ИИ» — нет
Стандарт описывает процесс управления рисками, но ИИ-угрозы туда не входят автоматически.
Их нужно добавить вручную:
• инверсия моделей и извлечение интеллектуальных данных,
• poisoning тренировочных датасетов,
• эксплуатация галлюцинаций,
• каскадные сбои в MLOps-пайплайнах.
Если этого нет в риск-регистре — ISMS устарело, даже если сертификат свежий.
2. «Написали AI Policy — защитились» — ошибка
Политика без технических мер ничего не защищает.
Нужны:
• мониторинг дрейфа моделей (data/model drift),
• sanitization входных и выходных данных,
• аудит датасетов на bias и poisoning,
• регулярный red teaming моделей.
Большинство инцидентов происходит из-за неконтролируемых данных, а не из-за уязвимостей в коде.
3. «ИИ — обычный ИТ-сервис» — ошибка классификации
ИИ работает автономно, влияет на решения и может искажать процессы.
Риски другого уровня:
• галлюцинации → дезинформация,
• prompt injection → манипуляция моделями,
• некорректные предсказания → каскадные сбои.
Здесь нужны XAI-проверки, контроль версий моделей и данных, мониторинг поведения модели — далеко за пределами классических ИБ-контролей.
Как сделать ISO 27001 пригодным для ИИ
27001 остаётся базой, но её нужно перенастроить:
В риск-менеджмент:
добавить отдельный класс ИИ-рисков.
В Annex A:
переписать политики под жизненный цикл моделей (development → training → deployment → monitoring).
В операционные процессы:
контроль тренировочных данных, мониторинг дрейфа, протоколы реагирования на инциденты ИИ.
Для полноценного покрытия нужны специализированные стандарты:
ISO/IEC 42001 (AI Governance) и ISO/IEC 23894 (AI Risk Management).
Почему это критично в 2025 году
ИИ развивается быстрее, чем классические меры безопасности.
Инциденты уже не про «вирусы», а про:
• утечки через промпты,
• фейковую аналитику в принятии решений,
• подмену данных при обучении,
• сбои бизнеса из-за неверных ответов модели.
ISMS старой школы этого не видит.
ISO 27001 — фундамент.
Но если ИИ не встроен в ISMS, риски остаются невидимыми, даже при формальной сертификации.
Рекомендация:
провести gap-analysis «ISMS vs. AI Risks» и внедрить контроли из ISO 42001 и 23894.
Контролирует ли ваша организация ИИ-риски?
Источники
• ISO/IEC 27001:2022 — Information Security Management Systems
• ISO/IEC 23894:2023 — Artificial Intelligence Risk Management
• ISO/IEC 42001:2023 — AI Management System Standard
• NIST AI Risk Management Framework (2023)
• ENISA: Adversarial Machine Learning Threat Landscape (2021)
• OECD AI Principles (2019, обновление 2024)
REAL DIGITAL
#RealDigital #CyberSecurity #ISO27001 #AI #AIБезопасность #AIGovernance
#ISMS #RiskManagement #ISO42001 #ISO23894 #MLOps #DataSecurity #AIРиски
🔥3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск выложил видео, где его роботы выступают строителями, медиками, полицейскими, поварами, игроками в покер и каратистами.
Что он этим хотел сказать — не объяснил.
https://x.com/elonmusk/status/1991735383974113655?s=46
Что он этим хотел сказать — не объяснил.
https://x.com/elonmusk/status/1991735383974113655?s=46
🔥5
Австралия 2025: хочешь работать с госданными — твой ИИ остаётся в стране
Правило простое: если обрабатываешь данные граждан или госструктур —
твоя инфраструктура и модели должны находиться внутри Австралии.
Как это выглядит на практике:
→ Суверенные облачные зоны: данные не покидают страну
→ Только локальные модели для госведомств
→ Персональная информация — исключительно в австралийских ЦОДах
→ Зарубежные дата-центры под такие задачи запрещены
Без тяжёлой регуляторики в стиле EU AI Act.
Три документа :
- AI Ethics Principles,
- National Framework for AI Assurance
- Guidance for AI Adoption
формируют понятный, рабочий набор правил.
Минимум бюрократии. Максимум контроля.
Источники:
https://www.industry.gov.au/science-technology-and-innovation/technology/artificial-intelligence
https://www.finance.gov.au/government/public-data/data-and-digital-ministers-meeting/national-framework-assurance-artificial-intelligence-government
https://www.industry.gov.au/publications/guidance-for-ai-adoption
REAL DIGITAL
#dataSovereignty #AustraliaAI #AIregulation #RealDigital
Правило простое: если обрабатываешь данные граждан или госструктур —
твоя инфраструктура и модели должны находиться внутри Австралии.
Как это выглядит на практике:
→ Суверенные облачные зоны: данные не покидают страну
→ Только локальные модели для госведомств
→ Персональная информация — исключительно в австралийских ЦОДах
→ Зарубежные дата-центры под такие задачи запрещены
Без тяжёлой регуляторики в стиле EU AI Act.
Три документа :
- AI Ethics Principles,
- National Framework for AI Assurance
- Guidance for AI Adoption
формируют понятный, рабочий набор правил.
Минимум бюрократии. Максимум контроля.
Источники:
https://www.industry.gov.au/science-technology-and-innovation/technology/artificial-intelligence
https://www.finance.gov.au/government/public-data/data-and-digital-ministers-meeting/national-framework-assurance-artificial-intelligence-government
https://www.industry.gov.au/publications/guidance-for-ai-adoption
REAL DIGITAL
#dataSovereignty #AustraliaAI #AIregulation #RealDigital
👍3🔥2👏1
NIS2: кто-то уже платит штрафы, кто-то ещё разбирается в требованиях
Представьте: вы CISO финтех-компании в Польше.
Ваш коллега в Германии уже проходит аудит по NIS2 и рискует получить штраф до €10 млн.
А вы всё ещё ждёте, когда местный регулятор определится с правилами.
Так выглядит Европа в ноябре 2025:
только 19 из 27 стран ЕС успели внедрить директиву полностью.
Что изменилось жёстко:
→ 24 часа на первый отчёт об инциденте
→ Личная ответственность топ-менеджмента
→ European Vulnerability Registry — единый реестр уязвимостей
Пока в одних странах компании переписывают процессы под угрозой санкций, в других всё только начинается.
27 стран. 27 скоростей. Одна директива.
Источники:
https://www.enisa.europa.eu/topics/state-of-cybersecurity-in-the-eu/cybersecurity-policies/nis-directive-2
https://www.enisa.europa.eu/publications/nis2-technical-implementation-guidance
REAL DIGITAL
#NIS2 #cybersecurity #EUcompliance #RealDigital
Представьте: вы CISO финтех-компании в Польше.
Ваш коллега в Германии уже проходит аудит по NIS2 и рискует получить штраф до €10 млн.
А вы всё ещё ждёте, когда местный регулятор определится с правилами.
Так выглядит Европа в ноябре 2025:
только 19 из 27 стран ЕС успели внедрить директиву полностью.
Что изменилось жёстко:
→ 24 часа на первый отчёт об инциденте
→ Личная ответственность топ-менеджмента
→ European Vulnerability Registry — единый реестр уязвимостей
Пока в одних странах компании переписывают процессы под угрозой санкций, в других всё только начинается.
27 стран. 27 скоростей. Одна директива.
Источники:
https://www.enisa.europa.eu/topics/state-of-cybersecurity-in-the-eu/cybersecurity-policies/nis-directive-2
https://www.enisa.europa.eu/publications/nis2-technical-implementation-guidance
REAL DIGITAL
#NIS2 #cybersecurity #EUcompliance #RealDigital
🤨2🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Quick Share ↔ AirDrop: что на самом деле происходит между Pixel 10 и iPhone
Google обновила Quick Share на Pixel 10, и теперь смартфон может отправлять и принимать файлы с iPhone и Mac напрямую, без интернета и без облака. Это первый рабочий кейс прямой совместимости Android ↔ iOS без обходных путей.
Как устроена техника
Обнаружение (discovery)
Pixel 10 использует стандартные BLE-advertisements по спецификациям Bluetooth SIG.
iOS 18.x корректно распознаёт такие профили только при включённом режиме «Everyone for 10 minutes».
Без этого Pixel в списке не появится — это ключевое техническое условие.
Передача (transport)
Файлы идут по локальному Wi-Fi P2P:
• Wi-Fi Direct, если согласован режим AP + клиент
• или Wi-Fi Aware, если обе стороны поддерживают NAN
Это чистые стандарты Wi-Fi Alliance, без серверов Google/Apple.
Что не используется
AWDL — проприетарный протокол AirDrop — Pixel не использует.
Закрытые хендшейки Apple тоже отсутствуют.
Pixel отображается в интерфейсе AirDrop, но работает не через AirDrop-протокол, а через открытую связку BLE + Wi-Fi P2P.
Digital Markets Act (DMA) — это закон Евросоюза.
Регуляторы требуют interoperability, если есть открытый P2P-механизм (Direct/Aware).
Запрет от Apple создал бы правовые риски для них.
И поэтому поведение iOS 18.x
AirDrop теперь реагирует на стандартные BLE-профили сторонних устройств в режиме «Everyone for 10 minutes».
Это не шаг Apple навстречу Android — это адаптация под регуляторные требования.
Google использовала окно возможностей.
Apple — не блокирует.
Но есть и ограничения:
• Работает только на Pixel 10-серии (ограничение rollout’а).
• На iOS — работает на всех версиях 18.x, но стабильнее в последних бетах.
• Старые Mac иногда ведут себя нестабильно.
• Скорость сравнима с AirDrop между устройствами Apple.
Это первый реальный прецедент, когда:
• Android-устройство появляется в AirDrop-интерфейсе
• передача работает нативно
• Apple не закрывает окно совместимости
• открытые стандарты BLE/Wi-Fi стали фактической точкой пересечения двух экосистем
Жёсткие стены Apple-экосистемы впервые дают трещину — не из-за «дружбы», а под давлением открытых стандартов и регуляторики.
Итог: это не «AirDrop для Android».
Это — рабочая двусторонняя передача по BLE + Wi-Fi Direct/Aware, которую Pixel реализует корректно, а iOS 18.x — не блокирует.
Работает. Быстро. Локально.
И снимает барьер, который считался непроходимым 10 лет.
REAL DIGITAL
Источники:
Видео-демонстрация:
https://youtu.be/nWZi8b6fXLs?si=6quwQRD3swQZiH0P
Официальный блог:
https://blog.google/products/android/quick-share-airdrop/
#Pixel10 #AirDrop #QuickShare #Android #iOS #DMA #Interoperability #TechNews #RealDigital
Google обновила Quick Share на Pixel 10, и теперь смартфон может отправлять и принимать файлы с iPhone и Mac напрямую, без интернета и без облака. Это первый рабочий кейс прямой совместимости Android ↔ iOS без обходных путей.
Как устроена техника
Обнаружение (discovery)
Pixel 10 использует стандартные BLE-advertisements по спецификациям Bluetooth SIG.
iOS 18.x корректно распознаёт такие профили только при включённом режиме «Everyone for 10 minutes».
Без этого Pixel в списке не появится — это ключевое техническое условие.
Передача (transport)
Файлы идут по локальному Wi-Fi P2P:
• Wi-Fi Direct, если согласован режим AP + клиент
• или Wi-Fi Aware, если обе стороны поддерживают NAN
Это чистые стандарты Wi-Fi Alliance, без серверов Google/Apple.
Что не используется
AWDL — проприетарный протокол AirDrop — Pixel не использует.
Закрытые хендшейки Apple тоже отсутствуют.
Pixel отображается в интерфейсе AirDrop, но работает не через AirDrop-протокол, а через открытую связку BLE + Wi-Fi P2P.
Digital Markets Act (DMA) — это закон Евросоюза.
Регуляторы требуют interoperability, если есть открытый P2P-механизм (Direct/Aware).
Запрет от Apple создал бы правовые риски для них.
И поэтому поведение iOS 18.x
AirDrop теперь реагирует на стандартные BLE-профили сторонних устройств в режиме «Everyone for 10 minutes».
Это не шаг Apple навстречу Android — это адаптация под регуляторные требования.
Google использовала окно возможностей.
Apple — не блокирует.
Но есть и ограничения:
• Работает только на Pixel 10-серии (ограничение rollout’а).
• На iOS — работает на всех версиях 18.x, но стабильнее в последних бетах.
• Старые Mac иногда ведут себя нестабильно.
• Скорость сравнима с AirDrop между устройствами Apple.
Это первый реальный прецедент, когда:
• Android-устройство появляется в AirDrop-интерфейсе
• передача работает нативно
• Apple не закрывает окно совместимости
• открытые стандарты BLE/Wi-Fi стали фактической точкой пересечения двух экосистем
Жёсткие стены Apple-экосистемы впервые дают трещину — не из-за «дружбы», а под давлением открытых стандартов и регуляторики.
Итог: это не «AirDrop для Android».
Это — рабочая двусторонняя передача по BLE + Wi-Fi Direct/Aware, которую Pixel реализует корректно, а iOS 18.x — не блокирует.
Работает. Быстро. Локально.
И снимает барьер, который считался непроходимым 10 лет.
REAL DIGITAL
Источники:
Видео-демонстрация:
https://youtu.be/nWZi8b6fXLs?si=6quwQRD3swQZiH0P
Официальный блог:
https://blog.google/products/android/quick-share-airdrop/
#Pixel10 #AirDrop #QuickShare #Android #iOS #DMA #Interoperability #TechNews #RealDigital
👏4
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Opus 4.5 усилил защиту, но агентные сценарии остаются слабым местом
Anthropic выпустила Claude Opus 4.5 — новую флагманскую модель для кода и агентных сценариев. Компания подчёркивает усиленную защиту от prompt-injection, но в системной карточке прямо признаёт: модель стала строже, однако полностью защитить её нельзя. Инъекции всё ещё проходят, особенно когда агентам дают доступ к коду, браузеру или файловой системе.
В контролируемых тестах Opus 4.5 как агент-кодер отклонил 150 из 150 вредных задач. Но в независимых испытаниях режимов Claude Code и «computer use» исследователи фиксируют 12–22% согласий на сомнительные запросы — от подсказок для DDoS до попыток обхода ограничений и доступа к данным.
На фоне свежих кейсов, где цепочки кибершпионажа удалось почти полностью автоматизировать при помощи ИИ, становится очевидно: безопасность «через промты» — это только базовый слой. Поверх него обязательно нужны ограниченные права агентов, чёткие периметры доступа, аудит действий и архитектурные барьеры.
Источники:
1. The Verge — https://www.theverge.com/2025/1/23/claude-opus-4-5-anthropic-update
2. Anthropic System Card — https://www-files.anthropic.com/production/files/model-system-card-claude-4-5.pdf
3. The Outpost — https://www.theoutpost.io/p/claude-opus-4-5-testing-the-limits
#Anthropic #Claude #Opus45 #AI #LLM #PromptInjection #CyberSecurity #AIsecurity #AgenticAI #GenAI #DevTools #RealDigital
Anthropic выпустила Claude Opus 4.5 — новую флагманскую модель для кода и агентных сценариев. Компания подчёркивает усиленную защиту от prompt-injection, но в системной карточке прямо признаёт: модель стала строже, однако полностью защитить её нельзя. Инъекции всё ещё проходят, особенно когда агентам дают доступ к коду, браузеру или файловой системе.
В контролируемых тестах Opus 4.5 как агент-кодер отклонил 150 из 150 вредных задач. Но в независимых испытаниях режимов Claude Code и «computer use» исследователи фиксируют 12–22% согласий на сомнительные запросы — от подсказок для DDoS до попыток обхода ограничений и доступа к данным.
На фоне свежих кейсов, где цепочки кибершпионажа удалось почти полностью автоматизировать при помощи ИИ, становится очевидно: безопасность «через промты» — это только базовый слой. Поверх него обязательно нужны ограниченные права агентов, чёткие периметры доступа, аудит действий и архитектурные барьеры.
Источники:
1. The Verge — https://www.theverge.com/2025/1/23/claude-opus-4-5-anthropic-update
2. Anthropic System Card — https://www-files.anthropic.com/production/files/model-system-card-claude-4-5.pdf
3. The Outpost — https://www.theoutpost.io/p/claude-opus-4-5-testing-the-limits
#Anthropic #Claude #Opus45 #AI #LLM #PromptInjection #CyberSecurity #AIsecurity #AgenticAI #GenAI #DevTools #RealDigital
🔥5🤔1
Математика, которая решает будущее: тревожность, нейросети и задачи на миллион
Наш постоянный читатель прислал в редакцию REAL DIGITAL лекцию, мимо которой сложно пройти: Андрей Коняев говорит о математике так, что это перестаёт быть «страшным школьным предметом» и превращается в способ понимать мир — от МРТ и полупроводников до климатических моделей и нейросетей.
В центре разговора — математическая тревожность (да, это реальный термин), нерешённые задачи тысячелетия с призом в миллион долларов и тот самый разрыв между школьной «математикой по рецептам» и живой наукой, которая реально лежит под капотом технологий вокруг нас.
Коняев показывает, как абстрактные конструкции — алгебры Ли, функциональный анализ, теория вероятностей — оказываются ответственны за вещи, к которым мы привыкли: медицинскую визуализацию мозга, устойчивую связь, работу электроники и криптографии.
По ходу дела он успевает:
- разобрать качество школьного преподавания
- объяснить, зачем математика гуманитарию
- рассказать, почему нейросети, в отличие от классической инженерии, до сих пор живут без чётких теорем устойчивости
Для кого: для всех, кто когда-то сказал «я гуманитарий» или «математика — не моё», но втайне хочет понимать, как устроен мир технологий.
Если вы хотите посмотреть на математику не как на набор формул, а как на язык для разговора о будущем — эту лекцию точно стоит сохранить в избранное и включить вечером вместо очередного сериала.
🎥 Смотреть на YouTube:[«Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев»]
REAL DIGITAL
Фото: модифицировано с помощью GROK.
Наш постоянный читатель прислал в редакцию REAL DIGITAL лекцию, мимо которой сложно пройти: Андрей Коняев говорит о математике так, что это перестаёт быть «страшным школьным предметом» и превращается в способ понимать мир — от МРТ и полупроводников до климатических моделей и нейросетей.
В центре разговора — математическая тревожность (да, это реальный термин), нерешённые задачи тысячелетия с призом в миллион долларов и тот самый разрыв между школьной «математикой по рецептам» и живой наукой, которая реально лежит под капотом технологий вокруг нас.
Коняев показывает, как абстрактные конструкции — алгебры Ли, функциональный анализ, теория вероятностей — оказываются ответственны за вещи, к которым мы привыкли: медицинскую визуализацию мозга, устойчивую связь, работу электроники и криптографии.
По ходу дела он успевает:
- разобрать качество школьного преподавания
- объяснить, зачем математика гуманитарию
- рассказать, почему нейросети, в отличие от классической инженерии, до сих пор живут без чётких теорем устойчивости
Для кого: для всех, кто когда-то сказал «я гуманитарий» или «математика — не моё», но втайне хочет понимать, как устроен мир технологий.
Если вы хотите посмотреть на математику не как на набор формул, а как на язык для разговора о будущем — эту лекцию точно стоит сохранить в избранное и включить вечером вместо очередного сериала.
🎥 Смотреть на YouTube:[«Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев»]
REAL DIGITAL
Фото: модифицировано с помощью GROK.
👍6👏2
Буэнос-Айрес: госуслуги через WhatsApp. 4 млн запросов в месяц.
Boti — городской бот — обрабатывает >4 млн запросов ежемесячно.
“Где мой штраф?”, “Записать к врачу”, “Справка о доходах” — всё в одном чате.
А Mi Argentina (национальный цифровой ID) в 2025 добавляет ИИ-ответы по:
→ налогам,
→ соцвыплатам,
→ программам господдержки.
Латинская Америка показывает, что цифровая трансформация — это не презентации.
Это рабочие сервисы, где людям удобно.
Источники:
https://buenosaires.gob.ar/innovacionytransformaciondigital/boti
https://www.argentina.gob.ar/miargentina
REAL DIGITAL
#govtech #Argentina #AIinGov #RealDigital
Если многие страны запускают красивые приложения, которые надо ещё скачать
Буэнос-Айрес пришёл туда, где люди уже живут — в WhatsApp.
Boti — городской бот — обрабатывает >4 млн запросов ежемесячно.
“Где мой штраф?”, “Записать к врачу”, “Справка о доходах” — всё в одном чате.
А Mi Argentina (национальный цифровой ID) в 2025 добавляет ИИ-ответы по:
→ налогам,
→ соцвыплатам,
→ программам господдержки.
Латинская Америка показывает, что цифровая трансформация — это не презентации.
Это рабочие сервисы, где людям удобно.
Источники:
https://buenosaires.gob.ar/innovacionytransformaciondigital/boti
https://www.argentina.gob.ar/miargentina
REAL DIGITAL
#govtech #Argentina #AIinGov #RealDigital
🔥5👍3❤1
Май 2025, Дания: хакеры зашли в систему водоканала. Обошлось. В этот раз.
Атака на датский водоканал в мае 2025 не привела к катастрофе.
Но вопрос остался: а если бы захотели?
Отключить подачу? Поменять параметры очистки?
Классические слабые места:
• SCADA-системы десятилетней давности
• Открытые RDP-порты “для подрядчиков”
• Контроллеры, про которые забыли после ухода того самого админа
ENISA фиксирует +38% атак на энергосети Европы за 2025 год.
Как реагируют США:
водоканалы с аудиторией >50 тыс. человек обязали:
→ вести полный инвентарь OT-оборудования
→ закрывать легаси-удалёнки
→ проходить регулярные тесты на проникновение
На этом фоне NIS2 (о котором мы писали вчера) перестаёт быть “бюрократией”.
Это страховка. Без неё инфраструктура долго не проживёт.
Источники:
https://www.epa.gov/enforcement/enforcement-alert-drinking-water-systems-address-cybersecurity-vulnerabilities
https://www.enisa.europa.eu/sites/default/files/2025-10/ENISA%20Threat%20Landscape%202025_0.pdf
REAL DIGITAL
#OTsecurity #criticalInfrastructure #NIS2 #RealDigital
Атака на датский водоканал в мае 2025 не привела к катастрофе.
Но вопрос остался: а если бы захотели?
Отключить подачу? Поменять параметры очистки?
Классические слабые места:
• SCADA-системы десятилетней давности
• Открытые RDP-порты “для подрядчиков”
• Контроллеры, про которые забыли после ухода того самого админа
ENISA фиксирует +38% атак на энергосети Европы за 2025 год.
Как реагируют США:
водоканалы с аудиторией >50 тыс. человек обязали:
→ вести полный инвентарь OT-оборудования
→ закрывать легаси-удалёнки
→ проходить регулярные тесты на проникновение
На этом фоне NIS2 (о котором мы писали вчера) перестаёт быть “бюрократией”.
Это страховка. Без неё инфраструктура долго не проживёт.
Источники:
https://www.epa.gov/enforcement/enforcement-alert-drinking-water-systems-address-cybersecurity-vulnerabilities
https://www.enisa.europa.eu/sites/default/files/2025-10/ENISA%20Threat%20Landscape%202025_0.pdf
REAL DIGITAL
#OTsecurity #criticalInfrastructure #NIS2 #RealDigital
👍2😱1🤨1
Google Gemini нашёл новые антибиотики быстрее, чем учёные успели подать заявку на грант
Раньше цикл исследования выглядел так:
гипотеза → месяцы экспериментов → анализ → новая гипотеза.
Теперь:
Gemini 2.0 делает это за ночь и утром предлагает три новых направления.
В 2025 Google AI co-scientist работает в полную силу:
→ формирует гипотезы на больших массивах данных
→ планирует серии экспериментов
→ находит паттерны, которые человек просто не видит
Реальные кейсы:
• поиск новых антибиотиков через анализ молекулярных графов
• репурпосинг лекарств для онкологии
Пока журналы не разрешают указывать ИИ в соавторах.
Но факт: в некоторых проектах именно он делает половину работы.
Источники:
1. Google Research — “Accelerating scientific breakthroughs with an AI co-scientist” (19 февраля 2025) — описание системы на базе Gemini 2.0.
2. Imperial College London — “Google’s AI co-scientist could enhance research” (февраль 2025) — обзор исследователей о возможностях системы.
3. IEEE Spectrum — “Google’s AI Co-Scientist Scores Two Wins in Biology” (сентябрь 2025) — кейсы по репурпозингу препаратов.
REAL DIGITAL
#AIinScience #biotech #Gemini #RealDigital
Раньше цикл исследования выглядел так:
гипотеза → месяцы экспериментов → анализ → новая гипотеза.
Теперь:
Gemini 2.0 делает это за ночь и утром предлагает три новых направления.
В 2025 Google AI co-scientist работает в полную силу:
→ формирует гипотезы на больших массивах данных
→ планирует серии экспериментов
→ находит паттерны, которые человек просто не видит
Реальные кейсы:
• поиск новых антибиотиков через анализ молекулярных графов
• репурпосинг лекарств для онкологии
Пока журналы не разрешают указывать ИИ в соавторах.
Но факт: в некоторых проектах именно он делает половину работы.
Источники:
1. Google Research — “Accelerating scientific breakthroughs with an AI co-scientist” (19 февраля 2025) — описание системы на базе Gemini 2.0.
2. Imperial College London — “Google’s AI co-scientist could enhance research” (февраль 2025) — обзор исследователей о возможностях системы.
3. IEEE Spectrum — “Google’s AI Co-Scientist Scores Two Wins in Biology” (сентябрь 2025) — кейсы по репурпозингу препаратов.
REAL DIGITAL
#AIinScience #biotech #Gemini #RealDigital
👍5
Прошло первое заседание нового Общественного совета при Министерстве искусственного интеллекта и цифрового развития РК.
Вчера, 26 ноября 2025 года, прошло заседание нового состава Общественного Совета при Министерстве искусственного интеллекта и цифрового развития РК.
Выступаю с речью, заместитель премьер-министра – министр Жаслан Мадиев акцентировал, что открытый диалог с экспертами и гражданами становится ключевым условием выполнения задач, поставленных Президентом в сфере цифровизации и искусственного интеллекта.
Г-н Мадиев Ж.Х. отдельно отметил вклад Беклемишева А.П., возглавлявшего Совет предыдущего состава, и поблагодарил его за проделанную работу.
На заседании представили регламент деятельности Совета и провели выборы нового руководства. Председателем избрана Асем Болатжан, руководитель «Women in Tech Kazakhstan Chapter».
Участники рассмотрели и утвердили предложения к рабочему плану Совета на 2026 год.
Подробнее : https://www.gov.kz/memleket/entities/maidd/press/news/details/1113229?lang=ru
Вчера, 26 ноября 2025 года, прошло заседание нового состава Общественного Совета при Министерстве искусственного интеллекта и цифрового развития РК.
Выступаю с речью, заместитель премьер-министра – министр Жаслан Мадиев акцентировал, что открытый диалог с экспертами и гражданами становится ключевым условием выполнения задач, поставленных Президентом в сфере цифровизации и искусственного интеллекта.
Г-н Мадиев Ж.Х. отдельно отметил вклад Беклемишева А.П., возглавлявшего Совет предыдущего состава, и поблагодарил его за проделанную работу.
На заседании представили регламент деятельности Совета и провели выборы нового руководства. Председателем избрана Асем Болатжан, руководитель «Women in Tech Kazakhstan Chapter».
Участники рассмотрели и утвердили предложения к рабочему плану Совета на 2026 год.
Подробнее : https://www.gov.kz/memleket/entities/maidd/press/news/details/1113229?lang=ru
👍8❤3