ЦА обгоняет сама себя: ИИ в финансах уже не эксперимент
Регуляторы Казахстана, Кыргызстана и Таджикистана впервые провели совместное исследование ИИ в финансовом секторе — опросили 232 организации и получили неожиданную картину.
Что показал доклад:
📌 Только 36% финансовых организаций региона используют ИИ — против 52% в мире по данным NVIDIA 2025. При этом 56% уже планируют внедрение в течение следующего года. Разрыв между "используем сейчас" и "внедряем скоро" — один из крупнейших среди исследованных рынков.
📌 Уникальный региональный разворот: глобальный тренд — ИИ для клиентского опыта. Тренд ЦА — ИИ для внутренней эффективности: автоматизация операций, разработка ПО, анализ данных. Регион сначала строит фундамент, а не витрину.
📌 Казахстан формирует суверенную ИИ-инфраструктуру: суперкомпьютер Alem.Cloud на 512 GPU NVIDIA H200 обеспечивает 2 экзафлопса в режиме FP8 — специально под обучение LLM (запущен 9 июля 2025). Национальная модель KazLLM (148 млрд токенов, казахский/русский/английский/турецкий) уже интегрируется в госуслуги eGov.
Регион движется по нетипичному сценарию: не копирует западный путь "ИИ как витрина", а строит инфраструктуру снизу вверх — вычисления, данные, суверенные модели. Это медленнее, но устойчивее. Банки, которые сегодня автоматизируют бэк-офис, завтра будут на шаг впереди тех, кто вложился в красивые чат-боты.
Итог:
Доклад подготовлен FinTech AI Center совместно с нацбанками КЗ, КГ, ТД и при поддержке Visa. Период исследования: январь 2024 — декабрь 2025.
Источник: отчёт «Искусственный интеллект на финансовых рынках Центральной Азии. Текущее состояние и перспективы»
REAL DIGITAL
#ИИ #FinTech #Казахстан #ЦентральнаяАзия #KazLLM
Регуляторы Казахстана, Кыргызстана и Таджикистана впервые провели совместное исследование ИИ в финансовом секторе — опросили 232 организации и получили неожиданную картину.
Что показал доклад:
📌 Только 36% финансовых организаций региона используют ИИ — против 52% в мире по данным NVIDIA 2025. При этом 56% уже планируют внедрение в течение следующего года. Разрыв между "используем сейчас" и "внедряем скоро" — один из крупнейших среди исследованных рынков.
📌 Уникальный региональный разворот: глобальный тренд — ИИ для клиентского опыта. Тренд ЦА — ИИ для внутренней эффективности: автоматизация операций, разработка ПО, анализ данных. Регион сначала строит фундамент, а не витрину.
📌 Казахстан формирует суверенную ИИ-инфраструктуру: суперкомпьютер Alem.Cloud на 512 GPU NVIDIA H200 обеспечивает 2 экзафлопса в режиме FP8 — специально под обучение LLM (запущен 9 июля 2025). Национальная модель KazLLM (148 млрд токенов, казахский/русский/английский/турецкий) уже интегрируется в госуслуги eGov.
Регион движется по нетипичному сценарию: не копирует западный путь "ИИ как витрина", а строит инфраструктуру снизу вверх — вычисления, данные, суверенные модели. Это медленнее, но устойчивее. Банки, которые сегодня автоматизируют бэк-офис, завтра будут на шаг впереди тех, кто вложился в красивые чат-боты.
Итог:
Доклад подготовлен FinTech AI Center совместно с нацбанками КЗ, КГ, ТД и при поддержке Visa. Период исследования: январь 2024 — декабрь 2025.
Источник: отчёт «Искусственный интеллект на финансовых рынках Центральной Азии. Текущее состояние и перспективы»
REAL DIGITAL
#ИИ #FinTech #Казахстан #ЦентральнаяАзия #KazLLM
🔥5👏3❤2
**Глоссарий AI 2.0
Выпуск #5.3: Training vs Inference**
У любой нейросети есть три стадии: разработчики обучают её на данных, затем адаптируют под задачу, и только потом вы её используете. Разбираем каждую.
🔹 Training (Обучение)
Создание модели с нуля. Модель миллиарды раз прогоняет через себя терабайты данных, подбирая веса — числовые коэффициенты, которые определяют её поведение.
• Ресурс: тысячи GPU с HBM-памятью (сверхбыстрая память в том же корпусе, что и чип — как если бы оперативка была впаяна прямо в процессор) — H100, B200 от NVIDIA, от $30 000 за штуку
• Пример: обучение Llama 3 (70B) заняло 7.7 млн GPU-часов на H100; модель 3.1 405B — 30.84 млн GPU-часов
• Цифры — ориентир: итоговые затраты зависят от оптимизации (смешанная точность, распределённое обучение)
🔹 Fine-tuning (Дообучение)
Адаптация готовой модели под конкретную задачу на своих данных — например, на документах компании или отраслевой терминологии.
• Железо: то же семейство GPU, что и для Training, но кластер в разы меньше
• Ресурс: в 100–1000 раз дешевле полного обучения благодаря методам PEFT/LoRA (технологии частичного дообучения — модель не переучивается целиком, а точечно подстраивает небольшую часть своих параметров)
• Результат: модель сохраняет общие знания, но начинает лучше понимать вашу предметную область
🔹 Inference (Инференс / Использование)
Момент, когда модель применяет всё выученное для ответа на ваш вопрос. Представьте студента, который год учился (Training), закрыл учебники и сел на экзамен — это и есть инференс. Новых знаний не появляется: модель просто использует то, что уже зашито в её весах.
• Железо: принципиально другое. Inference не требует вычисления градиентов (сложных математических операций обучения), поэтому достаточно одного профессионального GPU (NVIDIA L40S, A100) или даже CPU для небольших моделей — отсюда и приложения с ИИ прямо на смартфоне
• Каждый раз, когда вы пишете в ChatGPT, Claude или Midjourney — происходит именно инференс
⚡️ Почему это важно на практике:
Training и Fine-tuning требуют специализированных кластеров — сотни GPU, соединённых высокоскоростным NVLink (скоростная шина между чипами, как широкое шоссе вместо просёлочной дороги), петабайты хранилища, ЦОДы с жидкостным охлаждением и огромным потреблением энергии. Это инфраструктура за сотни миллионов долларов. Inference — совершенно другой класс задач: здесь важна скорость ответа и стоимость одного запроса. Поэтому inference-серверы дешевле, их можно размещать ближе к пользователю, а самые лёгкие модели и вовсе запускать прямо на телефоне.
💡 Коротко: Training и Fine-tuning — мощные дорогие кластеры, жидкостное охлаждение, мегаватты энергии. Inference — простое и дешёвое железо. Одна и та же модель, но абсолютно разная инфраструктура.
REAL DIGITAL
#AI #Glossary #RealDigital #Training #Inference #FineTuning
Выпуск #5.3: Training vs Inference**
У любой нейросети есть три стадии: разработчики обучают её на данных, затем адаптируют под задачу, и только потом вы её используете. Разбираем каждую.
🔹 Training (Обучение)
Создание модели с нуля. Модель миллиарды раз прогоняет через себя терабайты данных, подбирая веса — числовые коэффициенты, которые определяют её поведение.
• Ресурс: тысячи GPU с HBM-памятью (сверхбыстрая память в том же корпусе, что и чип — как если бы оперативка была впаяна прямо в процессор) — H100, B200 от NVIDIA, от $30 000 за штуку
• Пример: обучение Llama 3 (70B) заняло 7.7 млн GPU-часов на H100; модель 3.1 405B — 30.84 млн GPU-часов
• Цифры — ориентир: итоговые затраты зависят от оптимизации (смешанная точность, распределённое обучение)
🔹 Fine-tuning (Дообучение)
Адаптация готовой модели под конкретную задачу на своих данных — например, на документах компании или отраслевой терминологии.
• Железо: то же семейство GPU, что и для Training, но кластер в разы меньше
• Ресурс: в 100–1000 раз дешевле полного обучения благодаря методам PEFT/LoRA (технологии частичного дообучения — модель не переучивается целиком, а точечно подстраивает небольшую часть своих параметров)
• Результат: модель сохраняет общие знания, но начинает лучше понимать вашу предметную область
🔹 Inference (Инференс / Использование)
Момент, когда модель применяет всё выученное для ответа на ваш вопрос. Представьте студента, который год учился (Training), закрыл учебники и сел на экзамен — это и есть инференс. Новых знаний не появляется: модель просто использует то, что уже зашито в её весах.
• Железо: принципиально другое. Inference не требует вычисления градиентов (сложных математических операций обучения), поэтому достаточно одного профессионального GPU (NVIDIA L40S, A100) или даже CPU для небольших моделей — отсюда и приложения с ИИ прямо на смартфоне
• Каждый раз, когда вы пишете в ChatGPT, Claude или Midjourney — происходит именно инференс
⚡️ Почему это важно на практике:
Training и Fine-tuning требуют специализированных кластеров — сотни GPU, соединённых высокоскоростным NVLink (скоростная шина между чипами, как широкое шоссе вместо просёлочной дороги), петабайты хранилища, ЦОДы с жидкостным охлаждением и огромным потреблением энергии. Это инфраструктура за сотни миллионов долларов. Inference — совершенно другой класс задач: здесь важна скорость ответа и стоимость одного запроса. Поэтому inference-серверы дешевле, их можно размещать ближе к пользователю, а самые лёгкие модели и вовсе запускать прямо на телефоне.
💡 Коротко: Training и Fine-tuning — мощные дорогие кластеры, жидкостное охлаждение, мегаватты энергии. Inference — простое и дешёвое железо. Одна и та же модель, но абсолютно разная инфраструктура.
REAL DIGITAL
#AI #Glossary #RealDigital #Training #Inference #FineTuning
👍7❤1👏1
🚨Anthropic открывает «премиум» для всех: ответ на рекламу в ChatGPT
🚀 Anthropic открывает функции Pro для всех.
Пока OpenAI внедряет рекламу в бесплатный ChatGPT, Anthropic идет от обратного. С 11 февраля компания радикально расширила возможности бесплатного Claude, добавив инструменты, которые раньше стоили $20/мес.
Это прямой расчет на профессиональную аудиторию, которой важна работа без «визуального шума» и глубокая кастомизация.
Что теперь доступно в бесплатном тарифе:
🔹 File Creation (Артефакты)
Claude перестал быть просто текстовым полем. Теперь он генерирует готовые файлы: Excel-таблицы с рабочими формулами, презентации и PDF-отчеты прямо в чате.
🔹 Прямые интеграции
Бот подключается к вашему рабочему окружению: Google Drive, Gmail, Slack, Notion и Figma. Больше не нужно копировать данные вручную — Claude видит контекст напрямую через открытый протокол MCP.
🔹 Персонализация стиля
Теперь можно один раз загрузить «инструкцию по эксплуатации» себя или своего бренда. Бот запомнит ваш стиль письма или правила оформления и будет применять их автоматически.
🔹 Улучшенный контекст
Технология сжатия контекста позволяет вести длинные проекты без потери нити разговора (раньше это было привилегией платных аккаунтов).
💻 Нюансы для профи:
Бесплатная версия работает на моделях Sonnet 4.5 и Haiku 4.5. Лимиты остались прежними: от 30 до 100 сообщений в день в зависимости от нагрузки и сложности запросов. Платная версия (Pro) всё еще необходима для доступа к максимально мощному Opus и снятия большинства ограничений.
Итог:
Битва за пользователя перешла в фазу «агентности». Если вам нужен не просто собеседник, а инструмент, который сам соберет отчет в Google Docs или проанализирует таблицу в Drive — обновленный Claude сейчас выглядит предпочтительнее конкурентов.
Источники:
[MacRumors]
[9to5Mac]
[ScreenApp]
REAL DIGITAL
#Claude #AI #Anthropic #ChatGPT #автоматизация
🚀 Anthropic открывает функции Pro для всех.
Пока OpenAI внедряет рекламу в бесплатный ChatGPT, Anthropic идет от обратного. С 11 февраля компания радикально расширила возможности бесплатного Claude, добавив инструменты, которые раньше стоили $20/мес.
Это прямой расчет на профессиональную аудиторию, которой важна работа без «визуального шума» и глубокая кастомизация.
Что теперь доступно в бесплатном тарифе:
🔹 File Creation (Артефакты)
Claude перестал быть просто текстовым полем. Теперь он генерирует готовые файлы: Excel-таблицы с рабочими формулами, презентации и PDF-отчеты прямо в чате.
🔹 Прямые интеграции
Бот подключается к вашему рабочему окружению: Google Drive, Gmail, Slack, Notion и Figma. Больше не нужно копировать данные вручную — Claude видит контекст напрямую через открытый протокол MCP.
🔹 Персонализация стиля
Теперь можно один раз загрузить «инструкцию по эксплуатации» себя или своего бренда. Бот запомнит ваш стиль письма или правила оформления и будет применять их автоматически.
🔹 Улучшенный контекст
Технология сжатия контекста позволяет вести длинные проекты без потери нити разговора (раньше это было привилегией платных аккаунтов).
💻 Нюансы для профи:
Бесплатная версия работает на моделях Sonnet 4.5 и Haiku 4.5. Лимиты остались прежними: от 30 до 100 сообщений в день в зависимости от нагрузки и сложности запросов. Платная версия (Pro) всё еще необходима для доступа к максимально мощному Opus и снятия большинства ограничений.
Итог:
Битва за пользователя перешла в фазу «агентности». Если вам нужен не просто собеседник, а инструмент, который сам соберет отчет в Google Docs или проанализирует таблицу в Drive — обновленный Claude сейчас выглядит предпочтительнее конкурентов.
Источники:
[MacRumors]
[9to5Mac]
[ScreenApp]
REAL DIGITAL
#Claude #AI #Anthropic #ChatGPT #автоматизация
❤3👍3
Как работы из AIRI и МФТИ вошли в научный фундамент архитектуры Google
Команда российских исследователей предложила решение фундаментальной проблемы LLM: как заставить модели помнить миллионы токенов без экспоненциального роста затрат на вычисления.
📌 Проблема памяти в LLM
Стандартный трансформер использует механизм внимания (self-attention). Его вычислительная сложность — O(n²). Это значит: текст в 10 раз длиннее требует в 100 раз больше ресурсов. При контексте в 1 млн токенов современные GPU просто «задыхаются».
📌 Решение: Recurrent Memory Transformer (RMT)
В 2022 году Айдар Булатов, Юрий Куратов и Михаил Бурцев (AIRI/МФТИ) представили на NeurIPS работу, обходящую это ограничение.
Суть: в архитектуру вводятся специальные токены памяти (memory tokens). Модель сжимает важную информацию в эти «ячейки» и передаёт их между сегментами текста. Это превращает трансформер в рекуррентную сеть, где сложность растёт линейно, а не квадратично. В 2023–2024 годах подход масштабировали до 50 млн токенов на бенчмарке BABILong — в рамках исследовательских экспериментов.
📌 Google Titans и научная преемственность
В декабре 2024 года Google Research опубликовал архитектуру Titans — самостоятельное семейство моделей с долгосрочной нейронной памятью. Titans не является форком RMT, но в списке литературы — прямые ссылки на работы команды по масштабированию контекста. Titans тестируются на BABILong — бенчмарке от тех же авторов из AIRI, который стал стандартом оценки «глубокой» памяти в исследовательском сообществе.
📌 Что такое BABILong
Это набор из 20 задач на логику и дедукцию, где ключевые факты спрятаны внутри гигантских массивов данных (до миллиона токенов и выше). Стандартные LLM часто теряют нить уже после первых 10–20% контекста («lost in the middle»). RMT же стабильно находит и связывает факты даже в сверхдлинных последовательностях.
🤖 Наш взгляд:
Наука — кумулятивный процесс. Titans строится на десятках предшествующих работ, и RMT — одна из них. Но когда Google использует твой бенчмарк как индустриальный стандарт и цитирует твои работы по масштабированию контекста — это признание. Идеи токенов памяти, сформулированные в 2020–2022 годах командой из Москвы, вошли в глобальный научный мейнстрим. Без хайпа — через NeurIPS и открытые публикации.
Источники:
▪️ [Recurrent Memory Transformer — NeurIPS 2022]
▪️ [BABILong Benchmark — NeurIPS 2024]
▪️ [Google Titans — arXiv, декабрь 2024]
REAL DIGITAL
#ИИ #LLM #архитектура #Google #AIRI #исследования
Команда российских исследователей предложила решение фундаментальной проблемы LLM: как заставить модели помнить миллионы токенов без экспоненциального роста затрат на вычисления.
📌 Проблема памяти в LLM
Стандартный трансформер использует механизм внимания (self-attention). Его вычислительная сложность — O(n²). Это значит: текст в 10 раз длиннее требует в 100 раз больше ресурсов. При контексте в 1 млн токенов современные GPU просто «задыхаются».
📌 Решение: Recurrent Memory Transformer (RMT)
В 2022 году Айдар Булатов, Юрий Куратов и Михаил Бурцев (AIRI/МФТИ) представили на NeurIPS работу, обходящую это ограничение.
Суть: в архитектуру вводятся специальные токены памяти (memory tokens). Модель сжимает важную информацию в эти «ячейки» и передаёт их между сегментами текста. Это превращает трансформер в рекуррентную сеть, где сложность растёт линейно, а не квадратично. В 2023–2024 годах подход масштабировали до 50 млн токенов на бенчмарке BABILong — в рамках исследовательских экспериментов.
📌 Google Titans и научная преемственность
В декабре 2024 года Google Research опубликовал архитектуру Titans — самостоятельное семейство моделей с долгосрочной нейронной памятью. Titans не является форком RMT, но в списке литературы — прямые ссылки на работы команды по масштабированию контекста. Titans тестируются на BABILong — бенчмарке от тех же авторов из AIRI, который стал стандартом оценки «глубокой» памяти в исследовательском сообществе.
📌 Что такое BABILong
Это набор из 20 задач на логику и дедукцию, где ключевые факты спрятаны внутри гигантских массивов данных (до миллиона токенов и выше). Стандартные LLM часто теряют нить уже после первых 10–20% контекста («lost in the middle»). RMT же стабильно находит и связывает факты даже в сверхдлинных последовательностях.
🤖 Наш взгляд:
Наука — кумулятивный процесс. Titans строится на десятках предшествующих работ, и RMT — одна из них. Но когда Google использует твой бенчмарк как индустриальный стандарт и цитирует твои работы по масштабированию контекста — это признание. Идеи токенов памяти, сформулированные в 2020–2022 годах командой из Москвы, вошли в глобальный научный мейнстрим. Без хайпа — через NeurIPS и открытые публикации.
Источники:
▪️ [Recurrent Memory Transformer — NeurIPS 2022]
▪️ [BABILong Benchmark — NeurIPS 2024]
▪️ [Google Titans — arXiv, декабрь 2024]
REAL DIGITAL
#ИИ #LLM #архитектура #Google #AIRI #исследования
👍6👏3🔥1
Claude Code обрушил IBM на 13% — и индийский IT-рынок следом
23 февраля 2026 года войдёт в историю как чёрный понедельник для классического ИТ-консалтинга. Акции IBM рухнули на 13,2% — худший однодневный результат с октября 2000 года. Индийский индекс Nifty IT в феврале потерял 21% — крупнейший месячный обвал со времён кризиса 2008 года.
Причина: Anthropic объявила, что Claude Code способен автоматизировать то, на чём IBM и аутсорсеры (TCS, Infosys, Wipro) зарабатывали десятилетиями — модернизацию COBOL.
Что известно:
📌 COBOL (Common Business-Oriented Language) — язык 1959 года. Через него проходит 95% транзакций в банкоматах США. Сотни миллиардов строк кода работают в банках, авиакомпаниях и госструктурах.
📌 IBM — главный бенефициар этого рынка: мейнфреймы z16, консалтинг, поддержка. Одно объявление Anthropic стёрло более $31 млрд капитализации компании за один торговый день.
Что умеет Claude Code:
✅ Картирует зависимости в тысячах строк кода, документирует потоки данных и выявляет риски — на это у человеческих команд уходили месяцы
✅ Agentic workflow: работает напрямую с файловой системой и CLI — пишет, тестирует и исправляет код в автономном цикле при грамотной настройке и контроле
✅ Вычленяет бизнес-логику из легаси-кода и переписывает её на современный стек (Python, Java)
✅ Сжимает фазу анализа и документации: от лет — до кварталов
Наш взгляд:
Паника рынка понятна, но преждевременна. IBM защищалась: компания предлагает собственные AI-инструменты для мейнфреймов с 2023 года, а CEO Арвинд Кришна напоминает — клиенты уже имели возможность мигрировать с мейнфреймов, но выбирали оставаться. Перевод кода с COBOL на Java — лишь первый шаг из десятка: нужно мигрировать данные, middleware, транзакционную инфраструктуру, интеграции. Тем не менее сигнал рынка чёткий: если бизнес-модель строилась на перепродаже человеко-часов для анализа легаси-кода — это окно закрывается.
Источники:
[CNBC]
[Bloomberg via Yahoo Finance]
[Business Standard]
REAL DIGITAL
#ИскусственныйИнтеллект #IBM #COBOL #ClaudeCode #LegacyModernization
23 февраля 2026 года войдёт в историю как чёрный понедельник для классического ИТ-консалтинга. Акции IBM рухнули на 13,2% — худший однодневный результат с октября 2000 года. Индийский индекс Nifty IT в феврале потерял 21% — крупнейший месячный обвал со времён кризиса 2008 года.
Причина: Anthropic объявила, что Claude Code способен автоматизировать то, на чём IBM и аутсорсеры (TCS, Infosys, Wipro) зарабатывали десятилетиями — модернизацию COBOL.
Что известно:
📌 COBOL (Common Business-Oriented Language) — язык 1959 года. Через него проходит 95% транзакций в банкоматах США. Сотни миллиардов строк кода работают в банках, авиакомпаниях и госструктурах.
📌 IBM — главный бенефициар этого рынка: мейнфреймы z16, консалтинг, поддержка. Одно объявление Anthropic стёрло более $31 млрд капитализации компании за один торговый день.
Что умеет Claude Code:
✅ Картирует зависимости в тысячах строк кода, документирует потоки данных и выявляет риски — на это у человеческих команд уходили месяцы
✅ Agentic workflow: работает напрямую с файловой системой и CLI — пишет, тестирует и исправляет код в автономном цикле при грамотной настройке и контроле
✅ Вычленяет бизнес-логику из легаси-кода и переписывает её на современный стек (Python, Java)
✅ Сжимает фазу анализа и документации: от лет — до кварталов
Наш взгляд:
Паника рынка понятна, но преждевременна. IBM защищалась: компания предлагает собственные AI-инструменты для мейнфреймов с 2023 года, а CEO Арвинд Кришна напоминает — клиенты уже имели возможность мигрировать с мейнфреймов, но выбирали оставаться. Перевод кода с COBOL на Java — лишь первый шаг из десятка: нужно мигрировать данные, middleware, транзакционную инфраструктуру, интеграции. Тем не менее сигнал рынка чёткий: если бизнес-модель строилась на перепродаже человеко-часов для анализа легаси-кода — это окно закрывается.
Источники:
[CNBC]
[Bloomberg via Yahoo Finance]
[Business Standard]
REAL DIGITAL
#ИскусственныйИнтеллект #IBM #COBOL #ClaudeCode #LegacyModernization
👍8🤔2
🇰🇿 Облачный рынок Казахстана удвоился — но ЦОДы уже заканчиваются
Сегодня IDC совместно с МИИЦР представили первый масштабный аналитический отчёт по рынку облаков и коммерческих ЦОД. Мы входим в фазу самого агрессивного роста: рынок разогнался, но упёрся в физический потолок.
📊 Что говорят цифры:
• 117,6 млрд тенге — объём рынка публичных облаков в 2025 году. С 2022 года он вырос ровно в два раза. CAGR — 26%.
• Загрузка ЦОД — 91%. Из 4 009 доступных стоек свободны всего 361. Это критическая отметка: расти физически уже почти некуда.
Разрыв в зрелости: в мире 61% ПО уже в облаке, в Казахстане — только 32%. Потенциал для роста колоссальный.
⚡️ Парадокс роста и ИИ-фактор
Рынок облаков летит вверх (+26%), а рынок мощностей ЦОД прибавляет лишь 7% в год. Главный дефицит — высокоплотные стойки для ИИ-нагрузок. Если раньше облако было просто «хранилищем», то сегодня это AI-powered cloud.
Казахстан стоит на развилке. Либо мы успеем построить инфраструктуру либо дефицит станет тормозом ИИ-трансформации. К 2029 году рынок должен достичь 257,2 млрд тенге, и ближайшие два года решат, кто заберёт этот профит.
IDC - автор исследования и организатор мероприятия при поддержки МИИЦР.
REAL DIGITAL
#IDC #МИИЦР #AI #ЦОД #YandexCloud #VKCloud #DELL #Lenovo #Axellect
Сегодня IDC совместно с МИИЦР представили первый масштабный аналитический отчёт по рынку облаков и коммерческих ЦОД. Мы входим в фазу самого агрессивного роста: рынок разогнался, но упёрся в физический потолок.
📊 Что говорят цифры:
• 117,6 млрд тенге — объём рынка публичных облаков в 2025 году. С 2022 года он вырос ровно в два раза. CAGR — 26%.
• Загрузка ЦОД — 91%. Из 4 009 доступных стоек свободны всего 361. Это критическая отметка: расти физически уже почти некуда.
Разрыв в зрелости: в мире 61% ПО уже в облаке, в Казахстане — только 32%. Потенциал для роста колоссальный.
⚡️ Парадокс роста и ИИ-фактор
Рынок облаков летит вверх (+26%), а рынок мощностей ЦОД прибавляет лишь 7% в год. Главный дефицит — высокоплотные стойки для ИИ-нагрузок. Если раньше облако было просто «хранилищем», то сегодня это AI-powered cloud.
Казахстан стоит на развилке. Либо мы успеем построить инфраструктуру либо дефицит станет тормозом ИИ-трансформации. К 2029 году рынок должен достичь 257,2 млрд тенге, и ближайшие два года решат, кто заберёт этот профит.
IDC - автор исследования и организатор мероприятия при поддержки МИИЦР.
REAL DIGITAL
#IDC #МИИЦР #AI #ЦОД #YandexCloud #VKCloud #DELL #Lenovo #Axellect
👍11🔥2🤔2
ИИ в медицине: от экспериментов к клиническому стандарту
Дискуссия "заменит ли ИИ врача" уводит от главного. Реальные системы уже меняют другое: скорость триажа (сортировки пациентов по срочности), вариативность интерпретаций и воспроизводимость клинических решений — факторы, которые чаще всего определяют исход лечения.
Четыре решения с подтверждённым применением:
📌 Med-Gemini (Google DeepMind)
На MedQA (USMLE) модель демонстрирует уровень клинического рассуждения, сопоставимый с экзаменационной подготовкой врача — 91,1%, лучший результат среди медицинских LLM. Работает с текстом, снимками, видео УЗИ и генетическими данными в одном контексте. Оговорка: это экзаменационный бенчмарк, не клиническая валидация.
⚡️ Viz.ai — триаж при инсульте
Детекция окклюзий (закупорок) крупных сосудов в 1700+ госпиталях. В Banner Health (крупная больничная сеть, США) время от КТ до уведомления врача: с 57 до 6 минут. 90% оповещений просматривается специалистом в течение 5 минут. ИИ здесь не заменяет врача — он устраняет системные задержки.
🔬 Lunit — скрининг рака груди
INSIGHT MMG валидирована на 660 000+ маммограммах в Норвегии: эффективность сопоставима с двойным чтением двух радиологов. 3000+ учреждений в 40+ странах. Используется в национальной программе скрининга Австралии.
🧬 PathAI — гистопатология для исследований
10 февраля 2026: запуск AIM-HI UC и IBDExplore на платформе AISight. Цель — стандартизированные эндпоинты (измеримые показатели исхода) в клинических испытаниях по язвенному колиту. Гистопатология — микроскопический анализ тканей для постановки диагноза. Ускоряет разработку лекарств и повышает сопоставимость результатов исследований. Статус: Research Use Only.
Медицинский ИИ наиболее эффективен там, где решения должны приниматься быстро, а данные стандартизированы.
🤖 Наш взгляд:
Для Казахстана это не абстрактный тренд. Дефицит радиологов в регионах — системная проблема, и решения уровня Lunit или Viz.ai могут стать инфраструктурным слоем здравоохранения: телемедицина + ИИ-скрининг + централизованная экспертиза = выравнивание качества диагностики между регионами. Открытые вопросы — регуляторика, интеграция с PACS (системы хранения медицинских снимков — КТ, МРТ, рентген) и экономика в рамках ОСМС — но направление очевидно.
Источники:
[Google Research]
[Viz.ai LVO]
[Lunit INSIGHT MMG][PathAI]
REAL DIGITAL
#HealthAI #MedTech #AIвМедицине
Дискуссия "заменит ли ИИ врача" уводит от главного. Реальные системы уже меняют другое: скорость триажа (сортировки пациентов по срочности), вариативность интерпретаций и воспроизводимость клинических решений — факторы, которые чаще всего определяют исход лечения.
Четыре решения с подтверждённым применением:
📌 Med-Gemini (Google DeepMind)
На MedQA (USMLE) модель демонстрирует уровень клинического рассуждения, сопоставимый с экзаменационной подготовкой врача — 91,1%, лучший результат среди медицинских LLM. Работает с текстом, снимками, видео УЗИ и генетическими данными в одном контексте. Оговорка: это экзаменационный бенчмарк, не клиническая валидация.
⚡️ Viz.ai — триаж при инсульте
Детекция окклюзий (закупорок) крупных сосудов в 1700+ госпиталях. В Banner Health (крупная больничная сеть, США) время от КТ до уведомления врача: с 57 до 6 минут. 90% оповещений просматривается специалистом в течение 5 минут. ИИ здесь не заменяет врача — он устраняет системные задержки.
🔬 Lunit — скрининг рака груди
INSIGHT MMG валидирована на 660 000+ маммограммах в Норвегии: эффективность сопоставима с двойным чтением двух радиологов. 3000+ учреждений в 40+ странах. Используется в национальной программе скрининга Австралии.
🧬 PathAI — гистопатология для исследований
10 февраля 2026: запуск AIM-HI UC и IBDExplore на платформе AISight. Цель — стандартизированные эндпоинты (измеримые показатели исхода) в клинических испытаниях по язвенному колиту. Гистопатология — микроскопический анализ тканей для постановки диагноза. Ускоряет разработку лекарств и повышает сопоставимость результатов исследований. Статус: Research Use Only.
Медицинский ИИ наиболее эффективен там, где решения должны приниматься быстро, а данные стандартизированы.
🤖 Наш взгляд:
Для Казахстана это не абстрактный тренд. Дефицит радиологов в регионах — системная проблема, и решения уровня Lunit или Viz.ai могут стать инфраструктурным слоем здравоохранения: телемедицина + ИИ-скрининг + централизованная экспертиза = выравнивание качества диагностики между регионами. Открытые вопросы — регуляторика, интеграция с PACS (системы хранения медицинских снимков — КТ, МРТ, рентген) и экономика в рамках ОСМС — но направление очевидно.
Источники:
[Google Research]
[Viz.ai LVO]
[Lunit INSIGHT MMG][PathAI]
REAL DIGITAL
#HealthAI #MedTech #AIвМедицине
👍4🔥1🤔1🎉1
NotebookLM обновился: слайды теперь редактируются промптами
17 февраля Google закрыл главную боль пользователей NotebookLM. Раньше любая правка = пересборка всей презентации. Теперь — нет.
📌 Что изменилось:
В Studio появилась кнопка Revise (карандаш) на каждом слайде. Пишете инструкцию — ИИ переделывает только этот слайд, не трогая остальные. "Сократи до 3 тезисов", "Сделай упор на риски", "Перепиши вступление как один вывод". Каждая версия сохраняется отдельно — можно откатиться к любому предыдущему варианту. Для командной работы это особенно важно: правки не затирают друг друга.
⚠️ Важный нюанс про PPTX:
Экспорт в .pptx теперь есть — и это шаг вперёд. Но слайды внутри файла — изображения, не нативные PowerPoint-объекты. Технически файл открывается в PowerPoint, но текст там не редактируется напрямую. Правки — через промпт в NotebookLM, потом переэкспорт. Для адаптации под корпбрендинг всё равно понадобится Canva или Figma.
✅ Что реально работает:
• Итеративные правки без регенерации всей колоды
• Экспорт в PDF и PPTX (Google Slides — следующий в очереди)
• История версий с откатом по каждому слайду
• Два формата: Detailed Deck (текст + детали) и Presenter Slides (тезисы для выступления)
🔹 Роллаут:
По данным Google: Pro и Ultra — уже сейчас. Бесплатный план — через несколько недель.
🤖 Наш взгляд:
Инструмент перестал быть "генератором одного нажатия" и стал рабочим черновиком. Практический сценарий: загружаете годовой отчёт, получаете 20 слайдов — и промптами затачиваете под разные аудитории. Слайд 3 — для финдиректора, слайд 7 — для маркетинга, слайд 12 — только ключевой вывод для совета директоров. Без пересборки всей колоды.
📚 Серия REAL DIGITAL про NotebookLM — с чего начать:
[Часть 1: База и сценарии][Часть 2: Аналитика и продажи]
[Часть 3: Юридические промпты]
[Часть 4: Командная работа]
[Безопасность данных]
Источники:
[NotebookLM — официальный анонс в X]
[9to5Google]
[Android Authority]
REAL DIGITAL
#NotebookLM #GoogleUpdate #ИИдляБизнеса #Productivity #GoogleAI
17 февраля Google закрыл главную боль пользователей NotebookLM. Раньше любая правка = пересборка всей презентации. Теперь — нет.
📌 Что изменилось:
В Studio появилась кнопка Revise (карандаш) на каждом слайде. Пишете инструкцию — ИИ переделывает только этот слайд, не трогая остальные. "Сократи до 3 тезисов", "Сделай упор на риски", "Перепиши вступление как один вывод". Каждая версия сохраняется отдельно — можно откатиться к любому предыдущему варианту. Для командной работы это особенно важно: правки не затирают друг друга.
⚠️ Важный нюанс про PPTX:
Экспорт в .pptx теперь есть — и это шаг вперёд. Но слайды внутри файла — изображения, не нативные PowerPoint-объекты. Технически файл открывается в PowerPoint, но текст там не редактируется напрямую. Правки — через промпт в NotebookLM, потом переэкспорт. Для адаптации под корпбрендинг всё равно понадобится Canva или Figma.
✅ Что реально работает:
• Итеративные правки без регенерации всей колоды
• Экспорт в PDF и PPTX (Google Slides — следующий в очереди)
• История версий с откатом по каждому слайду
• Два формата: Detailed Deck (текст + детали) и Presenter Slides (тезисы для выступления)
🔹 Роллаут:
По данным Google: Pro и Ultra — уже сейчас. Бесплатный план — через несколько недель.
🤖 Наш взгляд:
Инструмент перестал быть "генератором одного нажатия" и стал рабочим черновиком. Практический сценарий: загружаете годовой отчёт, получаете 20 слайдов — и промптами затачиваете под разные аудитории. Слайд 3 — для финдиректора, слайд 7 — для маркетинга, слайд 12 — только ключевой вывод для совета директоров. Без пересборки всей колоды.
📚 Серия REAL DIGITAL про NotebookLM — с чего начать:
[Часть 1: База и сценарии][Часть 2: Аналитика и продажи]
[Часть 3: Юридические промпты]
[Часть 4: Командная работа]
[Безопасность данных]
Источники:
[NotebookLM — официальный анонс в X]
[9to5Google]
[Android Authority]
REAL DIGITAL
#NotebookLM #GoogleUpdate #ИИдляБизнеса #Productivity #GoogleAI
👍4👏1
Аль-Фараби в пробке: эпоха «глаза на дорогу» заканчивается, но все идут к этому по-разному
Пока вы стоите на Аль-Фараби, в мире автопилотов произошёл технический раскол. Reuters (февраль 2026) фиксирует: одни производители учат машину понимать мир самостоятельно, другие — опираться на готовую цифровую инфраструктуру.
📌 Два принципиально разных подхода:
«Умная машина» (Tesla) — автомобиль сам строит картину мира в реальном времени: только камеры и нейросеть, никаких предзаписанных карт. Работает там, где ездит впервые.
«Умная дорога» (Mercedes, большинство китайских систем) — машина опирается на HD-карты, заранее отрисованные с точностью до сантиметра. Нет карты — нет автономного режима. Drive Pilot физически не смог бы работать на Аль-Фараби: Алматы в эти карты не внесён.
Что происходит сейчас:
🛑 Mercedes приостановил Level 3. Drive Pilot — единственная в США сертифицированная система, позволявшая официально отвлечься от дороги, — убрана из нового S-Class 2026. Не навсегда: компания переходит к новой архитектуре с прицелом на Level 4 совместно с Nvidia. Причина паузы — система работала только в пробках до 60 км/ч на конкретных картированных трассах, спрос оказался низким, а затраты на поддержку — высокими.
🚀 Tesla пошла другим путём. В обычной Model 3/Y FSD остаётся Level 2 — камера следит за водителем, отвлечься нельзя. Зато 17 февраля на Giga Texas собрали первый предсерийный Cybercab — без руля и педалей. Серийное производство — апрель 2026 по заявлению Маска, цена до $30 000. Вот в нём вы официально пассажир — руля и педалей нет конструктивно. Правда, Unsupervised FSD пока не существует в серийном продакшене: апрель 2026 — это цель, а не гарантия.
🇨🇳 Китай выдал первые разрешения на Level 3. В декабре 2025 MIIT сертифицировал Changan Deepal SL03 и BAIC Arcfox Alpha S для пилотной эксплуатации в Пекине и Чунцине. Эти системы — тоже карто-зависимые, но Китай картирует свои города агрессивнее всех.
В Алматы уже ездят машины, технически опережающие местное законодательство. Но даже если завтра появятся правила — карто-зависимые системы здесь не заработают без отдельного проекта по HD-картированию города. Tesla-подход в этом смысле ближе к реальности казахстанских дорог: машина учится на том, что видит, а не на том, что кто-то нанёс на карту заранее.
Кому доверяете больше — машине, которая думает сама, или той, что знает дорогу наизусть? 👇
Источники:
[Reuters]
[Insurance Journal]
[TFLcar — Cybercab]
[Global Times — Китай L3]
REAL DIGITAL
#Автопилот #Tesla #Cybercab #Mercedes #LevelThree #Алматы #TechNewsKZ
Пока вы стоите на Аль-Фараби, в мире автопилотов произошёл технический раскол. Reuters (февраль 2026) фиксирует: одни производители учат машину понимать мир самостоятельно, другие — опираться на готовую цифровую инфраструктуру.
📌 Два принципиально разных подхода:
«Умная машина» (Tesla) — автомобиль сам строит картину мира в реальном времени: только камеры и нейросеть, никаких предзаписанных карт. Работает там, где ездит впервые.
«Умная дорога» (Mercedes, большинство китайских систем) — машина опирается на HD-карты, заранее отрисованные с точностью до сантиметра. Нет карты — нет автономного режима. Drive Pilot физически не смог бы работать на Аль-Фараби: Алматы в эти карты не внесён.
Что происходит сейчас:
🛑 Mercedes приостановил Level 3. Drive Pilot — единственная в США сертифицированная система, позволявшая официально отвлечься от дороги, — убрана из нового S-Class 2026. Не навсегда: компания переходит к новой архитектуре с прицелом на Level 4 совместно с Nvidia. Причина паузы — система работала только в пробках до 60 км/ч на конкретных картированных трассах, спрос оказался низким, а затраты на поддержку — высокими.
🚀 Tesla пошла другим путём. В обычной Model 3/Y FSD остаётся Level 2 — камера следит за водителем, отвлечься нельзя. Зато 17 февраля на Giga Texas собрали первый предсерийный Cybercab — без руля и педалей. Серийное производство — апрель 2026 по заявлению Маска, цена до $30 000. Вот в нём вы официально пассажир — руля и педалей нет конструктивно. Правда, Unsupervised FSD пока не существует в серийном продакшене: апрель 2026 — это цель, а не гарантия.
🇨🇳 Китай выдал первые разрешения на Level 3. В декабре 2025 MIIT сертифицировал Changan Deepal SL03 и BAIC Arcfox Alpha S для пилотной эксплуатации в Пекине и Чунцине. Эти системы — тоже карто-зависимые, но Китай картирует свои города агрессивнее всех.
В Алматы уже ездят машины, технически опережающие местное законодательство. Но даже если завтра появятся правила — карто-зависимые системы здесь не заработают без отдельного проекта по HD-картированию города. Tesla-подход в этом смысле ближе к реальности казахстанских дорог: машина учится на том, что видит, а не на том, что кто-то нанёс на карту заранее.
Кому доверяете больше — машине, которая думает сама, или той, что знает дорогу наизусть? 👇
Источники:
[Reuters]
[Insurance Journal]
[TFLcar — Cybercab]
[Global Times — Китай L3]
REAL DIGITAL
#Автопилот #Tesla #Cybercab #Mercedes #LevelThree #Алматы #TechNewsKZ
👍7❤1
🚀 MeetUp в MOST IT Hub | 4 марта, 16:00
Тема: Маркетинг для разных ниш и как его анализировать
Приглашаем фаундеров, маркетологов, предпринимателей и всех, кто развивает бизнес, на митап о системном и аналитическом подходе к маркетингу.
🎤 Спикер - Асхат Салыков
• Основатель digital-агентства Adwave и со-основатель агентства партнёрского маркетинга Qaitadan
• Более 8 лет в маркетинге
• Более 400+ реализованных кейсов
• Работал с Маргуланом Калиевичем, Royal Flowers, Игорем Манном, UMAG, Шымбулаком и другими компаниями
💡 Сильные стороны эксперта:
• Аналитика маркетинга и сквозная аналитика
• Growth-маркетинг
• Стратегический маркетинг
• Систематизация работы команды
• Digital-продвижение
На митапе обсудим:
• Как адаптировать маркетинг под разные ниши
• Какие метрики действительно важны для роста
• Как выстроить систему аналитики и принимать решения на основе данных
• Как масштабировать маркетинг без хаоса
📅 4 марта
⏰ 16:00
📍 MOST IT Hub, Ходжанова 2/2, 3 этаж
Зарегистрироваться на MeetUp💥
Тема: Маркетинг для разных ниш и как его анализировать
Приглашаем фаундеров, маркетологов, предпринимателей и всех, кто развивает бизнес, на митап о системном и аналитическом подходе к маркетингу.
🎤 Спикер - Асхат Салыков
• Основатель digital-агентства Adwave и со-основатель агентства партнёрского маркетинга Qaitadan
• Более 8 лет в маркетинге
• Более 400+ реализованных кейсов
• Работал с Маргуланом Калиевичем, Royal Flowers, Игорем Манном, UMAG, Шымбулаком и другими компаниями
💡 Сильные стороны эксперта:
• Аналитика маркетинга и сквозная аналитика
• Growth-маркетинг
• Стратегический маркетинг
• Систематизация работы команды
• Digital-продвижение
На митапе обсудим:
• Как адаптировать маркетинг под разные ниши
• Какие метрики действительно важны для роста
• Как выстроить систему аналитики и принимать решения на основе данных
• Как масштабировать маркетинг без хаоса
📅 4 марта
⏰ 16:00
📍 MOST IT Hub, Ходжанова 2/2, 3 этаж
Зарегистрироваться на MeetUp💥
🔥4👍3