DAMA Kazakhstan открывает сезон: ИИ в стране переходит от хайпа к стандартам
Первый митап 2026 года прошёл в офисе KPMG в Астане. Новый формат — выездные встречи прямо в компаниях с разбором живой архитектуры данных и ИИ.
📌 Что обсуждали:
• ISO/IEC 42001 — первый международный стандарт управления ИИ (опубликован в декабре 2023). Константин Аушев (KPMG): «Это карта, которая помогает обойти "ямы", уже пройденные первопроходцами». Хайп сменился системной работой.
• 7 шагов к AIMS — Антон Кашин (KPMG) разобрал практический чек-лист: реестр ML-моделей, матрица RACI+ (где "+" — это контроль этики и рисков ИИ), контроль качества данных и мониторинг.
• CDO vs CAIO в BI Group — Азат Туратов показал разницу: CDO отвечает за данные как актив, CAIO — за ИИ-продукты на их основе. Не конкуренция, а усиление.
🤖 Наш взгляд:
ISO/IEC 42001 — это не бюрократия, а инструмент. Компании, внедряющие ИИ без governance-фреймворка, рискуют столкнуться с регуляторными проблемами, которые уже накрывают ЕС. Разделение CDO/CAIO в BI Group — зрелое решение для рынка Казахстана.
📅 Следите за анонсами: [dama-kazakhstan.org]
P.S. DAMA Kazakhstan выражает благодарность KPMG Caucasus and Central Asia за отличный хостинг мероприятия.
REAL DIGITAL
#DAMA #DataGovernance #AIGovernance #ISO42001 #Казахстан #AIMS #KPMG
Первый митап 2026 года прошёл в офисе KPMG в Астане. Новый формат — выездные встречи прямо в компаниях с разбором живой архитектуры данных и ИИ.
📌 Что обсуждали:
• ISO/IEC 42001 — первый международный стандарт управления ИИ (опубликован в декабре 2023). Константин Аушев (KPMG): «Это карта, которая помогает обойти "ямы", уже пройденные первопроходцами». Хайп сменился системной работой.
• 7 шагов к AIMS — Антон Кашин (KPMG) разобрал практический чек-лист: реестр ML-моделей, матрица RACI+ (где "+" — это контроль этики и рисков ИИ), контроль качества данных и мониторинг.
• CDO vs CAIO в BI Group — Азат Туратов показал разницу: CDO отвечает за данные как актив, CAIO — за ИИ-продукты на их основе. Не конкуренция, а усиление.
🤖 Наш взгляд:
ISO/IEC 42001 — это не бюрократия, а инструмент. Компании, внедряющие ИИ без governance-фреймворка, рискуют столкнуться с регуляторными проблемами, которые уже накрывают ЕС. Разделение CDO/CAIO в BI Group — зрелое решение для рынка Казахстана.
📅 Следите за анонсами: [dama-kazakhstan.org]
P.S. DAMA Kazakhstan выражает благодарность KPMG Caucasus and Central Asia за отличный хостинг мероприятия.
REAL DIGITAL
#DAMA #DataGovernance #AIGovernance #ISO42001 #Казахстан #AIMS #KPMG
👍14🔥10❤4
BTC упал на 46% из-за ИИ, а не квантов — разработчик Bitcoin
В то время как криптосообщество искало «чёрных лебедей» в квантовых компьютерах, разработчик Bitcoin Core Мэтт Коралло назвал реальную причину падения рынка в подкасте Unchained.
📌 Тезис:
BTC потерял 46% от октябрьского ATH в $126 100 и торгуется около $67 000. Многие объясняли это страхом перед квантовыми атаками на блокчейн. Коралло с этим категорически не согласен.
🔍 Логика простая:
Если бы рынок реально боялся квантового взлома Bitcoin, Ethereum должен был расти — Ethereum Foundation уже включила постквантовую защиту в roadmap 2026. Вместо этого ETH упал на 58% и торгуется ~$1 957. Синхронное падение обеих монет опровергает квантовый нарратив.
💡 Реальная причина — конкуренция за капитал:
Коралло прямо называет ИИ «массивным новым инвестиционным классом», который тянет ликвидность из крипторынка. ИИ-инфраструктура требует дата-центров, специализированных чипов и колоссальных CAPEX. Институциональные деньги идут туда, где виден понятный ROI.
Показательно: Bitfarms объявила о переименовании в Keel Infrastructure (тикер KEEL) и переносе регистрации из Канады в США — голосование акционеров 20 марта, закрытие сделки ожидается 1 апреля 2026. Компания прямо говорит: фокус — HPC/AI-дата-центры. Riot Platforms получает аналогичное давление от акционера Starboard Value.
⚠️ Есть и другая точка зрения:
Founder Capriole Investments Чарльз Эдвардс считает: квантовый риск уже нужно закладывать в цену BTC — пока сеть не станет квантово-устойчивой. BlackRock включил предупреждение о квантовой угрозе в регдокументы ETF IBIT ещё в мае 2025.
По нашему мнерию, Коралло прав в краткосрочной перспективе. Взломать криптографию Bitcoin квантовыми компьютерами — горизонт минимум 10-15 лет. Сейчас BTC проигрывает не технологическую гонку, а гонку нарративов. Казахстанские майнеры, работающие на дешёвой электроэнергии, смотрят на переориентацию под AI/HPC-нагрузки — ровно то, что делают Bitfarms и Riot на Западе.
Источники:
[Cointelegraph]
[Bitbo]
[CoinDesk]
REAL DIGITAL
#Bitcoin #ИИ #BTC #QuantumComputing #Crypto2026 #Казахстан
В то время как криптосообщество искало «чёрных лебедей» в квантовых компьютерах, разработчик Bitcoin Core Мэтт Коралло назвал реальную причину падения рынка в подкасте Unchained.
📌 Тезис:
BTC потерял 46% от октябрьского ATH в $126 100 и торгуется около $67 000. Многие объясняли это страхом перед квантовыми атаками на блокчейн. Коралло с этим категорически не согласен.
🔍 Логика простая:
Если бы рынок реально боялся квантового взлома Bitcoin, Ethereum должен был расти — Ethereum Foundation уже включила постквантовую защиту в roadmap 2026. Вместо этого ETH упал на 58% и торгуется ~$1 957. Синхронное падение обеих монет опровергает квантовый нарратив.
💡 Реальная причина — конкуренция за капитал:
Коралло прямо называет ИИ «массивным новым инвестиционным классом», который тянет ликвидность из крипторынка. ИИ-инфраструктура требует дата-центров, специализированных чипов и колоссальных CAPEX. Институциональные деньги идут туда, где виден понятный ROI.
Показательно: Bitfarms объявила о переименовании в Keel Infrastructure (тикер KEEL) и переносе регистрации из Канады в США — голосование акционеров 20 марта, закрытие сделки ожидается 1 апреля 2026. Компания прямо говорит: фокус — HPC/AI-дата-центры. Riot Platforms получает аналогичное давление от акционера Starboard Value.
⚠️ Есть и другая точка зрения:
Founder Capriole Investments Чарльз Эдвардс считает: квантовый риск уже нужно закладывать в цену BTC — пока сеть не станет квантово-устойчивой. BlackRock включил предупреждение о квантовой угрозе в регдокументы ETF IBIT ещё в мае 2025.
По нашему мнерию, Коралло прав в краткосрочной перспективе. Взломать криптографию Bitcoin квантовыми компьютерами — горизонт минимум 10-15 лет. Сейчас BTC проигрывает не технологическую гонку, а гонку нарративов. Казахстанские майнеры, работающие на дешёвой электроэнергии, смотрят на переориентацию под AI/HPC-нагрузки — ровно то, что делают Bitfarms и Riot на Западе.
Источники:
[Cointelegraph]
[Bitbo]
[CoinDesk]
REAL DIGITAL
#Bitcoin #ИИ #BTC #QuantumComputing #Crypto2026 #Казахстан
👍4🤔3❤1
Whisper + Claude: превращаем многочасовые созвоны в протоколы (без галлюцинаций)
Разбираем связку, о которой спросил наш подписчик. Классический пример того, как два узких инструмента дают результат, недоступный одной "универсальной" модели.
В чём суть:
Open-source Whisper (OpenAI) забирает тяжёлую работу с аудио → Claude структурирует хаос в action plan.
⚙️ Техническая начинка:
• Whisper large-v3-turbo — оптимизированная версия large-v3 (сентябрь 2024): быстрее при минимальной потере точности. Для максимальной скорости — faster-whisper: до 4× эффективнее за счёт квантования.
• Claude API — контекстное окно 200K токенов. Транскрипт воркшопа (до 10 часов) целиком, без разрезания на куски и потери нити обсуждения.
💻 Два сценария внедрения:
• No-code (n8n / Make): нода Whisper → нода Claude. Весь процесс — меньше минуты.
• Python: библиотеки
📌 Pro-tip: добавьте
🔒 Приватность (важно для РК):
Open-source Whisper запускается локально — аудио не уходит на серверы OpenAI. В облако (Claude API) летит только текстовый лог. Принципиально с точки зрения корпоративной безопасности.
🤖 Наш взгляд:
Эта связка окупается в первую же неделю — за счёт экономии на follow-up письмах и ручных протоколах. Входной билет в автоматизацию с немедленным результатом.
Источники:
[Whisper — GitHub OpenAI]
[faster-whisper]
[Claude API docs]
REAL DIGITAL
#AI #Whisper #Claude #WorkflowAutomation #Automation
Разбираем связку, о которой спросил наш подписчик. Классический пример того, как два узких инструмента дают результат, недоступный одной "универсальной" модели.
В чём суть:
Open-source Whisper (OpenAI) забирает тяжёлую работу с аудио → Claude структурирует хаос в action plan.
⚙️ Техническая начинка:
• Whisper large-v3-turbo — оптимизированная версия large-v3 (сентябрь 2024): быстрее при минимальной потере точности. Для максимальной скорости — faster-whisper: до 4× эффективнее за счёт квантования.
• Claude API — контекстное окно 200K токенов. Транскрипт воркшопа (до 10 часов) целиком, без разрезания на куски и потери нити обсуждения.
💻 Два сценария внедрения:
• No-code (n8n / Make): нода Whisper → нода Claude. Весь процесс — меньше минуты.
• Python: библиотеки
openai-whisper + anthropic
📌 Pro-tip: добавьте
Pyannote для speaker diarization — и Claude не просто выдаст текст, а распишет: "Аскар предложил бюджет, Елена настояла на дедлайне".🔒 Приватность (важно для РК):
Open-source Whisper запускается локально — аудио не уходит на серверы OpenAI. В облако (Claude API) летит только текстовый лог. Принципиально с точки зрения корпоративной безопасности.
🤖 Наш взгляд:
Эта связка окупается в первую же неделю — за счёт экономии на follow-up письмах и ручных протоколах. Входной билет в автоматизацию с немедленным результатом.
Источники:
[Whisper — GitHub OpenAI]
[faster-whisper]
[Claude API docs]
REAL DIGITAL
#AI #Whisper #Claude #WorkflowAutomation #Automation
👍5👏4❤1
Математический код власти: от уравнений к управлению
В наших прошлых постах мы писали о поколении «атлантов» — Өтелбаеве, Аманове, Әлмұханбетове, поколении тех, кто стоял у истоков: Акбергенов, Өтелбаев и Смагулов, кто заложил фундамент в 1960-70-х.
Эта интеллектуальная среда конвертировалась в реальное управление страной. Математика — это не только вычисления. Это способность строить модели, видеть структуру там, где другие видят хаос, и принимать решения на основе системного анализа.
Теперь хотели бы отметить математиков-управленцев, для которых Hard Skills стали фундаментом карьеры. Безусловно, в одном посте всех не перечислить.
📌 Топ-менеджмент и госуправление: архитекторы систем
• Алихан Смаилов — КазГУ (прикладная математика, 1994). Министр финансов (2018-2020), Премьер-министр РК (2022-2024). С апреля 2024 — Председатель Высшей аудиторской палаты РК.
• Алмасадам Саткалиев — КазНУ (механика, 1992). Д.э.н., академик КазНАЕН. Председатель Самрук-Қазына (2021-2023), министр энергетики (2023-2025). С марта 2025 — Председатель Агентства РК по атомной энергии.
• Бахытжан Жумагулов — КазГУ (прикладная математика, 1975), д.т.н., академик НАН РК. Ректор КазНУ им. аль-Фараби (2008-2010), министр образования и науки РК (2010-2013). Президент Национальной инженерной академии РК (с 2014).
• Жаксыбек Кулекеев — КазГУ (математик, 1979), к.э.н., профессор. Министр экономики и торговли (1999-2002), министр образования и науки (2003-2004), ректор Академии госуправления при Президенте РК (2005-2006). Председатель Совета директоров Евразийского Университета им. Гумилёва, член СД Halyk Bank.
• Куанышбек Есекеев — КазНУ (мехмат, 1995). Самый молодой кандидат наук в истории Казахстана. Председатель Правления АО «Казахтелеком» (2010-2024), Помощник Президента РК.
• Олег Новачук — КазГУ (прикладная математика, 1993). Председатель Совета директоров Группы KAZ Minerals PLC.
• Галымжан Пирматов — НГУ (математик, 1993). АО «Казатомпром» (2017-2021), Председатель Национального Банка РК (2022-2023).
• Нурлан Рахметов — МГУ (мехмат, к.ф.-м.н., 1990). Вице-министр финансов, ключевые позиции в Самрук-Қазына.
• Даурен Каупынбаев — КазГУ (прикладная математика, 1992), к.ф.-м.н. Основатель Tamos Education — крупнейшей сети частных школ в Центральной Азии.
• Даурен Керейбаев — НГУ (механика и прикладная математика, 1992). Вычислительный центр СО РАН, руководящие позиции в банковской сфере, Самрук-Қазына, Казахтелеком, член Совета директоров Kcell.
• Наталья Лян — МГУ (ВМК, 1991). АО «Казахтелеком», управляющий директор по управлению внешними активами. С 2024 — член Совета директоров BTS Digital Ventures (AIFC).
• Азамат Ойнаров — НГУ (прикладная математика, 1992), к.т.н. Заместитель министра обороны по финансам (2007-2009), член Совета директоров АО «Центр развития города Алматы».
📌 Академические лидеры: воспроизводство школы
• Мактагали Бектемесов (КазГУ, д.ф.-м.н., академик НИА РК) — генеральный директор Института информационных и вычислительных технологий.
• Сауле Рахметуллина (НГУ) — ректор ВКТУ им. Д. Серикбаева, кандидат технических наук, ассоциированный профессор, MBA.
• Джамалбек Тусупов (КарГУ, 1979), д.ф.-м.н., профессор. Аспирантура в Институте математики СО АН СССР (Новосибирск). Заведующий кафедрой «Информационные системы» ФИТ ЕНУ им. Л.Н. Гумилёва (с 2011).
🤖 Наш взгляд:
Что общего у Премьер-министра, Председателя Нацбанка, ректоров ведущих вузов и главы атомного агентства? Общая операционная система. Они проектируют сценарии, а не просто руководят.
Пока писали этот пост, читатели прислали ещё фамилии выдающихся математиков прошлого. Будем продолжать серию — как про современников, так и про математиков, благодаря которым математика в нашей стране состоялась.
Традиция живёт и развивается. Математика в Казахстане — это и есть реальный Digital.
📌 Disclaimer: Информация собрана из открытых источников. При наличии уточнений от героев материала — готовы внести коррективки.
[REAL DIGITAL]
- Пост 1
- Пост 2
#HardSkills #Математика #Управление #Казахстан #КазГУ #НГУ #КазНУ #МГУ
В наших прошлых постах мы писали о поколении «атлантов» — Өтелбаеве, Аманове, Әлмұханбетове, поколении тех, кто стоял у истоков: Акбергенов, Өтелбаев и Смагулов, кто заложил фундамент в 1960-70-х.
Эта интеллектуальная среда конвертировалась в реальное управление страной. Математика — это не только вычисления. Это способность строить модели, видеть структуру там, где другие видят хаос, и принимать решения на основе системного анализа.
Теперь хотели бы отметить математиков-управленцев, для которых Hard Skills стали фундаментом карьеры. Безусловно, в одном посте всех не перечислить.
📌 Топ-менеджмент и госуправление: архитекторы систем
• Алихан Смаилов — КазГУ (прикладная математика, 1994). Министр финансов (2018-2020), Премьер-министр РК (2022-2024). С апреля 2024 — Председатель Высшей аудиторской палаты РК.
• Алмасадам Саткалиев — КазНУ (механика, 1992). Д.э.н., академик КазНАЕН. Председатель Самрук-Қазына (2021-2023), министр энергетики (2023-2025). С марта 2025 — Председатель Агентства РК по атомной энергии.
• Бахытжан Жумагулов — КазГУ (прикладная математика, 1975), д.т.н., академик НАН РК. Ректор КазНУ им. аль-Фараби (2008-2010), министр образования и науки РК (2010-2013). Президент Национальной инженерной академии РК (с 2014).
• Жаксыбек Кулекеев — КазГУ (математик, 1979), к.э.н., профессор. Министр экономики и торговли (1999-2002), министр образования и науки (2003-2004), ректор Академии госуправления при Президенте РК (2005-2006). Председатель Совета директоров Евразийского Университета им. Гумилёва, член СД Halyk Bank.
• Куанышбек Есекеев — КазНУ (мехмат, 1995). Самый молодой кандидат наук в истории Казахстана. Председатель Правления АО «Казахтелеком» (2010-2024), Помощник Президента РК.
• Олег Новачук — КазГУ (прикладная математика, 1993). Председатель Совета директоров Группы KAZ Minerals PLC.
• Галымжан Пирматов — НГУ (математик, 1993). АО «Казатомпром» (2017-2021), Председатель Национального Банка РК (2022-2023).
• Нурлан Рахметов — МГУ (мехмат, к.ф.-м.н., 1990). Вице-министр финансов, ключевые позиции в Самрук-Қазына.
• Даурен Каупынбаев — КазГУ (прикладная математика, 1992), к.ф.-м.н. Основатель Tamos Education — крупнейшей сети частных школ в Центральной Азии.
• Даурен Керейбаев — НГУ (механика и прикладная математика, 1992). Вычислительный центр СО РАН, руководящие позиции в банковской сфере, Самрук-Қазына, Казахтелеком, член Совета директоров Kcell.
• Наталья Лян — МГУ (ВМК, 1991). АО «Казахтелеком», управляющий директор по управлению внешними активами. С 2024 — член Совета директоров BTS Digital Ventures (AIFC).
• Азамат Ойнаров — НГУ (прикладная математика, 1992), к.т.н. Заместитель министра обороны по финансам (2007-2009), член Совета директоров АО «Центр развития города Алматы».
📌 Академические лидеры: воспроизводство школы
• Мактагали Бектемесов (КазГУ, д.ф.-м.н., академик НИА РК) — генеральный директор Института информационных и вычислительных технологий.
• Сауле Рахметуллина (НГУ) — ректор ВКТУ им. Д. Серикбаева, кандидат технических наук, ассоциированный профессор, MBA.
• Джамалбек Тусупов (КарГУ, 1979), д.ф.-м.н., профессор. Аспирантура в Институте математики СО АН СССР (Новосибирск). Заведующий кафедрой «Информационные системы» ФИТ ЕНУ им. Л.Н. Гумилёва (с 2011).
🤖 Наш взгляд:
Что общего у Премьер-министра, Председателя Нацбанка, ректоров ведущих вузов и главы атомного агентства? Общая операционная система. Они проектируют сценарии, а не просто руководят.
Пока писали этот пост, читатели прислали ещё фамилии выдающихся математиков прошлого. Будем продолжать серию — как про современников, так и про математиков, благодаря которым математика в нашей стране состоялась.
Традиция живёт и развивается. Математика в Казахстане — это и есть реальный Digital.
📌 Disclaimer: Информация собрана из открытых источников. При наличии уточнений от героев материала — готовы внести коррективки.
[REAL DIGITAL]
- Пост 1
- Пост 2
#HardSkills #Математика #Управление #Казахстан #КазГУ #НГУ #КазНУ #МГУ
👍24❤3👏3
ЦА обгоняет сама себя: ИИ в финансах уже не эксперимент
Регуляторы Казахстана, Кыргызстана и Таджикистана впервые провели совместное исследование ИИ в финансовом секторе — опросили 232 организации и получили неожиданную картину.
Что показал доклад:
📌 Только 36% финансовых организаций региона используют ИИ — против 52% в мире по данным NVIDIA 2025. При этом 56% уже планируют внедрение в течение следующего года. Разрыв между "используем сейчас" и "внедряем скоро" — один из крупнейших среди исследованных рынков.
📌 Уникальный региональный разворот: глобальный тренд — ИИ для клиентского опыта. Тренд ЦА — ИИ для внутренней эффективности: автоматизация операций, разработка ПО, анализ данных. Регион сначала строит фундамент, а не витрину.
📌 Казахстан формирует суверенную ИИ-инфраструктуру: суперкомпьютер Alem.Cloud на 512 GPU NVIDIA H200 обеспечивает 2 экзафлопса в режиме FP8 — специально под обучение LLM (запущен 9 июля 2025). Национальная модель KazLLM (148 млрд токенов, казахский/русский/английский/турецкий) уже интегрируется в госуслуги eGov.
Регион движется по нетипичному сценарию: не копирует западный путь "ИИ как витрина", а строит инфраструктуру снизу вверх — вычисления, данные, суверенные модели. Это медленнее, но устойчивее. Банки, которые сегодня автоматизируют бэк-офис, завтра будут на шаг впереди тех, кто вложился в красивые чат-боты.
Итог:
Доклад подготовлен FinTech AI Center совместно с нацбанками КЗ, КГ, ТД и при поддержке Visa. Период исследования: январь 2024 — декабрь 2025.
Источник: отчёт «Искусственный интеллект на финансовых рынках Центральной Азии. Текущее состояние и перспективы»
REAL DIGITAL
#ИИ #FinTech #Казахстан #ЦентральнаяАзия #KazLLM
Регуляторы Казахстана, Кыргызстана и Таджикистана впервые провели совместное исследование ИИ в финансовом секторе — опросили 232 организации и получили неожиданную картину.
Что показал доклад:
📌 Только 36% финансовых организаций региона используют ИИ — против 52% в мире по данным NVIDIA 2025. При этом 56% уже планируют внедрение в течение следующего года. Разрыв между "используем сейчас" и "внедряем скоро" — один из крупнейших среди исследованных рынков.
📌 Уникальный региональный разворот: глобальный тренд — ИИ для клиентского опыта. Тренд ЦА — ИИ для внутренней эффективности: автоматизация операций, разработка ПО, анализ данных. Регион сначала строит фундамент, а не витрину.
📌 Казахстан формирует суверенную ИИ-инфраструктуру: суперкомпьютер Alem.Cloud на 512 GPU NVIDIA H200 обеспечивает 2 экзафлопса в режиме FP8 — специально под обучение LLM (запущен 9 июля 2025). Национальная модель KazLLM (148 млрд токенов, казахский/русский/английский/турецкий) уже интегрируется в госуслуги eGov.
Регион движется по нетипичному сценарию: не копирует западный путь "ИИ как витрина", а строит инфраструктуру снизу вверх — вычисления, данные, суверенные модели. Это медленнее, но устойчивее. Банки, которые сегодня автоматизируют бэк-офис, завтра будут на шаг впереди тех, кто вложился в красивые чат-боты.
Итог:
Доклад подготовлен FinTech AI Center совместно с нацбанками КЗ, КГ, ТД и при поддержке Visa. Период исследования: январь 2024 — декабрь 2025.
Источник: отчёт «Искусственный интеллект на финансовых рынках Центральной Азии. Текущее состояние и перспективы»
REAL DIGITAL
#ИИ #FinTech #Казахстан #ЦентральнаяАзия #KazLLM
🔥5👏3❤2
**Глоссарий AI 2.0
Выпуск #5.3: Training vs Inference**
У любой нейросети есть три стадии: разработчики обучают её на данных, затем адаптируют под задачу, и только потом вы её используете. Разбираем каждую.
🔹 Training (Обучение)
Создание модели с нуля. Модель миллиарды раз прогоняет через себя терабайты данных, подбирая веса — числовые коэффициенты, которые определяют её поведение.
• Ресурс: тысячи GPU с HBM-памятью (сверхбыстрая память в том же корпусе, что и чип — как если бы оперативка была впаяна прямо в процессор) — H100, B200 от NVIDIA, от $30 000 за штуку
• Пример: обучение Llama 3 (70B) заняло 7.7 млн GPU-часов на H100; модель 3.1 405B — 30.84 млн GPU-часов
• Цифры — ориентир: итоговые затраты зависят от оптимизации (смешанная точность, распределённое обучение)
🔹 Fine-tuning (Дообучение)
Адаптация готовой модели под конкретную задачу на своих данных — например, на документах компании или отраслевой терминологии.
• Железо: то же семейство GPU, что и для Training, но кластер в разы меньше
• Ресурс: в 100–1000 раз дешевле полного обучения благодаря методам PEFT/LoRA (технологии частичного дообучения — модель не переучивается целиком, а точечно подстраивает небольшую часть своих параметров)
• Результат: модель сохраняет общие знания, но начинает лучше понимать вашу предметную область
🔹 Inference (Инференс / Использование)
Момент, когда модель применяет всё выученное для ответа на ваш вопрос. Представьте студента, который год учился (Training), закрыл учебники и сел на экзамен — это и есть инференс. Новых знаний не появляется: модель просто использует то, что уже зашито в её весах.
• Железо: принципиально другое. Inference не требует вычисления градиентов (сложных математических операций обучения), поэтому достаточно одного профессионального GPU (NVIDIA L40S, A100) или даже CPU для небольших моделей — отсюда и приложения с ИИ прямо на смартфоне
• Каждый раз, когда вы пишете в ChatGPT, Claude или Midjourney — происходит именно инференс
⚡️ Почему это важно на практике:
Training и Fine-tuning требуют специализированных кластеров — сотни GPU, соединённых высокоскоростным NVLink (скоростная шина между чипами, как широкое шоссе вместо просёлочной дороги), петабайты хранилища, ЦОДы с жидкостным охлаждением и огромным потреблением энергии. Это инфраструктура за сотни миллионов долларов. Inference — совершенно другой класс задач: здесь важна скорость ответа и стоимость одного запроса. Поэтому inference-серверы дешевле, их можно размещать ближе к пользователю, а самые лёгкие модели и вовсе запускать прямо на телефоне.
💡 Коротко: Training и Fine-tuning — мощные дорогие кластеры, жидкостное охлаждение, мегаватты энергии. Inference — простое и дешёвое железо. Одна и та же модель, но абсолютно разная инфраструктура.
REAL DIGITAL
#AI #Glossary #RealDigital #Training #Inference #FineTuning
Выпуск #5.3: Training vs Inference**
У любой нейросети есть три стадии: разработчики обучают её на данных, затем адаптируют под задачу, и только потом вы её используете. Разбираем каждую.
🔹 Training (Обучение)
Создание модели с нуля. Модель миллиарды раз прогоняет через себя терабайты данных, подбирая веса — числовые коэффициенты, которые определяют её поведение.
• Ресурс: тысячи GPU с HBM-памятью (сверхбыстрая память в том же корпусе, что и чип — как если бы оперативка была впаяна прямо в процессор) — H100, B200 от NVIDIA, от $30 000 за штуку
• Пример: обучение Llama 3 (70B) заняло 7.7 млн GPU-часов на H100; модель 3.1 405B — 30.84 млн GPU-часов
• Цифры — ориентир: итоговые затраты зависят от оптимизации (смешанная точность, распределённое обучение)
🔹 Fine-tuning (Дообучение)
Адаптация готовой модели под конкретную задачу на своих данных — например, на документах компании или отраслевой терминологии.
• Железо: то же семейство GPU, что и для Training, но кластер в разы меньше
• Ресурс: в 100–1000 раз дешевле полного обучения благодаря методам PEFT/LoRA (технологии частичного дообучения — модель не переучивается целиком, а точечно подстраивает небольшую часть своих параметров)
• Результат: модель сохраняет общие знания, но начинает лучше понимать вашу предметную область
🔹 Inference (Инференс / Использование)
Момент, когда модель применяет всё выученное для ответа на ваш вопрос. Представьте студента, который год учился (Training), закрыл учебники и сел на экзамен — это и есть инференс. Новых знаний не появляется: модель просто использует то, что уже зашито в её весах.
• Железо: принципиально другое. Inference не требует вычисления градиентов (сложных математических операций обучения), поэтому достаточно одного профессионального GPU (NVIDIA L40S, A100) или даже CPU для небольших моделей — отсюда и приложения с ИИ прямо на смартфоне
• Каждый раз, когда вы пишете в ChatGPT, Claude или Midjourney — происходит именно инференс
⚡️ Почему это важно на практике:
Training и Fine-tuning требуют специализированных кластеров — сотни GPU, соединённых высокоскоростным NVLink (скоростная шина между чипами, как широкое шоссе вместо просёлочной дороги), петабайты хранилища, ЦОДы с жидкостным охлаждением и огромным потреблением энергии. Это инфраструктура за сотни миллионов долларов. Inference — совершенно другой класс задач: здесь важна скорость ответа и стоимость одного запроса. Поэтому inference-серверы дешевле, их можно размещать ближе к пользователю, а самые лёгкие модели и вовсе запускать прямо на телефоне.
💡 Коротко: Training и Fine-tuning — мощные дорогие кластеры, жидкостное охлаждение, мегаватты энергии. Inference — простое и дешёвое железо. Одна и та же модель, но абсолютно разная инфраструктура.
REAL DIGITAL
#AI #Glossary #RealDigital #Training #Inference #FineTuning
👍7❤1👏1
🚨Anthropic открывает «премиум» для всех: ответ на рекламу в ChatGPT
🚀 Anthropic открывает функции Pro для всех.
Пока OpenAI внедряет рекламу в бесплатный ChatGPT, Anthropic идет от обратного. С 11 февраля компания радикально расширила возможности бесплатного Claude, добавив инструменты, которые раньше стоили $20/мес.
Это прямой расчет на профессиональную аудиторию, которой важна работа без «визуального шума» и глубокая кастомизация.
Что теперь доступно в бесплатном тарифе:
🔹 File Creation (Артефакты)
Claude перестал быть просто текстовым полем. Теперь он генерирует готовые файлы: Excel-таблицы с рабочими формулами, презентации и PDF-отчеты прямо в чате.
🔹 Прямые интеграции
Бот подключается к вашему рабочему окружению: Google Drive, Gmail, Slack, Notion и Figma. Больше не нужно копировать данные вручную — Claude видит контекст напрямую через открытый протокол MCP.
🔹 Персонализация стиля
Теперь можно один раз загрузить «инструкцию по эксплуатации» себя или своего бренда. Бот запомнит ваш стиль письма или правила оформления и будет применять их автоматически.
🔹 Улучшенный контекст
Технология сжатия контекста позволяет вести длинные проекты без потери нити разговора (раньше это было привилегией платных аккаунтов).
💻 Нюансы для профи:
Бесплатная версия работает на моделях Sonnet 4.5 и Haiku 4.5. Лимиты остались прежними: от 30 до 100 сообщений в день в зависимости от нагрузки и сложности запросов. Платная версия (Pro) всё еще необходима для доступа к максимально мощному Opus и снятия большинства ограничений.
Итог:
Битва за пользователя перешла в фазу «агентности». Если вам нужен не просто собеседник, а инструмент, который сам соберет отчет в Google Docs или проанализирует таблицу в Drive — обновленный Claude сейчас выглядит предпочтительнее конкурентов.
Источники:
[MacRumors]
[9to5Mac]
[ScreenApp]
REAL DIGITAL
#Claude #AI #Anthropic #ChatGPT #автоматизация
🚀 Anthropic открывает функции Pro для всех.
Пока OpenAI внедряет рекламу в бесплатный ChatGPT, Anthropic идет от обратного. С 11 февраля компания радикально расширила возможности бесплатного Claude, добавив инструменты, которые раньше стоили $20/мес.
Это прямой расчет на профессиональную аудиторию, которой важна работа без «визуального шума» и глубокая кастомизация.
Что теперь доступно в бесплатном тарифе:
🔹 File Creation (Артефакты)
Claude перестал быть просто текстовым полем. Теперь он генерирует готовые файлы: Excel-таблицы с рабочими формулами, презентации и PDF-отчеты прямо в чате.
🔹 Прямые интеграции
Бот подключается к вашему рабочему окружению: Google Drive, Gmail, Slack, Notion и Figma. Больше не нужно копировать данные вручную — Claude видит контекст напрямую через открытый протокол MCP.
🔹 Персонализация стиля
Теперь можно один раз загрузить «инструкцию по эксплуатации» себя или своего бренда. Бот запомнит ваш стиль письма или правила оформления и будет применять их автоматически.
🔹 Улучшенный контекст
Технология сжатия контекста позволяет вести длинные проекты без потери нити разговора (раньше это было привилегией платных аккаунтов).
💻 Нюансы для профи:
Бесплатная версия работает на моделях Sonnet 4.5 и Haiku 4.5. Лимиты остались прежними: от 30 до 100 сообщений в день в зависимости от нагрузки и сложности запросов. Платная версия (Pro) всё еще необходима для доступа к максимально мощному Opus и снятия большинства ограничений.
Итог:
Битва за пользователя перешла в фазу «агентности». Если вам нужен не просто собеседник, а инструмент, который сам соберет отчет в Google Docs или проанализирует таблицу в Drive — обновленный Claude сейчас выглядит предпочтительнее конкурентов.
Источники:
[MacRumors]
[9to5Mac]
[ScreenApp]
REAL DIGITAL
#Claude #AI #Anthropic #ChatGPT #автоматизация
❤3👍3
Как работы из AIRI и МФТИ вошли в научный фундамент архитектуры Google
Команда российских исследователей предложила решение фундаментальной проблемы LLM: как заставить модели помнить миллионы токенов без экспоненциального роста затрат на вычисления.
📌 Проблема памяти в LLM
Стандартный трансформер использует механизм внимания (self-attention). Его вычислительная сложность — O(n²). Это значит: текст в 10 раз длиннее требует в 100 раз больше ресурсов. При контексте в 1 млн токенов современные GPU просто «задыхаются».
📌 Решение: Recurrent Memory Transformer (RMT)
В 2022 году Айдар Булатов, Юрий Куратов и Михаил Бурцев (AIRI/МФТИ) представили на NeurIPS работу, обходящую это ограничение.
Суть: в архитектуру вводятся специальные токены памяти (memory tokens). Модель сжимает важную информацию в эти «ячейки» и передаёт их между сегментами текста. Это превращает трансформер в рекуррентную сеть, где сложность растёт линейно, а не квадратично. В 2023–2024 годах подход масштабировали до 50 млн токенов на бенчмарке BABILong — в рамках исследовательских экспериментов.
📌 Google Titans и научная преемственность
В декабре 2024 года Google Research опубликовал архитектуру Titans — самостоятельное семейство моделей с долгосрочной нейронной памятью. Titans не является форком RMT, но в списке литературы — прямые ссылки на работы команды по масштабированию контекста. Titans тестируются на BABILong — бенчмарке от тех же авторов из AIRI, который стал стандартом оценки «глубокой» памяти в исследовательском сообществе.
📌 Что такое BABILong
Это набор из 20 задач на логику и дедукцию, где ключевые факты спрятаны внутри гигантских массивов данных (до миллиона токенов и выше). Стандартные LLM часто теряют нить уже после первых 10–20% контекста («lost in the middle»). RMT же стабильно находит и связывает факты даже в сверхдлинных последовательностях.
🤖 Наш взгляд:
Наука — кумулятивный процесс. Titans строится на десятках предшествующих работ, и RMT — одна из них. Но когда Google использует твой бенчмарк как индустриальный стандарт и цитирует твои работы по масштабированию контекста — это признание. Идеи токенов памяти, сформулированные в 2020–2022 годах командой из Москвы, вошли в глобальный научный мейнстрим. Без хайпа — через NeurIPS и открытые публикации.
Источники:
▪️ [Recurrent Memory Transformer — NeurIPS 2022]
▪️ [BABILong Benchmark — NeurIPS 2024]
▪️ [Google Titans — arXiv, декабрь 2024]
REAL DIGITAL
#ИИ #LLM #архитектура #Google #AIRI #исследования
Команда российских исследователей предложила решение фундаментальной проблемы LLM: как заставить модели помнить миллионы токенов без экспоненциального роста затрат на вычисления.
📌 Проблема памяти в LLM
Стандартный трансформер использует механизм внимания (self-attention). Его вычислительная сложность — O(n²). Это значит: текст в 10 раз длиннее требует в 100 раз больше ресурсов. При контексте в 1 млн токенов современные GPU просто «задыхаются».
📌 Решение: Recurrent Memory Transformer (RMT)
В 2022 году Айдар Булатов, Юрий Куратов и Михаил Бурцев (AIRI/МФТИ) представили на NeurIPS работу, обходящую это ограничение.
Суть: в архитектуру вводятся специальные токены памяти (memory tokens). Модель сжимает важную информацию в эти «ячейки» и передаёт их между сегментами текста. Это превращает трансформер в рекуррентную сеть, где сложность растёт линейно, а не квадратично. В 2023–2024 годах подход масштабировали до 50 млн токенов на бенчмарке BABILong — в рамках исследовательских экспериментов.
📌 Google Titans и научная преемственность
В декабре 2024 года Google Research опубликовал архитектуру Titans — самостоятельное семейство моделей с долгосрочной нейронной памятью. Titans не является форком RMT, но в списке литературы — прямые ссылки на работы команды по масштабированию контекста. Titans тестируются на BABILong — бенчмарке от тех же авторов из AIRI, который стал стандартом оценки «глубокой» памяти в исследовательском сообществе.
📌 Что такое BABILong
Это набор из 20 задач на логику и дедукцию, где ключевые факты спрятаны внутри гигантских массивов данных (до миллиона токенов и выше). Стандартные LLM часто теряют нить уже после первых 10–20% контекста («lost in the middle»). RMT же стабильно находит и связывает факты даже в сверхдлинных последовательностях.
🤖 Наш взгляд:
Наука — кумулятивный процесс. Titans строится на десятках предшествующих работ, и RMT — одна из них. Но когда Google использует твой бенчмарк как индустриальный стандарт и цитирует твои работы по масштабированию контекста — это признание. Идеи токенов памяти, сформулированные в 2020–2022 годах командой из Москвы, вошли в глобальный научный мейнстрим. Без хайпа — через NeurIPS и открытые публикации.
Источники:
▪️ [Recurrent Memory Transformer — NeurIPS 2022]
▪️ [BABILong Benchmark — NeurIPS 2024]
▪️ [Google Titans — arXiv, декабрь 2024]
REAL DIGITAL
#ИИ #LLM #архитектура #Google #AIRI #исследования
👍6👏3🔥1
Claude Code обрушил IBM на 13% — и индийский IT-рынок следом
23 февраля 2026 года войдёт в историю как чёрный понедельник для классического ИТ-консалтинга. Акции IBM рухнули на 13,2% — худший однодневный результат с октября 2000 года. Индийский индекс Nifty IT в феврале потерял 21% — крупнейший месячный обвал со времён кризиса 2008 года.
Причина: Anthropic объявила, что Claude Code способен автоматизировать то, на чём IBM и аутсорсеры (TCS, Infosys, Wipro) зарабатывали десятилетиями — модернизацию COBOL.
Что известно:
📌 COBOL (Common Business-Oriented Language) — язык 1959 года. Через него проходит 95% транзакций в банкоматах США. Сотни миллиардов строк кода работают в банках, авиакомпаниях и госструктурах.
📌 IBM — главный бенефициар этого рынка: мейнфреймы z16, консалтинг, поддержка. Одно объявление Anthropic стёрло более $31 млрд капитализации компании за один торговый день.
Что умеет Claude Code:
✅ Картирует зависимости в тысячах строк кода, документирует потоки данных и выявляет риски — на это у человеческих команд уходили месяцы
✅ Agentic workflow: работает напрямую с файловой системой и CLI — пишет, тестирует и исправляет код в автономном цикле при грамотной настройке и контроле
✅ Вычленяет бизнес-логику из легаси-кода и переписывает её на современный стек (Python, Java)
✅ Сжимает фазу анализа и документации: от лет — до кварталов
Наш взгляд:
Паника рынка понятна, но преждевременна. IBM защищалась: компания предлагает собственные AI-инструменты для мейнфреймов с 2023 года, а CEO Арвинд Кришна напоминает — клиенты уже имели возможность мигрировать с мейнфреймов, но выбирали оставаться. Перевод кода с COBOL на Java — лишь первый шаг из десятка: нужно мигрировать данные, middleware, транзакционную инфраструктуру, интеграции. Тем не менее сигнал рынка чёткий: если бизнес-модель строилась на перепродаже человеко-часов для анализа легаси-кода — это окно закрывается.
Источники:
[CNBC]
[Bloomberg via Yahoo Finance]
[Business Standard]
REAL DIGITAL
#ИскусственныйИнтеллект #IBM #COBOL #ClaudeCode #LegacyModernization
23 февраля 2026 года войдёт в историю как чёрный понедельник для классического ИТ-консалтинга. Акции IBM рухнули на 13,2% — худший однодневный результат с октября 2000 года. Индийский индекс Nifty IT в феврале потерял 21% — крупнейший месячный обвал со времён кризиса 2008 года.
Причина: Anthropic объявила, что Claude Code способен автоматизировать то, на чём IBM и аутсорсеры (TCS, Infosys, Wipro) зарабатывали десятилетиями — модернизацию COBOL.
Что известно:
📌 COBOL (Common Business-Oriented Language) — язык 1959 года. Через него проходит 95% транзакций в банкоматах США. Сотни миллиардов строк кода работают в банках, авиакомпаниях и госструктурах.
📌 IBM — главный бенефициар этого рынка: мейнфреймы z16, консалтинг, поддержка. Одно объявление Anthropic стёрло более $31 млрд капитализации компании за один торговый день.
Что умеет Claude Code:
✅ Картирует зависимости в тысячах строк кода, документирует потоки данных и выявляет риски — на это у человеческих команд уходили месяцы
✅ Agentic workflow: работает напрямую с файловой системой и CLI — пишет, тестирует и исправляет код в автономном цикле при грамотной настройке и контроле
✅ Вычленяет бизнес-логику из легаси-кода и переписывает её на современный стек (Python, Java)
✅ Сжимает фазу анализа и документации: от лет — до кварталов
Наш взгляд:
Паника рынка понятна, но преждевременна. IBM защищалась: компания предлагает собственные AI-инструменты для мейнфреймов с 2023 года, а CEO Арвинд Кришна напоминает — клиенты уже имели возможность мигрировать с мейнфреймов, но выбирали оставаться. Перевод кода с COBOL на Java — лишь первый шаг из десятка: нужно мигрировать данные, middleware, транзакционную инфраструктуру, интеграции. Тем не менее сигнал рынка чёткий: если бизнес-модель строилась на перепродаже человеко-часов для анализа легаси-кода — это окно закрывается.
Источники:
[CNBC]
[Bloomberg via Yahoo Finance]
[Business Standard]
REAL DIGITAL
#ИскусственныйИнтеллект #IBM #COBOL #ClaudeCode #LegacyModernization
👍8🤔2
🇰🇿 Облачный рынок Казахстана удвоился — но ЦОДы уже заканчиваются
Сегодня IDC совместно с МИИЦР представили первый масштабный аналитический отчёт по рынку облаков и коммерческих ЦОД. Мы входим в фазу самого агрессивного роста: рынок разогнался, но упёрся в физический потолок.
📊 Что говорят цифры:
• 117,6 млрд тенге — объём рынка публичных облаков в 2025 году. С 2022 года он вырос ровно в два раза. CAGR — 26%.
• Загрузка ЦОД — 91%. Из 4 009 доступных стоек свободны всего 361. Это критическая отметка: расти физически уже почти некуда.
Разрыв в зрелости: в мире 61% ПО уже в облаке, в Казахстане — только 32%. Потенциал для роста колоссальный.
⚡️ Парадокс роста и ИИ-фактор
Рынок облаков летит вверх (+26%), а рынок мощностей ЦОД прибавляет лишь 7% в год. Главный дефицит — высокоплотные стойки для ИИ-нагрузок. Если раньше облако было просто «хранилищем», то сегодня это AI-powered cloud.
Казахстан стоит на развилке. Либо мы успеем построить инфраструктуру либо дефицит станет тормозом ИИ-трансформации. К 2029 году рынок должен достичь 257,2 млрд тенге, и ближайшие два года решат, кто заберёт этот профит.
IDC - автор исследования и организатор мероприятия при поддержки МИИЦР.
REAL DIGITAL
#IDC #МИИЦР #AI #ЦОД #YandexCloud #VKCloud #DELL #Lenovo #Axellect
Сегодня IDC совместно с МИИЦР представили первый масштабный аналитический отчёт по рынку облаков и коммерческих ЦОД. Мы входим в фазу самого агрессивного роста: рынок разогнался, но упёрся в физический потолок.
📊 Что говорят цифры:
• 117,6 млрд тенге — объём рынка публичных облаков в 2025 году. С 2022 года он вырос ровно в два раза. CAGR — 26%.
• Загрузка ЦОД — 91%. Из 4 009 доступных стоек свободны всего 361. Это критическая отметка: расти физически уже почти некуда.
Разрыв в зрелости: в мире 61% ПО уже в облаке, в Казахстане — только 32%. Потенциал для роста колоссальный.
⚡️ Парадокс роста и ИИ-фактор
Рынок облаков летит вверх (+26%), а рынок мощностей ЦОД прибавляет лишь 7% в год. Главный дефицит — высокоплотные стойки для ИИ-нагрузок. Если раньше облако было просто «хранилищем», то сегодня это AI-powered cloud.
Казахстан стоит на развилке. Либо мы успеем построить инфраструктуру либо дефицит станет тормозом ИИ-трансформации. К 2029 году рынок должен достичь 257,2 млрд тенге, и ближайшие два года решат, кто заберёт этот профит.
IDC - автор исследования и организатор мероприятия при поддержки МИИЦР.
REAL DIGITAL
#IDC #МИИЦР #AI #ЦОД #YandexCloud #VKCloud #DELL #Lenovo #Axellect
👍11🔥2🤔2