REAL DIGITAL
6.36K subscribers
2.63K photos
248 videos
12 files
2.96K links
- канал для всех кто не стоит на месте, о всем передовом 🔥 особенно в технологиях ит, ии и около.
📱 Для связи @digital_in_real
Download Telegram
Whisper + Claude: превращаем многочасовые созвоны в протоколы (без галлюцинаций)

Разбираем связку, о которой спросил наш подписчик. Классический пример того, как два узких инструмента дают результат, недоступный одной "универсальной" модели.

В чём суть:
Open-source Whisper (OpenAI) забирает тяжёлую работу с аудио → Claude структурирует хаос в action plan.

⚙️ Техническая начинка:
Whisper large-v3-turbo — оптимизированная версия large-v3 (сентябрь 2024): быстрее при минимальной потере точности. Для максимальной скорости — faster-whisper: до 4× эффективнее за счёт квантования.
Claude API — контекстное окно 200K токенов. Транскрипт воркшопа (до 10 часов) целиком, без разрезания на куски и потери нити обсуждения.

💻 Два сценария внедрения:
No-code (n8n / Make): нода Whisper → нода Claude. Весь процесс — меньше минуты.
Python: библиотеки openai-whisper + anthropic

📌 Pro-tip: добавьте Pyannote для speaker diarization — и Claude не просто выдаст текст, а распишет: "Аскар предложил бюджет, Елена настояла на дедлайне".

🔒 Приватность (важно для РК):
Open-source Whisper запускается локально — аудио не уходит на серверы OpenAI. В облако (Claude API) летит только текстовый лог. Принципиально с точки зрения корпоративной безопасности.

🤖 Наш взгляд:
Эта связка окупается в первую же неделю — за счёт экономии на follow-up письмах и ручных протоколах. Входной билет в автоматизацию с немедленным результатом.

Источники:
[Whisper — GitHub OpenAI]
[faster-whisper]
[Claude API docs]

REAL DIGITAL

#AI #Whisper #Claude #WorkflowAutomation #Automation
👍5👏41
Математический код власти: от уравнений к управлению

В наших прошлых постах мы писали о поколении «атлантов» — Өтелбаеве, Аманове, Әлмұханбетове, поколении тех, кто стоял у истоков: Акбергенов, Өтелбаев и Смагулов, кто заложил фундамент в 1960-70-х.

Эта интеллектуальная среда конвертировалась в реальное управление страной. Математика — это не только вычисления. Это способность строить модели, видеть структуру там, где другие видят хаос, и принимать решения на основе системного анализа.

Теперь хотели бы отметить математиков-управленцев, для которых Hard Skills стали фундаментом карьеры. Безусловно, в одном посте всех не перечислить.

📌 Топ-менеджмент и госуправление: архитекторы систем

Алихан Смаилов — КазГУ (прикладная математика, 1994). Министр финансов (2018-2020), Премьер-министр РК (2022-2024). С апреля 2024 — Председатель Высшей аудиторской палаты РК.

Алмасадам Саткалиев — КазНУ (механика, 1992). Д.э.н., академик КазНАЕН. Председатель Самрук-Қазына (2021-2023), министр энергетики (2023-2025). С марта 2025 — Председатель Агентства РК по атомной энергии.

Бахытжан Жумагулов — КазГУ (прикладная математика, 1975), д.т.н., академик НАН РК. Ректор КазНУ им. аль-Фараби (2008-2010), министр образования и науки РК (2010-2013). Президент Национальной инженерной академии РК (с 2014).

Жаксыбек Кулекеев — КазГУ (математик, 1979), к.э.н., профессор. Министр экономики и торговли (1999-2002), министр образования и науки (2003-2004), ректор Академии госуправления при Президенте РК (2005-2006). Председатель Совета директоров Евразийского Университета им. Гумилёва, член СД Halyk Bank.

Куанышбек Есекеев — КазНУ (мехмат, 1995). Самый молодой кандидат наук в истории Казахстана. Председатель Правления АО «Казахтелеком» (2010-2024), Помощник Президента РК.

Олег Новачук — КазГУ (прикладная математика, 1993). Председатель Совета директоров Группы KAZ Minerals PLC.

Галымжан Пирматов — НГУ (математик, 1993). АО «Казатомпром» (2017-2021), Председатель Национального Банка РК (2022-2023).

Нурлан Рахметов — МГУ (мехмат, к.ф.-м.н., 1990). Вице-министр финансов, ключевые позиции в Самрук-Қазына.

Даурен Каупынбаев — КазГУ (прикладная математика, 1992), к.ф.-м.н. Основатель Tamos Education — крупнейшей сети частных школ в Центральной Азии.

Даурен Керейбаев — НГУ (механика и прикладная математика, 1992). Вычислительный центр СО РАН, руководящие позиции в банковской сфере, Самрук-Қазына, Казахтелеком, член Совета директоров Kcell.

Наталья Лян — МГУ (ВМК, 1991). АО «Казахтелеком», управляющий директор по управлению внешними активами. С 2024 — член Совета директоров BTS Digital Ventures (AIFC).

Азамат Ойнаров — НГУ (прикладная математика, 1992), к.т.н. Заместитель министра обороны по финансам (2007-2009), член Совета директоров АО «Центр развития города Алматы».

📌 Академические лидеры: воспроизводство школы

Мактагали Бектемесов (КазГУ, д.ф.-м.н., академик НИА РК) — генеральный директор Института информационных и вычислительных технологий.

Сауле Рахметуллина (НГУ) — ректор ВКТУ им. Д. Серикбаева, кандидат технических наук, ассоциированный профессор, MBA.

Джамалбек Тусупов (КарГУ, 1979), д.ф.-м.н., профессор. Аспирантура в Институте математики СО АН СССР (Новосибирск). Заведующий кафедрой «Информационные системы» ФИТ ЕНУ им. Л.Н. Гумилёва (с 2011).

🤖 Наш взгляд:

Что общего у Премьер-министра, Председателя Нацбанка, ректоров ведущих вузов и главы атомного агентства? Общая операционная система. Они проектируют сценарии, а не просто руководят.

Пока писали этот пост, читатели прислали ещё фамилии выдающихся математиков прошлого. Будем продолжать серию — как про современников, так и про математиков, благодаря которым математика в нашей стране состоялась.

Традиция живёт и развивается. Математика в Казахстане — это и есть реальный Digital.

📌 Disclaimer:
Информация собрана из открытых источников. При наличии уточнений от героев материала — готовы внести коррективки.

[REAL DIGITAL]

- Пост 1
- Пост 2

#HardSkills #Математика #Управление #Казахстан #КазГУ #НГУ #КазНУ #МГУ
👍243👏3
ЦА обгоняет сама себя: ИИ в финансах уже не эксперимент

Регуляторы Казахстана, Кыргызстана и Таджикистана впервые провели совместное исследование ИИ в финансовом секторе — опросили 232 организации и получили неожиданную картину.

Что показал доклад:
📌 Только 36% финансовых организаций региона используют ИИ — против 52% в мире по данным NVIDIA 2025. При этом 56% уже планируют внедрение в течение следующего года. Разрыв между "используем сейчас" и "внедряем скоро" — один из крупнейших среди исследованных рынков.

📌 Уникальный региональный разворот: глобальный тренд — ИИ для клиентского опыта. Тренд ЦА — ИИ для внутренней эффективности: автоматизация операций, разработка ПО, анализ данных. Регион сначала строит фундамент, а не витрину.

📌 Казахстан формирует суверенную ИИ-инфраструктуру: суперкомпьютер Alem.Cloud на 512 GPU NVIDIA H200 обеспечивает 2 экзафлопса в режиме FP8 — специально под обучение LLM (запущен 9 июля 2025). Национальная модель KazLLM (148 млрд токенов, казахский/русский/английский/турецкий) уже интегрируется в госуслуги eGov.

Регион движется по нетипичному сценарию: не копирует западный путь "ИИ как витрина", а строит инфраструктуру снизу вверх — вычисления, данные, суверенные модели. Это медленнее, но устойчивее. Банки, которые сегодня автоматизируют бэк-офис, завтра будут на шаг впереди тех, кто вложился в красивые чат-боты.

Итог:
Доклад подготовлен FinTech AI Center совместно с нацбанками КЗ, КГ, ТД и при поддержке Visa. Период исследования: январь 2024 — декабрь 2025.

Источник: отчёт «Искусственный интеллект на финансовых рынках Центральной Азии. Текущее состояние и перспективы»

REAL DIGITAL

#ИИ #FinTech #Казахстан #ЦентральнаяАзия #KazLLM
🔥5👏32
**Глоссарий AI 2.0
Выпуск #5.3: Training vs Inference**

У любой нейросети есть три стадии: разработчики обучают её на данных, затем адаптируют под задачу, и только потом вы её используете. Разбираем каждую.

🔹 Training (Обучение)
Создание модели с нуля. Модель миллиарды раз прогоняет через себя терабайты данных, подбирая веса — числовые коэффициенты, которые определяют её поведение.
• Ресурс: тысячи GPU с HBM-памятью (сверхбыстрая память в том же корпусе, что и чип — как если бы оперативка была впаяна прямо в процессор) — H100, B200 от NVIDIA, от $30 000 за штуку
• Пример: обучение Llama 3 (70B) заняло 7.7 млн GPU-часов на H100; модель 3.1 405B — 30.84 млн GPU-часов
• Цифры — ориентир: итоговые затраты зависят от оптимизации (смешанная точность, распределённое обучение)

🔹 Fine-tuning (Дообучение)
Адаптация готовой модели под конкретную задачу на своих данных — например, на документах компании или отраслевой терминологии.
• Железо: то же семейство GPU, что и для Training, но кластер в разы меньше
• Ресурс: в 100–1000 раз дешевле полного обучения благодаря методам PEFT/LoRA (технологии частичного дообучения — модель не переучивается целиком, а точечно подстраивает небольшую часть своих параметров)
• Результат: модель сохраняет общие знания, но начинает лучше понимать вашу предметную область

🔹 Inference (Инференс / Использование)
Момент, когда модель применяет всё выученное для ответа на ваш вопрос. Представьте студента, который год учился (Training), закрыл учебники и сел на экзамен — это и есть инференс. Новых знаний не появляется: модель просто использует то, что уже зашито в её весах.
• Железо: принципиально другое. Inference не требует вычисления градиентов (сложных математических операций обучения), поэтому достаточно одного профессионального GPU (NVIDIA L40S, A100) или даже CPU для небольших моделей — отсюда и приложения с ИИ прямо на смартфоне
• Каждый раз, когда вы пишете в ChatGPT, Claude или Midjourney — происходит именно инференс

⚡️ Почему это важно на практике:
Training и Fine-tuning требуют специализированных кластеров — сотни GPU, соединённых высокоскоростным NVLink (скоростная шина между чипами, как широкое шоссе вместо просёлочной дороги), петабайты хранилища, ЦОДы с жидкостным охлаждением и огромным потреблением энергии. Это инфраструктура за сотни миллионов долларов. Inference — совершенно другой класс задач: здесь важна скорость ответа и стоимость одного запроса. Поэтому inference-серверы дешевле, их можно размещать ближе к пользователю, а самые лёгкие модели и вовсе запускать прямо на телефоне.

💡 Коротко: Training и Fine-tuning — мощные дорогие кластеры, жидкостное охлаждение, мегаватты энергии. Inference — простое и дешёвое железо. Одна и та же модель, но абсолютно разная инфраструктура.

REAL DIGITAL

#AI #Glossary #RealDigital #Training #Inference #FineTuning
👍71👏1
🚨Anthropic открывает «премиум» для всех: ответ на рекламу в ChatGPT

🚀 Anthropic открывает функции Pro для всех.

Пока OpenAI внедряет рекламу в бесплатный ChatGPT, Anthropic идет от обратного. С 11 февраля компания радикально расширила возможности бесплатного Claude, добавив инструменты, которые раньше стоили $20/мес.
Это прямой расчет на профессиональную аудиторию, которой важна работа без «визуального шума» и глубокая кастомизация.
Что теперь доступно в бесплатном тарифе:
🔹 File Creation (Артефакты)
Claude перестал быть просто текстовым полем. Теперь он генерирует готовые файлы: Excel-таблицы с рабочими формулами, презентации и PDF-отчеты прямо в чате.
🔹 Прямые интеграции
Бот подключается к вашему рабочему окружению: Google Drive, Gmail, Slack, Notion и Figma. Больше не нужно копировать данные вручную — Claude видит контекст напрямую через открытый протокол MCP.
🔹 Персонализация стиля
Теперь можно один раз загрузить «инструкцию по эксплуатации» себя или своего бренда. Бот запомнит ваш стиль письма или правила оформления и будет применять их автоматически.
🔹 Улучшенный контекст
Технология сжатия контекста позволяет вести длинные проекты без потери нити разговора (раньше это было привилегией платных аккаунтов).
💻 Нюансы для профи:
Бесплатная версия работает на моделях Sonnet 4.5 и Haiku 4.5. Лимиты остались прежними: от 30 до 100 сообщений в день в зависимости от нагрузки и сложности запросов. Платная версия (Pro) всё еще необходима для доступа к максимально мощному Opus и снятия большинства ограничений.

Итог:
Битва за пользователя перешла в фазу «агентности». Если вам нужен не просто собеседник, а инструмент, который сам соберет отчет в Google Docs или проанализирует таблицу в Drive — обновленный Claude сейчас выглядит предпочтительнее конкурентов.

Источники:
[MacRumors]
[9to5Mac]
[ScreenApp]

REAL DIGITAL

#Claude #AI #Anthropic #ChatGPT #автоматизация
3👍3
Как работы из AIRI и МФТИ вошли в научный фундамент архитектуры Google

Команда российских исследователей предложила решение фундаментальной проблемы LLM: как заставить модели помнить миллионы токенов без экспоненциального роста затрат на вычисления.

📌 Проблема памяти в LLM
Стандартный трансформер использует механизм внимания (self-attention). Его вычислительная сложность — O(n²). Это значит: текст в 10 раз длиннее требует в 100 раз больше ресурсов. При контексте в 1 млн токенов современные GPU просто «задыхаются».

📌 Решение: Recurrent Memory Transformer (RMT)
В 2022 году Айдар Булатов, Юрий Куратов и Михаил Бурцев (AIRI/МФТИ) представили на NeurIPS работу, обходящую это ограничение.
Суть: в архитектуру вводятся специальные токены памяти (memory tokens). Модель сжимает важную информацию в эти «ячейки» и передаёт их между сегментами текста. Это превращает трансформер в рекуррентную сеть, где сложность растёт линейно, а не квадратично. В 2023–2024 годах подход масштабировали до 50 млн токенов на бенчмарке BABILong — в рамках исследовательских экспериментов.

📌 Google Titans и научная преемственность
В декабре 2024 года Google Research опубликовал архитектуру Titans — самостоятельное семейство моделей с долгосрочной нейронной памятью. Titans не является форком RMT, но в списке литературы — прямые ссылки на работы команды по масштабированию контекста. Titans тестируются на BABILong — бенчмарке от тех же авторов из AIRI, который стал стандартом оценки «глубокой» памяти в исследовательском сообществе.

📌 Что такое BABILong
Это набор из 20 задач на логику и дедукцию, где ключевые факты спрятаны внутри гигантских массивов данных (до миллиона токенов и выше). Стандартные LLM часто теряют нить уже после первых 10–20% контекста («lost in the middle»). RMT же стабильно находит и связывает факты даже в сверхдлинных последовательностях.

🤖 Наш взгляд:
Наука — кумулятивный процесс. Titans строится на десятках предшествующих работ, и RMT — одна из них. Но когда Google использует твой бенчмарк как индустриальный стандарт и цитирует твои работы по масштабированию контекста — это признание. Идеи токенов памяти, сформулированные в 2020–2022 годах командой из Москвы, вошли в глобальный научный мейнстрим. Без хайпа — через NeurIPS и открытые публикации.

Источники:
▪️ [Recurrent Memory Transformer — NeurIPS 2022]
▪️ [BABILong Benchmark — NeurIPS 2024]
▪️ [Google Titans — arXiv, декабрь 2024]

REAL DIGITAL

#ИИ #LLM #архитектура #Google #AIRI #исследования
👍6👏3🔥1
Claude Code обрушил IBM на 13% — и индийский IT-рынок следом

23 февраля 2026 года войдёт в историю как чёрный понедельник для классического ИТ-консалтинга. Акции IBM рухнули на 13,2% — худший однодневный результат с октября 2000 года. Индийский индекс Nifty IT в феврале потерял 21% — крупнейший месячный обвал со времён кризиса 2008 года.

Причина: Anthropic объявила, что Claude Code способен автоматизировать то, на чём IBM и аутсорсеры (TCS, Infosys, Wipro) зарабатывали десятилетиями — модернизацию COBOL.

Что известно:
📌 COBOL (Common Business-Oriented Language) — язык 1959 года. Через него проходит 95% транзакций в банкоматах США. Сотни миллиардов строк кода работают в банках, авиакомпаниях и госструктурах.

📌 IBM — главный бенефициар этого рынка: мейнфреймы z16, консалтинг, поддержка. Одно объявление Anthropic стёрло более $31 млрд капитализации компании за один торговый день.

Что умеет Claude Code:
Картирует зависимости в тысячах строк кода, документирует потоки данных и выявляет риски — на это у человеческих команд уходили месяцы
Agentic workflow: работает напрямую с файловой системой и CLI — пишет, тестирует и исправляет код в автономном цикле при грамотной настройке и контроле
Вычленяет бизнес-логику из легаси-кода и переписывает её на современный стек (Python, Java)
Сжимает фазу анализа и документации: от лет — до кварталов

Наш взгляд:
Паника рынка понятна, но преждевременна. IBM защищалась: компания предлагает собственные AI-инструменты для мейнфреймов с 2023 года, а CEO Арвинд Кришна напоминает — клиенты уже имели возможность мигрировать с мейнфреймов, но выбирали оставаться. Перевод кода с COBOL на Java — лишь первый шаг из десятка: нужно мигрировать данные, middleware, транзакционную инфраструктуру, интеграции. Тем не менее сигнал рынка чёткий: если бизнес-модель строилась на перепродаже человеко-часов для анализа легаси-кода — это окно закрывается.

Источники:
[CNBC]
[
Bloomberg via Yahoo Finance]
[
Business Standard]

REAL DIGITAL

#ИскусственныйИнтеллект #IBM #COBOL #ClaudeCode #LegacyModernization
👍8🤔2
🇰🇿 Облачный рынок Казахстана удвоился — но ЦОДы уже заканчиваются

Сегодня IDC совместно с МИИЦР представили первый масштабный аналитический отчёт по рынку облаков и коммерческих ЦОД. Мы входим в фазу самого агрессивного роста: рынок разогнался, но упёрся в физический потолок.

📊 Что говорят цифры:
• 117,6 млрд тенге — объём рынка публичных облаков в 2025 году. С 2022 года он вырос ровно в два раза. CAGR — 26%.
• Загрузка ЦОД — 91%. Из 4 009 доступных стоек свободны всего 361. Это критическая отметка: расти физически уже почти некуда.

Разрыв в зрелости: в мире 61% ПО уже в облаке, в Казахстане — только 32%. Потенциал для роста колоссальный.

⚡️ Парадокс роста и ИИ-фактор
Рынок облаков летит вверх (+26%), а рынок мощностей ЦОД прибавляет лишь 7% в год. Главный дефицит — высокоплотные стойки для ИИ-нагрузок. Если раньше облако было просто «хранилищем», то сегодня это AI-powered cloud.

Казахстан стоит на развилке. Либо мы успеем построить инфраструктуру либо дефицит станет тормозом ИИ-трансформации. К 2029 году рынок должен достичь 257,2 млрд тенге, и ближайшие два года решат, кто заберёт этот профит.

IDC - автор исследования и организатор мероприятия при поддержки МИИЦР.

REAL DIGITAL

#IDC #МИИЦР #AI #ЦОД #YandexCloud #VKCloud #DELL #Lenovo #Axellect
👍11🔥2🤔2
ИИ в медицине: от экспериментов к клиническому стандарту

Дискуссия "заменит ли ИИ врача" уводит от главного. Реальные системы уже меняют другое: скорость триажа (сортировки пациентов по срочности), вариативность интерпретаций и воспроизводимость клинических решений — факторы, которые чаще всего определяют исход лечения.

Четыре решения с подтверждённым применением:

📌 Med-Gemini (Google DeepMind)
На MedQA (USMLE) модель демонстрирует уровень клинического рассуждения, сопоставимый с экзаменационной подготовкой врача — 91,1%, лучший результат среди медицинских LLM. Работает с текстом, снимками, видео УЗИ и генетическими данными в одном контексте. Оговорка: это экзаменационный бенчмарк, не клиническая валидация.

⚡️ Viz.ai — триаж при инсульте
Детекция окклюзий (закупорок) крупных сосудов в 1700+ госпиталях. В Banner Health (крупная больничная сеть, США) время от КТ до уведомления врача: с 57 до 6 минут. 90% оповещений просматривается специалистом в течение 5 минут. ИИ здесь не заменяет врача — он устраняет системные задержки.

🔬 Lunit — скрининг рака груди
INSIGHT MMG валидирована на 660 000+ маммограммах в Норвегии: эффективность сопоставима с двойным чтением двух радиологов. 3000+ учреждений в 40+ странах. Используется в национальной программе скрининга Австралии.

🧬 PathAI — гистопатология для исследований
10 февраля 2026: запуск AIM-HI UC и IBDExplore на платформе AISight. Цель — стандартизированные эндпоинты (измеримые показатели исхода) в клинических испытаниях по язвенному колиту. Гистопатология — микроскопический анализ тканей для постановки диагноза. Ускоряет разработку лекарств и повышает сопоставимость результатов исследований. Статус: Research Use Only.

Медицинский ИИ наиболее эффективен там, где решения должны приниматься быстро, а данные стандартизированы.

🤖 Наш взгляд:
Для Казахстана это не абстрактный тренд. Дефицит радиологов в регионах — системная проблема, и решения уровня Lunit или Viz.ai могут стать инфраструктурным слоем здравоохранения: телемедицина + ИИ-скрининг + централизованная экспертиза = выравнивание качества диагностики между регионами. Открытые вопросы — регуляторика, интеграция с PACS (системы хранения медицинских снимков — КТ, МРТ, рентген) и экономика в рамках ОСМС — но направление очевидно.

Источники:
[Google Research]
[
Viz.ai LVO]
[
Lunit INSIGHT MMG][PathAI]

REAL DIGITAL

#HealthAI #MedTech #AIвМедицине
👍4🔥1🤔1🎉1
NotebookLM обновился: слайды теперь редактируются промптами

17 февраля Google закрыл главную боль пользователей NotebookLM. Раньше любая правка = пересборка всей презентации. Теперь — нет.

📌 Что изменилось:
В Studio появилась кнопка Revise (карандаш) на каждом слайде. Пишете инструкцию — ИИ переделывает только этот слайд, не трогая остальные. "Сократи до 3 тезисов", "Сделай упор на риски", "Перепиши вступление как один вывод". Каждая версия сохраняется отдельно — можно откатиться к любому предыдущему варианту. Для командной работы это особенно важно: правки не затирают друг друга.

⚠️ Важный нюанс про PPTX:
Экспорт в .pptx теперь есть — и это шаг вперёд. Но слайды внутри файла — изображения, не нативные PowerPoint-объекты. Технически файл открывается в PowerPoint, но текст там не редактируется напрямую. Правки — через промпт в NotebookLM, потом переэкспорт. Для адаптации под корпбрендинг всё равно понадобится Canva или Figma.

Что реально работает:
• Итеративные правки без регенерации всей колоды
• Экспорт в PDF и PPTX (Google Slides — следующий в очереди)
• История версий с откатом по каждому слайду
• Два формата: Detailed Deck (текст + детали) и Presenter Slides (тезисы для выступления)

🔹 Роллаут:
По данным Google: Pro и Ultra — уже сейчас. Бесплатный план — через несколько недель.

🤖 Наш взгляд:
Инструмент перестал быть "генератором одного нажатия" и стал рабочим черновиком. Практический сценарий: загружаете годовой отчёт, получаете 20 слайдов — и промптами затачиваете под разные аудитории. Слайд 3 — для финдиректора, слайд 7 — для маркетинга, слайд 12 — только ключевой вывод для совета директоров. Без пересборки всей колоды.

📚 Серия REAL DIGITAL про NotebookLM — с чего начать:
[Часть 1: База и сценарии][Часть 2: Аналитика и продажи]
[
Часть 3: Юридические промпты]
[
Часть 4: Командная работа]
[
Безопасность данных]

Источники:
[NotebookLM — официальный анонс в X]
[
9to5Google]
[
Android Authority]

REAL DIGITAL

#NotebookLM #GoogleUpdate #ИИдляБизнеса #Productivity #GoogleAI
👍4👏1
Аль-Фараби в пробке: эпоха «глаза на дорогу» заканчивается, но все идут к этому по-разному

Пока вы стоите на Аль-Фараби, в мире автопилотов произошёл технический раскол. Reuters (февраль 2026) фиксирует: одни производители учат машину понимать мир самостоятельно, другие — опираться на готовую цифровую инфраструктуру.

📌 Два принципиально разных подхода:
«Умная машина» (Tesla) — автомобиль сам строит картину мира в реальном времени: только камеры и нейросеть, никаких предзаписанных карт. Работает там, где ездит впервые.
«Умная дорога» (Mercedes, большинство китайских систем) — машина опирается на HD-карты, заранее отрисованные с точностью до сантиметра. Нет карты — нет автономного режима. Drive Pilot физически не смог бы работать на Аль-Фараби: Алматы в эти карты не внесён.

Что происходит сейчас:
🛑 Mercedes приостановил Level 3. Drive Pilot — единственная в США сертифицированная система, позволявшая официально отвлечься от дороги, — убрана из нового S-Class 2026. Не навсегда: компания переходит к новой архитектуре с прицелом на Level 4 совместно с Nvidia. Причина паузы — система работала только в пробках до 60 км/ч на конкретных картированных трассах, спрос оказался низким, а затраты на поддержку — высокими.

🚀 Tesla пошла другим путём. В обычной Model 3/Y FSD остаётся Level 2 — камера следит за водителем, отвлечься нельзя. Зато 17 февраля на Giga Texas собрали первый предсерийный Cybercab — без руля и педалей. Серийное производство — апрель 2026 по заявлению Маска, цена до $30 000. Вот в нём вы официально пассажир — руля и педалей нет конструктивно. Правда, Unsupervised FSD пока не существует в серийном продакшене: апрель 2026 — это цель, а не гарантия.

🇨🇳 Китай выдал первые разрешения на Level 3. В декабре 2025 MIIT сертифицировал Changan Deepal SL03 и BAIC Arcfox Alpha S для пилотной эксплуатации в Пекине и Чунцине. Эти системы — тоже карто-зависимые, но Китай картирует свои города агрессивнее всех.

В Алматы уже ездят машины, технически опережающие местное законодательство. Но даже если завтра появятся правила — карто-зависимые системы здесь не заработают без отдельного проекта по HD-картированию города. Tesla-подход в этом смысле ближе к реальности казахстанских дорог: машина учится на том, что видит, а не на том, что кто-то нанёс на карту заранее.

Кому доверяете больше — машине, которая думает сама, или той, что знает дорогу наизусть? 👇

Источники:
[Reuters]
[Insurance Journal]
[TFLcar — Cybercab]
[Global Times — Китай L3]

REAL DIGITAL

#Автопилот #Tesla #Cybercab #Mercedes #LevelThree #Алматы #TechNewsKZ
👍71