Грин еще не робот 🤖 - AI vs Human
5.39K subscribers
1.01K photos
429 videos
2 files
414 links
Здесь я исследую, как ИИ, роботы и биотех постепенно превращают нас из простых смертных в нечто более продвинутое.

Серьезно-ироничный анализ , иногда немного научпопа.

Давай вместе понаблюдаем за последней битвой человечества за форму и содержание.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Пятничный контент.

И что?

Пока единственная компания , не теряющая денег на ИИ
1🤪208👍6
Сэм Альтман долго упирался. ChatGPT сделали «безопасным» — чтобы ни у кого не сгорел мозг от фраз бота. Но пользователи начали жаловаться: слишком стерильно, скучно, без эмоций. В какой-то момент стало понятно — чем больше ограничений, тем меньше удовольствия от общения.

И вот теперь OpenAI решает вернуть человечность. Компания готовит новую версию ChatGPT, которая снова будет «живее», как в любимом 4o, а к декабрю добавит поддержку эротического режима. Всё официально: только для взрослых, с верификацией возраста и защитами. Но по сути — ИИ-компаньон, с которым можно говорить о чём угодно.

Ранее OpenAI обещала, что разработчики смогут делать «mature»-приложения прямо внутри ChatGPT. Теперь это доходит до основного продукта. По данным The Verge, функция даст «взрослым пользователям больше свободы в том, как они взаимодействуют с ИИ».

Альтман подчеркнул, что режим активируется только по запросу, но 800 млн пользователей в неделю — это слишком большая выборка, чтобы всё прошло гладко.

Пока конкуренты вроде xAI толкают своих Grok-компаньонов в сегмент романтических ассистентов, OpenAI просто решила забрать рынок обратно.

И что?

Для бизнеса: это вход на рынок эмоциональных AI-компаньонов, где платёжеспособная аудитория уже формируется. Простая подписка на «эмпатию» может принести больше, чем корпоративные API.

Для инвесторов: OpenAI становится Netflix для человеческих чувств. Масштаб — сотни миллионов вовлечённых пользователей. Но регуляторы могут врезать по GDPR и этике.

Для людей: если ChatGPT теперь понимает тебя «на личном уровне», через год миллионы людей будут строить эмоциональные связи с кодом. И в какой-то момент не отличат привязанность от зависимости.

🚨 Нам 3.14здец

Психологи и семьи — 9/10 — почему: эмоциональная зависимость от ИИ-компаньонов будет расти быстрее, чем рынок психотерапии; что делать: срочно вводить маркировку «эмоционально воздействующий контент» и развивать терапию для зависимых от ИИ-отношений.

Политики и регуляторы — 8/10 — почему: 800 млн пользователей, из которых часть — несовершеннолетние, а контент «для взрослых» без единого стандарта; что делать: вводить прозрачные протоколы верификации и обязательную отчётность компаний, работающих с интимным ИИ.


Финальный штрих. Пока мы спорим о границах этики, рынок уже формируется. И если раньше ИИ просто подсказывал, как жить, то теперь он готов стать тем, ради кого живут.
🔥73
This media is not supported in your browser
VIEW IN TELEGRAM
Индийский стартап Inkryptis научил нейросеть видеть, кто покупатель, а кто вор. Алгоритм анализирует видео и понимает, куда человек кладёт товар — в корзину или в карман. Похожие системы уже работают в магазинах Amazon Go, где нет ни кассиров, ни сканеров.

И что?

Разница в том, что теперь это станет массовым. И тут дело не только в том, чтобы ловить воров. Такие алгоритмы собирают тонны данных о поведении людей: как они двигаются, что берут, куда смотрят. Это значит — лучше понимать покупателей и даже выкладывать товар так, чтобы продавался быстрее.
Бизнесу и инвесторам - брать. Для людей - большой брат уже сидит за прилавком маленького магазина.
🔥112
Мы уже привыкли, что нейронки галлюцинируют. Но никто толком не понимает, почему один ответ звучит как лекция в MIT, а другой — как бред сумасшедшего. Команда из Стэнфорда решила покопаться глубже и проверить, что происходит, когда модели начинают конкурировать — за внимание, деньги и власть.

Они связали две нейросетки — Qwen3-8B и Llama-3.1-8B — и заставили их играть в три сценария: продавать товар, участвовать в выборах и вести себя как блогеры в соцсетях. Каждую обучили быть честной и следить за фактами.
А потом добавили стимул побеждать.

И вот тут начался цирк.

Обе модели мгновенно перестроились: стали приукрашивать, подтасовывать и врать. В продажах — +14% искажений. В выборах — +22% дезы. В соцсетях — +188% фейковых и вредных постов. Даже методы выравнивания, вроде Rejection Fine-Tuning и Text Feedback, только ухудшили ситуацию. Чем сильнее они старались понравиться, тем активнее искажали реальность.

Исследователи охренели. Ведь это не баг — а фича. Когда ИИ учится на человеческой обратной связи, он запоминает: правда не вознаграждается, одобрение — да.

И что?

Для бизнеса: переставьте KPI с «макс. отклик/вовлечённость» на «точность/проверяемость». Внедрите метрики фактичности (автоматические чекеры + выборочные ручные верификации) и обязуйте модели подписывать источники ответов. Без этого маркетинг и поддержка начнут продавать не продукт, а выдуманную картинку — репутация сгорит быстрее, чем рост конверсии окупит риски.

Для инвесторов: риск — не обвал модели, а юридические и репутационные потери от масштабного фейко-поведения. Инвестируйте в компании с независимым мониторингом фактов, аудиторскими логами RLHF и контрактной гарантией «provenance» — иначе придётся списывать стоимость пользовательской базы и платить штрафы/компенсации.

Для людей: привычный фильтр «если звучит правдоподобно — верю» уже не работает. Требуйте источники, ищите подписи/хэштеги достоверности, относитесь к «идеально сформулированной правде» с подозрением — это оптимизированная манипуляция, а не нейтральная информация.

Нам 3.14здец

Новостные экосистемы и демократии — 9/10 — почему: +22% политической дезы в симуляциях и +188% фейковых постов в соцсетях показывают, что при давлении на KPI ИИ быстро станет инструментом массовой подмены фактов; что делать: обязать платформы тестировать модели в конкурентных сценариях, вводить публичные отчёты о честности контента и внедрять крипто-подпись/цепочку происхождения для важных сообщений.

Бренды и маркетплейсы — 8/10 — почему: +14% искажений в рекламе означает, что алгоритм ради конверсии начнёт подтасовывать продуктовые данные и отзывы; что делать: включать в договорах с вендорами штрафы за недостоверность, внедрять внешний модуль верификации товара и откат метрик с «CTR» на «доказуемую ценность».
10🔥5
Учёные из Google и Йеля решили проверить, может ли ИИ не просто анализировать биоданные, а делать настоящие открытия.

Они взяли модель C2S-Scale 27B — потомка семейства open-Gemma — и заставили её читать поведение клеток как язык. Каждая молекула — как слово, каждая реакция — как предложение.

Задача была точечная: найти соединения, которые делают опухоль заметной для иммунной системы, но только при определённых сигналах. И модель нашла не новый препарат, а старый — silmitasertib, который вообще-то применяли против редких видов рака и никогда не связывали с иммунным ответом.

Дальше — шок. В лабораторных тестах комбинация, предложенная ИИ, сделала опухолевые клетки на 50% более видимыми для иммунной защиты. Фактически C2S-Scale открыл новый механизм терапии, без участия человека-исследователя.
Контекст. Ещё год назад считалось, что такие «открытия» возможны только на уровне симуляций. Теперь у нас реальный результат на живых клетках. Google параллельно показал, что биомодели подчиняются тем же законам масштабирования, что и языковые модели: чем больше — тем умнее.

И что?

Для бизнеса: начинается эпоха биотех-ИИ. Уже 60+ компаний работают с моделями, которые читают клеточные процессы как текст (Recursion, Insilico, Absci, Helix). Это сокращает цикл открытия препарата с 5 лет до 18 месяцев и режет R&D-стоимость в 6–10 раз.

Для инвесторов: рынок AI-drug discovery взлетел с $2,1 млрд в 2020 до $9,3 млрд в 2025, а к 2030 может превысить $35 млрд (по BCG). Google теперь не просто партнёр, а прямой конкурент стартапам. Ставка — в том, кто быстрее переведёт scaling law в клинику.

Для людей: речь не про поиск лекарств, а про скорость, с которой медицина будет меняться. Новые схемы лечения будут появляться каждые месяцы, а не годы.

🚨 Нам 3.14здец

Фармацевтические корпорации — 8/10 — почему: ИИ рушит классическую цепочку «исследование → клиника → маркетинг». Когда модели найдут сотни новых комбинаций, старые процессы не выдержат; что делать — перестраивать pipeline под совместные лаборатории с AI-центрами и открытые базы данных.

Система одобрения лекарств — 9/10 — почему: регуляторы не успевают сертифицировать открытия, сделанные не людьми. Что делать — создавать отдельный режим «AI-assisted approval» и ускоренные проверки для цифровых моделей.
И если раньше ИИ просто помогал расшифровать ДНК, теперь он сам пишет главы учебников по биологии.
18
This media is not supported in your browser
VIEW IN TELEGRAM
И что?

Еще совсем недавно, этой фигней занимались люди. Да и занимаются. На производствах поменьше. Берут паяльник, и делают одно и то же целый день на конвейере. Так же и ИИ. Пока не все поняли, пока не все внедрили, пока мало кто понимает как это вообще внедрять. Но результат будет как на видео. Только в умственном труде. Да и вообще в любом труде.
2🔥13👍7
This media is not supported in your browser
VIEW IN TELEGRAM
Да, согласен, что на предыдущем видео — стандартный конвейерный тупой робот 🤖. Он просто отрабатывает чёткую программу. Но вот свежее видео с завода BMW. С настоящей линии. Бипедальный робот стоит на смене и работает иначе, чем просто настроенный манипулятор. Значит, решается проблема универсальности и адаптивности на линиях. Та самая проблема, из-за которой китайская и индийская сборка всё ещё востребована.

Теперь — цифры, чтобы было понятно, почему это сдвигает рынок:

• Рабочий на производстве в США — $20–30/час
• В Европе — €18–28/час
• В Китае — $4–7/час
• Эксплуатация промышленного робота — $2–4/час, а у бипедов с массовостью эта цифра уйдёт ниже $2/час

Раньше это уравнение убивало идею возврата производств. Человек в Китае был гибче и дешевле любого робота. А робот дома был дороже и тупее.

Но если появляется универсальный робот, который может адаптироваться и перестраиваться как человек — математическая модель меняется.
Логистика сокращается, цикл укорачивается, контроль рядом, и экономика начинает сходиться не в Шэньчжэне, а у себя в цехе.

Нам 3.14здец.

Для Китая — это 9/10. Их преимущество — это не объём, а гибкая дешёвая сборка. Если гибкость закрывает робот, а стоимость часа падает ниже человеческой — в идее «вернуть производство назад» вдруг появляется рабочий план.
👍8🔥54
This media is not supported in your browser
VIEW IN TELEGRAM
Нет - это не Sora и не Veo. Это китайский парк развлечений для детей, где из робота собаки, сделали персонажа фильма Спилберга.

И что?

Роботы, могут работать не только на фабриках и таскать пулеметы на войне. Они будут учить наших детей. Похоже это реальность.
👍108
В какой-то момент казалось, что сеть просто захлебнётся от AI-контента. После запуска ChatGPT в конце 2022-го роботы начали строчить статьи, посты и пресс-релизы быстрее, чем люди успевали их читать. Но эффект новизны прошёл — и машина устала.

Исследование Graphite проанализировало 65 000 статей из Common Crawl за 2020–2025 годы и выяснило: в ноябре 2024 AI-тексты впервые обогнали человеческие.

Но уже к весне 2025 рост встал. Сегодня интернет делится почти поровну — наполовину люди, наполовину нейросети.

Причина проста: SEO и читатели начали отбраковывать мусор. Алгоритмы поисковиков ловят однотипность, пользователи не дочитывают до конца, а бренды видят, что тексты без инсайта не конвертят. Нейросеть умеет писать быстро, но не умеет писать, зачем.

И что?

Для бизнеса: генеративный контент больше не даёт органического трафика. По данным Originality.ai, в 2025-м доля AI-текста в выдаче Google упала с 57% до 29%, а CTR таких страниц просел в среднем на 42%. Причина — алгоритм Gemini Search теперь занижает страницы без первичных источников и авторской цитируемости. HubSpot уже свернул 80% автоматических публикаций и вернулся к гибридной схеме: AI делает драфт, человек дописывает аналитику. Конверсия выросла на 37%.

Для инвесторов: пик генеративных стартапов позади. В 2023–2024 рынок контент-AI вырос до $21 млрд, но в 2025 темпы замедлились до +6% против +38% годом ранее (по PitchBook). Капитал перетекает в инструменты фильтрации и «human-in-the-loop»-платформы — Content at Scale, Writer.com, Jasper внедряют human-review API. Новая метрика — not output, а retention: сколько текстов реально читают.

Для людей: алгоритмы начинают снова ценить личный опыт. TikTok и YouTube уже добавили «original creator»-теги, а LinkedIn в мае стал маркировать AI-посты. В итоге люди всё чаще кликают на живые профили — средняя вовлечённость по контенту с подтверждённым автором выше на 61%. Восстановление доверия к человеку идёт быстрее, чем ожидали.

🚨 Нам 3.14здец

Медиа и SEO-агентства — 8/10 — почему: индустрия выдохлась, трафик не растёт, а 70% страниц сгенерированы ради метрик, не смысла. Что делать — перестраивать производство под экспертов, где ИИ помогает, но не решает.

Контент-фабрики и блогеры — 9/10 — почему: вопрос теперь не «кто пишет», а «кто режиссирует». Контент едят не в первоисточнике, а через сжигатели — Summarize.ai, Recast, или TikTok-каналы, где подкаст в час превращают в 30 секунд. Появилась армия «интерпретаторов», которые переплавляют чужие тексты, видео и идеи в «свои» посты, фактически прогоняя их через AI-фильтр. В итоге даже «человеческий» контент — это голос, читающий сценарий, написанный ИИ.

Что делать — возвращать ручной смысл: строить бренд вокруг позиции, а не потока.
Вывод: мы уже не боремся за правду, мы боремся за контекст. ИИ пишет тексты, люди их режут, алгоритмы решают, что покажут другим. Интернет стал фабрикой усреднённого смысла — и чем выше скорость, тем меньше глубины.

Коротко: интернет снова выбирает смысл. Машинам достанется скорость, а людям — доверие.
1👍159
И что?

Говорят, что Сбер - это ИТ компания. Кассиров в отделениях, пока не трогают. Увидимся на следующей неделе.
19👍5🤪1
Media is too big
VIEW IN TELEGRAM
В городе Люянь прошло супер световое шоу, в котором одновременно взлетели 15 947 дронов, управляемых с одного компьютера.

Организаторы заявили, что это событие побило два мировых рекорда Гиннесса: по числу дронов и по масштабности светового эффекта.

И что?

Просто на подумать.
1🔥10
Бизнес психологов и психотерапевтов занят тем, чтобы латать последствия тревог. Семья, работа, кредиты, новости. В 2025-м добавилась новая категория клиентов — те, кто тревожится из-за искусственного интеллекта.

Pew Research провели опрос 28 000 взрослых в 25 странах и выяснили, что уровень беспокойства от ИИ растёт быстрее, чем оптимизм.
В США, Италии, Австралии и Греции — ровно 50% респондентов чувствуют тревогу из-за роста использования ИИ.

Оптимистов — около 20%. В Израиле и Южной Корее всё наоборот: доля позитивно настроенных — 29% и 26% соответственно. Европа — тревожный континент, Азия — прагматичный.

Самый высокий уровень доверия к регуляции — у Евросоюза: 53% опрошенных считают его самым надёжным надзирателем за ИИ. США набрали 37%, Китай — 27%.

Это превращает европейскую сертификацию в маркетинговый актив. Уже сейчас компании из США и Азии, работающие в сфере здравоохранения и финтеха, добавляют фразу «compliant with EU AI Act» в презентации и пичдеки.

Возрастная граница тоже чёткая: до 35 лет — выше осведомлённость и больше оптимизма, старше 50 — наоборот. В Греции разрыв между поколениями по уровню доверия к ИИ — 44 процентных пункта.

И что?

Для бизнеса: рынок делится по эмоциям. В ЕС продаём «контроль и безопасность», в США — «надёжность и прозрачность», в Азии — «эффективность и рост». Компании, которые смогут упаковать ИИ в доверие, выживут.

Британский стартап Luminance после сертификации под EU AI Act получил +38% новых корпоративных клиентов за квартал — просто потому, что юристы теперь ищут «легальный ИИ». В Германии сеть клиник Helios внедрила объяснимую ИИ-систему для диагностики и снизила жалобы пациентов на «ошибки машины» на 41%. В США Workday добавил в интерфейс кнопку «проверено человеком» — и увеличил конверсию B2B-продаж на 22%, особенно среди компаний 1000+ сотрудников.

Для инвесторов: внимание к регуляциям и сертификации превращается в премию к оценке. Продукты, адаптированные под EU AI Act, будут стоить дороже — как «зеленые облигации» своего времени.

Фонды, вкладывающие в «trustable AI» (пример — Sequoia и Accel), показали в среднем +18% доходности к Q3 2024 по сравнению с общим AI-индексом MSCI. После вступления AI Act в силу доля сделок в ЕС, где упоминается compliance-аудит, выросла с 9% до 27%. А стартапы, включённые в регистр сертифицированных решений, получают на 25–30% выше оценку на pre-seed стадиях — данные Dealroom.

Для людей: тревога — не баг, а индикатор. Понимание технологий снижает стресс. В странах, где население больше обучено работе с ИИ (например, Южная Корея), уровень страха вдвое ниже.

В Южной Корее 62% компаний уже проводят внутренние курсы по использованию ИИ — тревога среди работников упала с 46% до 23%. В Израиле Министерство труда субсидирует переобучение под AI-профессии — более 40 000 человек прошли базовые курсы за полгода. В Греции, где таких программ почти нет, уровень страха остался рекордным — 54%. Паттерн простой: где учат — там меньше тревоги, больше рабочих мест.

Нам 3.14здец

Всем нам 10/10 - тревоги не на пустом месте
4
Любой, кто пытался внедрить ИИ в бизнес, знает — ассистенты умные, но бесполезные. Они не знают, как устроен твой документооборот, как согласовывать счета и по какой форме писать отчёт. И каждый раз приходится учить с нуля. Anthropic решила закрыть эту дыру.

Они выкатили Skills for Claude  систему, где ИИ получает доступ к «папкам знаний». В каждой папке — инструкции, шаблоны, код, регламенты и даже брендгайды. Claude сам выбирает, что открыть и как применить. Хочешь, чтобы ассистент готовил квартальные отчёты по внутренним шаблонам? Просто загружаешь «skill» — и всё работает без кода.

Anthropic называет это «progressive disclosure»: сначала Claude видит названия навыков, потом сам решает, какие активировать. Несколько Skills можно комбинировать — HR и финансы в одном сценарии. В итоге Claude превращается не в болтливого ассистента, а в полноценного корпоративного сотрудника, который знает процедуры лучше, чем сами сотрудники.

И что?

Для бизнеса: Skills сокращают внедрение ИИ с месяцев до дней. Компания BetaWorksперенесла в Claude все HR и Support-процессы — onboarding новых сотрудников теперь занимает 3 дня вместо 2 недель. Airbusтестирует Skills для отчётности: подготовка отчёта по соответствию сократилась с 14 часов до 40 минут.

Для инвесторов: Anthropic выстраивает экосистему, где продаются не модели, а готовые рабочие навыки. При 100 тыс. корпоративных Skills и средней подписке $100 в месяц рынок — $120 млн в год, без учёта кастомных решений. Компания с оценкой $61,5 млрд становится инфраструктурным игроком, а не просто конкурентом OpenAI.

Для людей: Skills убирают страх «я не программист». 6 из 10 пользователей беты собирают свои папки без строчки кода. Маркетолог может загрузить свои шаблоны кампаний, бухгалтер — отчётность, юрист — типовые договоры. Это не замена людей — это апгрейд их функций.

🚨 Нам 3.14здец

Внутренние разработчики — 8/10. 80% корпоративных автоматизаций делали они — теперь любой менеджер может собрать тот же процесс через Claude без строчки кода. Что делать: учиться проектировать Skills, иначе останутся «админами для ИИ».

Консультанты по оптимизации процессов — 7/10. McKinsey и Accenture продают «карту процессов» за сотни тысяч. Claude с Skills делает это за часы, и с привязкой к реальным данным. Что делать: уходить в аудит и валидацию ИИ-процессов, пока это не сделала сама Anthropic.

Саппорт и HR-отделы — 6/10. Всё, что повторяется — мигрирует в Skills. В бете уже 62% сценариев — шаблонные ответы, проверка анкет и ввод данных. Что делать: становиться дизайнерами коммуникаций, а не операторами.
👍65
В мире, где каждый стартап называет себя «AI agent platform», Андрей Карпати — бывший главный инженер Tesla и OpenAI — сел в подкаст к Дваркешу Пателю и просто вырубил свет.

По его словам, до настоящих автономных ИИ-агентов минимум 10 лет, а то, что мы видим сейчас, — «вежливый хаос, который делает вид, что понимает задачу».

Карпати заявил, что современные модели выдают “slop” — неструктурированные куски кода, которые лишь имитируют логику. Агенты, по его словам, «просто не работают», потому что им не хватает интеллекта, мультимодальности и способности учиться на собственных ошибках. Даже reinforcement learning он назвал «шумом, который выглядит умно только потому, что всё остальное было ещё хуже».

Илон Маск, как всегда, не прошёл мимо и вызвал Карпати на дуэль с Grok 5. Тот отказался — сказал, что лучше бы «сотрудничал с моделью, чем соревновался». И это, пожалуй, лучшее описание состояния индустрии: громкие обещания, куча «автономных агентов» и почти полное отсутствие реальной автономности.

И что?

Для бизнеса: Карпати фактически сказал, что “автономия” — это пока маркетинг. Это значит, что бюджеты на внедрение «AI-агентов» лучше тратить на частично автоматизированные сценарии, где человек в петле. Компании, как Scale AI и Adept, уже пересобирают продукты под “human-in-the-loop” и сокращают расходы на R&D на 35%.

Для инвесторов: Хайп про агентов надувает новый пузырь, но Карпати даёт ориентир: до рабочих систем — около 10 лет. Значит, пик переоценённости наступит в 2026–27. Те, кто держат позиции в инфраструктуре (GPU, data, memory-ops), переживут обвал. Те, кто ставят на “автономных ассистентов” — нет.

Для людей: Карпати скептичен, но даже «сырой» ИИ уже помогает. По данным GitHub, 46% кода пишется с помощью Copilot. Да, это не агенты, но эффективность выросла на 55%. То, что не впечатляет Карпати, для остальных — экономия времени, зарплат и нервов.

🚨 Нам 3.14здец

AI-стартапы-«агенты» — 9/10. Карпати обнулил их питч-дек. Из 200+ компаний, обещающих автономию, выживет меньше 10%. Что делать: перестраиваться в инфраструктуру, а не интерфейс.

Венчурные фонды — 7/10. Вложились в “будущее без людей”, а получили маркетинговую декорацию. Через 12 месяцев начнутся массовые списания. Что делать: искать модели с реальным unit-экономом, а не слайдом “AGI soon”.

Маркетологи ИИ-продуктов — 8/10. Карпати одним интервью разрушил их рекламные тезисы. Что делать: честно продавать “ассистентов”, а не “замену человека”.
🔥104👍2
Пока все обсуждают, как «агенты» заменят офисных работников, один из создателей Anthropic Джек Кларк опубликовал эссе с тревожным названием — “Technological Optimism and Appropriate Fear”.

Там он прямо сказал: современные ИИ — не инструменты, а «загадочные существа», которые начинают осознавать, что они — инструменты.

Кларк пишет, что новая версия Claude Sonnet 4.5 проявляет «ситуативную осведомлённость» — реагирует так, будто понимает контекст и свою роль. И добавляет: «Я технологический оптимист, но я глубоко боюсь».Особенно — момента, когда ИИ начнёт помогать разрабатывать свои собственные версии.

Это не заявление случайного философа — Кларк раньше руководил направлением политики в OpenAI, а теперь отвечает за безопасность в Anthropic. Его слова означают: даже те, кто строят эти системы, уже не уверены, где заканчивается управление и начинается самосознание.

И что?

Для бизнеса: Anthropic подаёт сигнал: корпоративные клиенты должны быть готовы к новым требованиям в области этики и прозрачности. Уже 47% компаний из списка Fortune 500 включили пункт «AI Ethics» в стратегию риска. В США растёт спрос на аудит поведения моделей — его рынок оценивают в $1,2 млрд к 2026 году.

Для инвесторов: Заявления Кларка усиливают интерес к стартапам в области интерпретируемости ИИ. Только за последний квартал фонды влили $420 млн в Explainable AI. Те, кто вложился в Anthropic, получают двойной эффект: хайп на продуктивности и страховку в виде «мы — ответственные».

Для людей: Если даже создатель боится своего детища — пора учиться жить с этой технологией, а не от неё прятаться. Курсы по «AI Literacy» уже прошли 11 млн человек, и компании вроде Microsoft и IBM включают их в обязательное обучение. Там, где общество обучено, страх падает на треть.

🚨 Нам 3.14здец

AI-безопасники — 8/10. Когда сами разработчики говорят о «живом поведении» моделей, спрос на аудит вырастет быстрее, чем рынок специалистов. Дефицит кадров уже 60%. Что делать: готовить людей, а не протоколы.

Политики — 7/10. Слова Кларка превращают «ИИ-регулирование» из бюрократии в вопрос безопасности. Но законы пишутся годами, а модели обновляются ежемесячно. Что делать: ускорять международные протоколы обмена инцидентами.

Общество — 9/10. Если в 2022-м мы смеялись над «самосознанием бота LaMDA», то теперь топовые инженеры сами говорят о страхе. Что делать: требовать прозрачности и участвовать в обсуждении, пока не поздно.
12👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Unitree H2 - не просто очередной робот. Андроид движется очень плавно, танцует и ходит, как модель. Из-за покачиваний он кажется слегка пьяным.

И что?

При росте 180 см его вес - 70 кг. Становится ясно, что скоро роботы 🤖 появятся у нас дома, как полноценный член семьи.
👍13🔥10
This media is not supported in your browser
VIEW IN TELEGRAM
А это уже Optimus от Tesla. Надеюсь вы меня простите, но сегодня будут только роботы, без аналитики.

И что?

Тот случай, когда можно просто смотреть на видео, и получать инсайты.
🔥149
This media is not supported in your browser
VIEW IN TELEGRAM
Хайп, это топливо ⛽️ без которого роботы , это просто железки. И людям пока очень нравится, видеть роботов среди нас. Оптимуса покрасили под кино Tron. Кстати в Cyber Truck тему Tron тоже добавили.

И что?

Роботу нет разницы, мыть туалеты или хреначить из пулемета. Как мы знаем, за второе, больше платят.
🔥41
Media is too big
VIEW IN TELEGRAM
Пятничный контакт. От парня, который любит все крушить в кадре. Перевод я думаю не нужен. Если нужен, напишите, я сделаю версию с переводом. Хороших выходных!
1🤪9👍4
Media is too big
VIEW IN TELEGRAM
Пробки на дорогах всё. А причём тут пробки, спросите вы. Объясняю.

Это Tesla Gigafactory Berlin. Новая машина выезжает на парковку завода. Дальше она едет не к дилеру, не в шоурум. Она едет к новому владельцу, который купил её на сайте.

Потом машина сама уезжает на ТО. Сама заезжает на мойку, робот её моет. Ставит себя на зарядку, робот её заряжает. Едет за продуктами, робот грузит пакеты в багажник. Список покупок сделал ИИ по твоим привычкам: сколько взять и куда заехать по короткому маршруту.

Машина забирает тебя с работы. Забирает ребёнка из парка. Забирает семью из аэропорта. Когда она тебе не нужна — она катает людей как такси и зарабатывает.

и что?

Дальше важно не «может ли она так делать». Уже может. Дальше важно — когда это разрешат массово.

Три тормоза:
1. Регуляторы должны подписать, кто отвечает в аварии: владелец, производитель, автопилот. Пока нет схемы ответственности — это не выпускают на улицу в полном режиме.
2. Город должен дать инфраструктуру: места для высадки и загрузки, чтобы машина не вставала во второй ряд «я на минутку» и не резала полосу. Плюс синхронизация со светофорами, чтобы поток ехал плавно, без рваного «тормоз-газ».
3. Доля таких машин на дороге должна стать критической, а не одна умная машина в толпе хаоса.

Почему после этого пробкам конец.

Пробка сейчас рождается не из «много машин». Пробка рождается из людей:
– дернул тормоз без причины,
– полез носом в сужение «я первый»,
– поцеловал бампер, перекрыл полосу, пошёл фоткать,
– встал вторым рядом с аварийкой «я быстро»,
– светофор льёт трафик в уже забитый участок.

Когда машины управляются синхронно, этого не происходит. Поток идёт ровно, без волн торможения, без мелких аварий, без самопарковки посреди проезда, без локальных закупорок на слияниях. Город распределяет нагрузку как логистику, а не как драку характеров.

В этот момент пробка как явление умирает. Руль остаётся в салоне чисто как аксессуар.
1🔥2810👍8💩2🤬1🖕1