Deep Research — это совмещение думающей модели и поиска в интернете, что-то вроде агентской системы
— Deep Research может написать научную статью и включить все источники, картинки и создать графики
— Инструмент может думать 5-30 минут перед тем как дать ответ — он сам ищет нужные статьи и страницы во время написания отчета, сам понимает когда нужно поискать что-то новое если знаний не хватает
— Инструмент может писать статьи на очень узкие темы — например, в демке показали как Deep Research пишет отчет на сложную тему продуктовой разработки с исследованием рынка iOS/Android аппов используя больше 30+ сайтов
— Humanity Last Exam, новый бенчмарк для AI систем, она прошла уже на 26.6%
— Работает на базе файнтюн версии o3
— Пока это самая лучшая модель OpenAI в плане галлюцинаций — их меньше всего по сравнению с другими моделями
Доступен с Pro сегодня с лимитом в 100 использований в месяц, позже будет для Plus с лимитом в 10 запросов в месяц
Потестирую сегодня
P.S. Очень мне понравилась история сотрудника OpenAI про этот тул:
Я пока в восторге от возможностей, честно – персональный доктор наук у каждого; удачи попробовать написать диплом/курсовую самому в 2025
— Deep Research может написать научную статью и включить все источники, картинки и создать графики
— Инструмент может думать 5-30 минут перед тем как дать ответ — он сам ищет нужные статьи и страницы во время написания отчета, сам понимает когда нужно поискать что-то новое если знаний не хватает
— Инструмент может писать статьи на очень узкие темы — например, в демке показали как Deep Research пишет отчет на сложную тему продуктовой разработки с исследованием рынка iOS/Android аппов используя больше 30+ сайтов
— Humanity Last Exam, новый бенчмарк для AI систем, она прошла уже на 26.6%
— Работает на базе файнтюн версии o3
— Пока это самая лучшая модель OpenAI в плане галлюцинаций — их меньше всего по сравнению с другими моделями
Доступен с Pro сегодня с лимитом в 100 использований в месяц, позже будет для Plus с лимитом в 10 запросов в месяц
Потестирую сегодня
P.S. Очень мне понравилась история сотрудника OpenAI про этот тул:
Deep Research помог в сложном выборе лечения рака груди его жены. После диагноза двустороннего рака молочной железы, двойной мастэктомии и курса химиотерапии возник вопрос о необходимости лучевой терапии, поскольку мнения специалистов расходились. Используя Deep Research для анализа патологоанатомического отчёта с учётом индивидуальных факторов, инструмент не только подтвердил рекомендации врачей, но и предоставил дополнительные исследования, что дало семье уверенность в принятом решении и продемонстрировало потенциал технологий, способных изменить мир в самые трудные моменты
Я пока в восторге от возможностей, честно – персональный доктор наук у каждого; удачи попробовать написать диплом/курсовую самому в 2025
👍4👌2
Китайцы решили отправить США в технологический нокаут: Китайская ByteDance представила модель искусственного интеллекта (ИИ) для генерации видео с реалистичным изображением человека
Отмечается, что OmniHuman-1 может создавать видео с любым соотношением сторон и пропорциями тела, улучшено отображение жестов, что являлось проблемой для других подобных ИИ.
сайт проекта тут:
https://omnihuman-lab.github.io/
Отмечается, что OmniHuman-1 может создавать видео с любым соотношением сторон и пропорциями тела, улучшено отображение жестов, что являлось проблемой для других подобных ИИ.
сайт проекта тут:
https://omnihuman-lab.github.io/
👍4
AI + Crypto 2025, 1/2
Надеюсь, на этом закончатся мои подходы к снаряду по имени Messari с десятками кросс-референс статей по теме😊
Итак, попробуем суммировать и упросить все, что на сегодня существует по теме AI в децентрализованной среде, чтобы не набирать только GOAT, AI16Z, и ZEREBRO в свои AI сумки😂
Для начала, стоит признать, что рынок AI + Crypto показывает впечатляющий рост: капитализация AI-протоколов выросла с $5 млрд в октябре 2023 до более $60 млрд в конце 2024 года, при этом только в частный сектор было инвестировано свыше $1 млрд. А капитализация токенов AI-агентов достигла $13 млрд!
За этими внушительными цифрами стоит фундаментальное изменение подхода к развитию искусственного интеллекта. В то время как традиционные AI-гиганты вроде OpenAI и Google развивают закрытые системы, криптосообщество работает над созданием открытой и децентрализованной инфраструктуры для AI следующего поколения.
Фундамент децентрализованного искусственного интеллекта состоит из 6 критически важных компонентов:
⁃ Вычислительная инфраструктура (GPU)
⁃ Качество данных - системы сбора и верификации данных
⁃ Прозрачная система обучения языковых моделей
⁃ Конфиденциальные AI-интерфейсы
⁃ Инструменты и платформы для AI-агентов
⁃ Неманипулируемые AI-агенты и приложения
Первым и, возможно, самым важным является вычислительная инфраструктура. Традиционные AI-компании полагаются на огромные централизованные кластеры GPU — не каждая организация может позволить себе управлять фермой из 7500 графических процессоров. В качестве альтернативы проекты вроде Hyperbolic, IO_net и Akash создают децентрализованные сети GPU, работающие по принципам шеринговой экономики. Важным технологическим прорывом в этой области стала интеграция TEE (Trusted Execution Environment) в новые GPU Nvidia серий H100 и H200, что обеспечивает безопасность и верифицируемость вычислений.
Вторым критическим компонентом являются данные. Качество AI-моделей напрямую зависит от качества данных для обучения, однако сейчас основными источниками являются крупные корпорации, чьи датасеты непрозрачны и могут содержать искажения. Проекты как Vana работают над созданием децентрализованных сетей для сбора и верификации пользовательских данных, где участники сохраняют контроль над своей информацией и получают вознаграждение за её предоставление через систему Data DAO.
Третий компонент — прозрачная система обучения моделей. Sentient, Prime Intellect и Gensyn разрабатывают инфраструктуру, где весь процесс тренировки происходит в защищенной среде GPU TEE с генерацией криптографических доказательств, которые можно верифицировать через блокчейн. Это обеспечивает беспрецедентный уровень прозрачности в создании AI-моделей.
#аналитика #ai
Надеюсь, на этом закончатся мои подходы к снаряду по имени Messari с десятками кросс-референс статей по теме😊
Итак, попробуем суммировать и упросить все, что на сегодня существует по теме AI в децентрализованной среде, чтобы не набирать только GOAT, AI16Z, и ZEREBRO в свои AI сумки😂
Для начала, стоит признать, что рынок AI + Crypto показывает впечатляющий рост: капитализация AI-протоколов выросла с $5 млрд в октябре 2023 до более $60 млрд в конце 2024 года, при этом только в частный сектор было инвестировано свыше $1 млрд. А капитализация токенов AI-агентов достигла $13 млрд!
За этими внушительными цифрами стоит фундаментальное изменение подхода к развитию искусственного интеллекта. В то время как традиционные AI-гиганты вроде OpenAI и Google развивают закрытые системы, криптосообщество работает над созданием открытой и децентрализованной инфраструктуры для AI следующего поколения.
Фундамент децентрализованного искусственного интеллекта состоит из 6 критически важных компонентов:
⁃ Вычислительная инфраструктура (GPU)
⁃ Качество данных - системы сбора и верификации данных
⁃ Прозрачная система обучения языковых моделей
⁃ Конфиденциальные AI-интерфейсы
⁃ Инструменты и платформы для AI-агентов
⁃ Неманипулируемые AI-агенты и приложения
Первым и, возможно, самым важным является вычислительная инфраструктура. Традиционные AI-компании полагаются на огромные централизованные кластеры GPU — не каждая организация может позволить себе управлять фермой из 7500 графических процессоров. В качестве альтернативы проекты вроде Hyperbolic, IO_net и Akash создают децентрализованные сети GPU, работающие по принципам шеринговой экономики. Важным технологическим прорывом в этой области стала интеграция TEE (Trusted Execution Environment) в новые GPU Nvidia серий H100 и H200, что обеспечивает безопасность и верифицируемость вычислений.
Вторым критическим компонентом являются данные. Качество AI-моделей напрямую зависит от качества данных для обучения, однако сейчас основными источниками являются крупные корпорации, чьи датасеты непрозрачны и могут содержать искажения. Проекты как Vana работают над созданием децентрализованных сетей для сбора и верификации пользовательских данных, где участники сохраняют контроль над своей информацией и получают вознаграждение за её предоставление через систему Data DAO.
Третий компонент — прозрачная система обучения моделей. Sentient, Prime Intellect и Gensyn разрабатывают инфраструктуру, где весь процесс тренировки происходит в защищенной среде GPU TEE с генерацией криптографических доказательств, которые можно верифицировать через блокчейн. Это обеспечивает беспрецедентный уровень прозрачности в создании AI-моделей.
#аналитика #ai
❤1🔥1🥰1
Forwarded from IvanovInvest
AI + Crypto, 2/2
Четвертый - кофиденциальные AI интерфейсы. На базе этой инфраструктуры формируется экосистема инструментов и приложений. Проекты 0G, Ritual и Red Pill предоставляют сервисы конфиденциального AI-inference, позволяя безопасно использовать модели без риска утечки данных.
Пятый компонент - инструменты и платформы для AI-агентов. Платформы вроде Virtuals protocol, AI Rig Complex, Griffain, Paal AI, Ava AI, Autonolas, и Wayfinder создают фреймворки для разработки AI-агентов и инфраструктура для из запуска — автономных программ, способных взаимодействовать с блокчейн-инфраструктурой.
Шестая и финальная группа - сами AI агенты и приложения.
2024 год стал прорывным для практического применения AI-агентов. Появились первые успешные примеры автономных трейдеров и инвест агентов (FET, AIXBT), инвестиционных агентов (AI16Z стал первым венчурным фондом под управлением AI) и даже инфлюенсером. Особенно примечателен феномен AI-инфлюенсеров с собственными токенами — таких как FARTCOIN, TURBO, AIC, GOAT, ACT, MOBY, и ZEREBRO демонстрирующих новый подход к формированию социального капитала в Web3.
Основные прорывы ожидаются в развитии открытых альтернатив проприетарному AI и создании полноценной децентрализованной инфраструктуры для обучения крупных моделей. Однако скорых результатов здесь не ожидается.
Самые быстрые и яркие всплески ожидаются в пятой и шестой группах проектов: среди инструментов и платформ и самих AI агентов. Также много попыток более глубокой интеграции AI-агентов в DeFi и разработке стандартов верифицируемого исполнения для AI-систем.
Традиционно, набор AI монет для потенциальной коллекции на картинке.
А чего вы уже успели набрать в свои портфели?
#аналитика #ai
Четвертый - кофиденциальные AI интерфейсы. На базе этой инфраструктуры формируется экосистема инструментов и приложений. Проекты 0G, Ritual и Red Pill предоставляют сервисы конфиденциального AI-inference, позволяя безопасно использовать модели без риска утечки данных.
Пятый компонент - инструменты и платформы для AI-агентов. Платформы вроде Virtuals protocol, AI Rig Complex, Griffain, Paal AI, Ava AI, Autonolas, и Wayfinder создают фреймворки для разработки AI-агентов и инфраструктура для из запуска — автономных программ, способных взаимодействовать с блокчейн-инфраструктурой.
Шестая и финальная группа - сами AI агенты и приложения.
2024 год стал прорывным для практического применения AI-агентов. Появились первые успешные примеры автономных трейдеров и инвест агентов (FET, AIXBT), инвестиционных агентов (AI16Z стал первым венчурным фондом под управлением AI) и даже инфлюенсером. Особенно примечателен феномен AI-инфлюенсеров с собственными токенами — таких как FARTCOIN, TURBO, AIC, GOAT, ACT, MOBY, и ZEREBRO демонстрирующих новый подход к формированию социального капитала в Web3.
Основные прорывы ожидаются в развитии открытых альтернатив проприетарному AI и создании полноценной децентрализованной инфраструктуры для обучения крупных моделей. Однако скорых результатов здесь не ожидается.
Самые быстрые и яркие всплески ожидаются в пятой и шестой группах проектов: среди инструментов и платформ и самих AI агентов. Также много попыток более глубокой интеграции AI-агентов в DeFi и разработке стандартов верифицируемого исполнения для AI-систем.
Традиционно, набор AI монет для потенциальной коллекции на картинке.
А чего вы уже успели набрать в свои портфели?
#аналитика #ai
🔄 Google обновляет семейство Gemini 2.0! Компания представила четыре специализированные модели для разных задач и бюджетов. Разбираемся, что к чему:
🏆 Gemini 2.0 Pro
- Флагманская модель для сложных задач
- Рекордные 2 млн токенов контекста
- Идеальна для программирования
- Пока в экспериментальном доступе
⚡ Gemini 2.0 Flash
- Рабочая лошадка для ежедневных задач
- Низкая задержка отклика
- Улучшенная производительность
- Уже доступна всем разработчикам
🧠 Gemini 2.0 Flash Thinking
- Продвинутое логическое мышление
- Объясняет ход своих рассуждений
- Повышенная прозрачность работы
- В экспериментальном режиме
💎 Gemini 2.0 Flash-Lite
- Самая доступная версия
- Оптимальна для стартапов
- Сохраняет core-функционал
- Открытый превью-доступ
🤔 Какая версия кажется вам наиболее интересной для ваших задач? Поделитесь мнением в комментариях!
#AI #GoogleGemini #ИскусственныйИнтеллект
🏆 Gemini 2.0 Pro
- Флагманская модель для сложных задач
- Рекордные 2 млн токенов контекста
- Идеальна для программирования
- Пока в экспериментальном доступе
⚡ Gemini 2.0 Flash
- Рабочая лошадка для ежедневных задач
- Низкая задержка отклика
- Улучшенная производительность
- Уже доступна всем разработчикам
🧠 Gemini 2.0 Flash Thinking
- Продвинутое логическое мышление
- Объясняет ход своих рассуждений
- Повышенная прозрачность работы
- В экспериментальном режиме
💎 Gemini 2.0 Flash-Lite
- Самая доступная версия
- Оптимальна для стартапов
- Сохраняет core-функционал
- Открытый превью-доступ
🤔 Какая версия кажется вам наиболее интересной для ваших задач? Поделитесь мнением в комментариях!
#AI #GoogleGemini #ИскусственныйИнтеллект
🔥3
🤖 Будущее программирования уже здесь! И оно выглядит совсем не так, как мы представляли
Андрей Карпаты, экс-директор Tesla по машинному обучению и сооснователь OpenAI, рассказал о новом методе разработки — "вайб-кодинге". Звучит забавно, но это реально работает!
Представьте: вы просто говорите искусственному интеллекту, что хотите сделать, и он пишет код за вас. Никакого ручного набора — только голосовые команды через SuperWhisper. Появилась ошибка? Просто копируете её текст обратно в AI, и он сам всё исправит!
Самое интересное, что многие опытные разработчики уже переходят на такой стиль работы. Это как дирижировать оркестром из AI-помощников — вы задаете направление, а искусственный интеллект делает всю "черную" работу.
Похоже, профессия разработчика меняется прямо на наших глазах. Скоро главным навыком станет не умение писать код, а способность четко формулировать задачи и оценивать результат.
2025 год уже наступил для программистов, следующие на очереди — дизайнеры. А там и до остальных профессий дойдет!
🤔 Как вам такое будущее? Готовы доверить свой код искусственному интеллекту? Поделитесь мнением в комментариях!
#AIrevolution #FutureOfWork #Programming
Андрей Карпаты, экс-директор Tesla по машинному обучению и сооснователь OpenAI, рассказал о новом методе разработки — "вайб-кодинге". Звучит забавно, но это реально работает!
Представьте: вы просто говорите искусственному интеллекту, что хотите сделать, и он пишет код за вас. Никакого ручного набора — только голосовые команды через SuperWhisper. Появилась ошибка? Просто копируете её текст обратно в AI, и он сам всё исправит!
Самое интересное, что многие опытные разработчики уже переходят на такой стиль работы. Это как дирижировать оркестром из AI-помощников — вы задаете направление, а искусственный интеллект делает всю "черную" работу.
Похоже, профессия разработчика меняется прямо на наших глазах. Скоро главным навыком станет не умение писать код, а способность четко формулировать задачи и оценивать результат.
2025 год уже наступил для программистов, следующие на очереди — дизайнеры. А там и до остальных профессий дойдет!
🤔 Как вам такое будущее? Готовы доверить свой код искусственному интеллекту? Поделитесь мнением в комментариях!
#AIrevolution #FutureOfWork #Programming
👍2👏2
Битва за лидерство в ИИ
Всего чуть более года назад Китай не имел конкурентных модификаций LLM. В конце 2023 передовая китайская LLM была Alibaba Qwen Chat 7B, сильно уступая GPT-3.5 Turbo.
В начале 2024 началось внедрение Alibaba Qwen Chat 72B, которая была лучше, чем GPT-3.5, но значительно хуже GPT-4, особенно уступая в мультимодальности.
Летом 2024 лидирующей китайской LLM стала DeepSeek V2, которая также не представляла существенного интереса из-за ощутимого разрыва в производительности и эффективности в сравнении с GPT-4o.
Практически одновременно была представлена Alibaba Qwen 2 Instruct 72B, немного обгоняя DeepSeek V2, но не представляя угрозы GPT-4o.
Первым тревожным звонком для США стал релиз Alibaba Qwen 2.5 Instruct 72B, которому удалось сравняться с GPT-4o и даже по некоторым задачам превзойти передовую на тот момент американскую модель.
Тогда же в сентябре 2024 был представлен OpenAI o1-preview, совершивший первый за 1.5 года прорыв в эффективности. С 14 марта 2023 (релиз GPT-4) практически не было качественной модификации LLM от OpenAI.
Да, было расширено контекстное окно, улучшена мультимодальность, клиентское взаимодействие, производительность и снижено галлюцинирование, но за 1.5 года ядро LLM осталось неизменным (в основном косметические модификации).
В декабре был представлен DeepSeek V3, который был лучшей китайской моделью, выигрывая по всем параметрам у GPT-4o, но уступая расширенной o1, которую OpenAI интегрировала в середине декабря.
Вот здесь и началась ожесточенная битва за лидерство. DeepSeek в середине января презентует свою флагманскую модель R1, которая разрывает рейтинги производительности и это первый раз за всю недолгую историю публичных LLM, когда китайцы вплотную приблизились к США.
Через две недели OpenAI внедряет o3, вновь вырываясь вперед, но не так сильно, как это было осенью 2024 в момент релиза o1.
Чтобы понять логику введения жесткого экспортного эмбарго на поставку чипов от Nvidia в Китай, необходимо понимать траекторию эволюции китайских LLM. Именно поэтому я подробно описал хронологию событий.
В таблице достаточно информативно показано какие чипы под эмбарго и когда ввели экспортный контроль. Все передовые модификации от Nvidia заблочены с осени 2023, а рубить концы начали еще в середине 2022.
О чем все это говорит?
🔘 Китайцы начали на год позже США с очень сильным отставанием.
🔘 Осенью 2024 Китай вышел на паритет с США по LLM (ровно через год после начала гонки), но OpenAI быстро выкатила свою o1, вырываясь в лидеры.
🔘 На этот раз ответ от китайцев последовал лишь спустя три месяца в достаточно конкурентном рывке, которого не хватило для закрепления лидерства.
🔘 Китай идет более быстрыми темпами в развитии LLM, чем США, имея несопоставимо меньше вычислительным мощностей.
Есть все основания полагать, что китайцы закончат 2025 год в лидерах, т.к. Google выбывает из гонки лучших LLM с относительно слабой Gemini 2.0 Pro, а все остальные, кроме OpenAI не способны держать высокий темп инноваций и следуют в хвосте пелотона.
Именно Bloomberg масштабно распиарил DeepSeek на мировую аудиторию 27 января, но не только DeepSeek и Qwen есть в наличие у китайцев.
• Moonshot - Kimi 1.5
• StepFun – Step R-mini
• Baichuan - M1 Preview
• Zhipu – GLM Zero Preview
• Bytedance - Doubao 1.5 Pro
• MiniMax – MiniMax Text-01
• Tencent - Hunyuan Large
• Baidu - Ernie 4.0 Turbo
• Yi AI - YiLightning.
Каждая из представленных моделей (9 в списке + DeepSeek и Qwen) уже сильнее или сопоставимы с GPT-4o, т.е. 11 передовых моделей от китайцев, а мировому сообществу известны пока только две.
Ждите новых новостей от китайцев и паники от Bloomberg. Все только начинается, битва в самом разгаре!
Если при дефиците вычислительных мощностей китайцы творят чудеса, что же можно от них ожидать через пару лет?
На графике представлено также сравнение топовых американских LLM. Лишь однажды OpenAI уступила лидерство, когда Anthropic представила улучшенную версию Claude 3.5 Sonnet в июне 2024. Всего полгода и Claude 3.5 Sonnet со свистом вылетает даже из ТОП 3 лучших LLM.
Всего чуть более года назад Китай не имел конкурентных модификаций LLM. В конце 2023 передовая китайская LLM была Alibaba Qwen Chat 7B, сильно уступая GPT-3.5 Turbo.
В начале 2024 началось внедрение Alibaba Qwen Chat 72B, которая была лучше, чем GPT-3.5, но значительно хуже GPT-4, особенно уступая в мультимодальности.
Летом 2024 лидирующей китайской LLM стала DeepSeek V2, которая также не представляла существенного интереса из-за ощутимого разрыва в производительности и эффективности в сравнении с GPT-4o.
Практически одновременно была представлена Alibaba Qwen 2 Instruct 72B, немного обгоняя DeepSeek V2, но не представляя угрозы GPT-4o.
Первым тревожным звонком для США стал релиз Alibaba Qwen 2.5 Instruct 72B, которому удалось сравняться с GPT-4o и даже по некоторым задачам превзойти передовую на тот момент американскую модель.
Тогда же в сентябре 2024 был представлен OpenAI o1-preview, совершивший первый за 1.5 года прорыв в эффективности. С 14 марта 2023 (релиз GPT-4) практически не было качественной модификации LLM от OpenAI.
Да, было расширено контекстное окно, улучшена мультимодальность, клиентское взаимодействие, производительность и снижено галлюцинирование, но за 1.5 года ядро LLM осталось неизменным (в основном косметические модификации).
В декабре был представлен DeepSeek V3, который был лучшей китайской моделью, выигрывая по всем параметрам у GPT-4o, но уступая расширенной o1, которую OpenAI интегрировала в середине декабря.
Вот здесь и началась ожесточенная битва за лидерство. DeepSeek в середине января презентует свою флагманскую модель R1, которая разрывает рейтинги производительности и это первый раз за всю недолгую историю публичных LLM, когда китайцы вплотную приблизились к США.
Через две недели OpenAI внедряет o3, вновь вырываясь вперед, но не так сильно, как это было осенью 2024 в момент релиза o1.
Чтобы понять логику введения жесткого экспортного эмбарго на поставку чипов от Nvidia в Китай, необходимо понимать траекторию эволюции китайских LLM. Именно поэтому я подробно описал хронологию событий.
В таблице достаточно информативно показано какие чипы под эмбарго и когда ввели экспортный контроль. Все передовые модификации от Nvidia заблочены с осени 2023, а рубить концы начали еще в середине 2022.
О чем все это говорит?
Есть все основания полагать, что китайцы закончат 2025 год в лидерах, т.к. Google выбывает из гонки лучших LLM с относительно слабой Gemini 2.0 Pro, а все остальные, кроме OpenAI не способны держать высокий темп инноваций и следуют в хвосте пелотона.
Именно Bloomberg масштабно распиарил DeepSeek на мировую аудиторию 27 января, но не только DeepSeek и Qwen есть в наличие у китайцев.
• Moonshot - Kimi 1.5
• StepFun – Step R-mini
• Baichuan - M1 Preview
• Zhipu – GLM Zero Preview
• Bytedance - Doubao 1.5 Pro
• MiniMax – MiniMax Text-01
• Tencent - Hunyuan Large
• Baidu - Ernie 4.0 Turbo
• Yi AI - YiLightning.
Каждая из представленных моделей (9 в списке + DeepSeek и Qwen) уже сильнее или сопоставимы с GPT-4o, т.е. 11 передовых моделей от китайцев, а мировому сообществу известны пока только две.
Ждите новых новостей от китайцев и паники от Bloomberg. Все только начинается, битва в самом разгаре!
Если при дефиците вычислительных мощностей китайцы творят чудеса, что же можно от них ожидать через пару лет?
На графике представлено также сравнение топовых американских LLM. Лишь однажды OpenAI уступила лидерство, когда Anthropic представила улучшенную версию Claude 3.5 Sonnet в июне 2024. Всего полгода и Claude 3.5 Sonnet со свистом вылетает даже из ТОП 3 лучших LLM.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
🚀 Как продавать идеи с помощью пирамиды Минто: структура, которая убеждает за 30 секунд
Пирамида Минто — это лайфхак для ясной коммуникации, который используют топ-консультанты McKinsey. Его суть — начинать с главного, а детали оставлять «на десерт».
3 уровня пирамиды: как это работает?
1️⃣ Главный тезис (So What?)
— Что: Ваша ключевая мысль/рекомендация.
— Как: Одним предложением. Без воды. Пример: *«Компания увеличит прибыль на 30% через 6 месяцев, если запустит email-маркетинг»*.
2️⃣ Аргументы (Why?)
— Что: 2-4 причины, почему ваш тезис верен.
— Как: Кратко и логично. Пример:
- *Снизит стоимость привлечения клиента на 50%*
- *Увеличит повторные покупки на 20%*.
3️⃣ Детали (How?)
— Что: Данные, кейсы, расчеты.
— Как: Только если нужно. Пример: *«По данным A/B-теста, CTR вырос на 15% после сегментации базы»*.
---
Где применять?
- 🤝 Переговоры: Начните с выгоды: *«Это решение сэкономит вам 200 000 ₽ в квартал. Вот как…»*.
- 📝 Продающие тексты: Первый абзац — главное предложение. Второй — 3 причины купить.
- 🎯 Презентации: Слайд 1 — рекомендация. Слайд 2–4 — аргументы. Остальное — в приложение.
---
---
🔥 Вывод:
Люди не запоминают детали — они запоминают главное. Чем короче первый абзац, тем выше шанс, что дочитают до конца.
💡 Ваш ход! Где вы сегодня примените пирамиду Минто?
— Напишите пост в соцсетях?
— Подготовите презентацию?
— Обсудите проект с командой?
👉 Действуйте! И расскажите в комментариях о результате.
Пирамида Минто — это лайфхак для ясной коммуникации, который используют топ-консультанты McKinsey. Его суть — начинать с главного, а детали оставлять «на десерт».
3 уровня пирамиды: как это работает?
1️⃣ Главный тезис (So What?)
— Что: Ваша ключевая мысль/рекомендация.
— Как: Одним предложением. Без воды. Пример: *«Компания увеличит прибыль на 30% через 6 месяцев, если запустит email-маркетинг»*.
2️⃣ Аргументы (Why?)
— Что: 2-4 причины, почему ваш тезис верен.
— Как: Кратко и логично. Пример:
- *Снизит стоимость привлечения клиента на 50%*
- *Увеличит повторные покупки на 20%*.
3️⃣ Детали (How?)
— Что: Данные, кейсы, расчеты.
— Как: Только если нужно. Пример: *«По данным A/B-теста, CTR вырос на 15% после сегментации базы»*.
---
Где применять?
- 🤝 Переговоры: Начните с выгоды: *«Это решение сэкономит вам 200 000 ₽ в квартал. Вот как…»*.
- 📝 Продающие тексты: Первый абзац — главное предложение. Второй — 3 причины купить.
- 🎯 Презентации: Слайд 1 — рекомендация. Слайд 2–4 — аргументы. Остальное — в приложение.
---
Ваш промпт для ChatGPT Ты — эксперт по структуре. Помоги оформить текст по пирамиде Минто:
1. Выдели главный тезис (1 предложение).
2. Добавь 3 аргумента «почему».
3. Подкрепи данными (цифры, кейсы).
4. Удали всё, что не цепляет.
Исходный текст: [ваш текст]
---
🔥 Вывод:
Люди не запоминают детали — они запоминают главное. Чем короче первый абзац, тем выше шанс, что дочитают до конца.
💡 Ваш ход! Где вы сегодня примените пирамиду Минто?
— Напишите пост в соцсетях?
— Подготовите презентацию?
— Обсудите проект с командой?
👉 Действуйте! И расскажите в комментариях о результате.
👍6🔥1👏1
🚀 Сэм Альтман о будущем ИИ: три ключевых наблюдения и новая реальность виртуальных коллег
Свежий пост Сэма Альтмана, CEO OpenAI, вызвал бурные обсуждения — и неспроста. В эссе автор раскрывает три фундаментальных принципа развития ИИ, которые уже меняют экономику и общество.
Три закона Альтмана
1. Интеллект ИИ ≈ log(ресурсов)
Чем больше вложений в обучение (вычислительные мощности, данные), тем умнее модель. Но рост — логарифмический: удвоение ресурсов дает лишь небольшой прирост «интеллекта».
Пример: GPT-4o стал в 150 раз дешевле GPT-4 за год, сохранив качество.
2. Стоимость ИИ падает в 10 раз ежегодно
Цена использования ИИ снижается быстрее, чем когда-то транзисторы по закону Мура. Это открывает доступ к технологиям даже для небольших компаний.
3. Сверхэкспоненциальная ценность интеллекта
Линейный рост способностей ИИ приводит к взрывному росту экономической выгоды. Инвестиции в ИИ будут расти экспоненциально, пока это выгодно.
ИИ-агенты — ваши новые коллеги
Альтман предрекает, что к 2025 году ИИ-агенты станут привычными «виртуальными сотрудниками». Они смогут:
- Выполнять задачи уровня junior-специалиста (написание кода, анализ данных).
- Работать в командах по 1000+ агентов, ускоряя R&D и рутинные процессы.
- Стать «транзисторами» новой эры — незаметными, но критически важными.
Но есть нюансы:
- Агенты не заменят креатив — они возьмут на себя шаблонные задачи.
- Людям придется учиться управлять ИИ, а не конкурировать с ним.
Что не сказал Альтман?
- Метрики интеллекта ИИ остаются загадкой. В посте нет четких критериев, хотя в индустрии используют accuracy, F1-скор и др..
- Будущие профессии не определены. Альтман честно признает: «Мы не знаем, как будут выглядеть новые работы».
Что думаете?
Согласны, что ИИ-коллеги — неизбежность?
Как изменится ваша работа через год?
Лайкните, если верите в позитивный сценарий! 💡
P.S. Альтман прав: 2025 пройдет почти как 2024… но «будущее уже стучится в дверь». Готовы открыть? 🔮
Свежий пост Сэма Альтмана, CEO OpenAI, вызвал бурные обсуждения — и неспроста. В эссе автор раскрывает три фундаментальных принципа развития ИИ, которые уже меняют экономику и общество.
Три закона Альтмана
1. Интеллект ИИ ≈ log(ресурсов)
Чем больше вложений в обучение (вычислительные мощности, данные), тем умнее модель. Но рост — логарифмический: удвоение ресурсов дает лишь небольшой прирост «интеллекта».
Пример: GPT-4o стал в 150 раз дешевле GPT-4 за год, сохранив качество.
2. Стоимость ИИ падает в 10 раз ежегодно
Цена использования ИИ снижается быстрее, чем когда-то транзисторы по закону Мура. Это открывает доступ к технологиям даже для небольших компаний.
3. Сверхэкспоненциальная ценность интеллекта
Линейный рост способностей ИИ приводит к взрывному росту экономической выгоды. Инвестиции в ИИ будут расти экспоненциально, пока это выгодно.
ИИ-агенты — ваши новые коллеги
Альтман предрекает, что к 2025 году ИИ-агенты станут привычными «виртуальными сотрудниками». Они смогут:
- Выполнять задачи уровня junior-специалиста (написание кода, анализ данных).
- Работать в командах по 1000+ агентов, ускоряя R&D и рутинные процессы.
- Стать «транзисторами» новой эры — незаметными, но критически важными.
Но есть нюансы:
- Агенты не заменят креатив — они возьмут на себя шаблонные задачи.
- Людям придется учиться управлять ИИ, а не конкурировать с ним.
Что не сказал Альтман?
- Метрики интеллекта ИИ остаются загадкой. В посте нет четких критериев, хотя в индустрии используют accuracy, F1-скор и др..
- Будущие профессии не определены. Альтман честно признает: «Мы не знаем, как будут выглядеть новые работы».
Что думаете?
Согласны, что ИИ-коллеги — неизбежность?
Как изменится ваша работа через год?
Лайкните, если верите в позитивный сценарий! 💡
P.S. Альтман прав: 2025 пройдет почти как 2024… но «будущее уже стучится в дверь». Готовы открыть? 🔮
👍4
🎤 Как Стив Джобс вдохновлял миллионы, используя Золотой круг
Стив Джобс был мастером презентаций. Его выступления не просто рассказывали о продуктах — они вдохновляли и создавали эмоциональную связь с аудиторией. И всё это благодаря структуре, схожей с концепцией Золотого круга Саймона Синека: Почему? Как? Что?
Как это делал Джобс?
1️⃣ Почему? (Why?)
На презентации первого iPhone в 2007 году Джобс начал с миссии Apple: *«Мы хотим изменить мир технологий и сделать их доступными каждому»*. Он говорил о том, как инновации Apple решают проблемы пользователей.
2️⃣ Как? (How?)
Он объяснил, что iPhone сочетает в себе три устройства: телефон, iPod и интернет-коммуникатор. Всё это — в одном устройстве. Уникальность подхода была очевидна: простота, интуитивность и инновации.
3️⃣ Что? (What?)
Джобс показал сам продукт в действии: звонки, музыка, браузер. Вместо сухих характеристик он демонстрировал, как iPhone меняет жизнь. Это сделало устройство не просто гаджетом, а революцией.
Ваш промпт для подготовки презентации с помощью Золотого круга:
🔥 Вывод: Люди запоминают не цифры, а эмоции и идеи. Начните с «Почему», чтобы вдохновить аудиторию так же, как это делал Джобс!
💡 А теперь ваш ход! Где вы могли бы применить эту структуру? Поделитесь своими идеями в комментариях! ⬇️
Стив Джобс был мастером презентаций. Его выступления не просто рассказывали о продуктах — они вдохновляли и создавали эмоциональную связь с аудиторией. И всё это благодаря структуре, схожей с концепцией Золотого круга Саймона Синека: Почему? Как? Что?
Как это делал Джобс?
1️⃣ Почему? (Why?)
На презентации первого iPhone в 2007 году Джобс начал с миссии Apple: *«Мы хотим изменить мир технологий и сделать их доступными каждому»*. Он говорил о том, как инновации Apple решают проблемы пользователей.
2️⃣ Как? (How?)
Он объяснил, что iPhone сочетает в себе три устройства: телефон, iPod и интернет-коммуникатор. Всё это — в одном устройстве. Уникальность подхода была очевидна: простота, интуитивность и инновации.
3️⃣ Что? (What?)
Джобс показал сам продукт в действии: звонки, музыка, браузер. Вместо сухих характеристик он демонстрировал, как iPhone меняет жизнь. Это сделало устройство не просто гаджетом, а революцией.
Ваш промпт для подготовки презентации с помощью Золотого круга:
Ты — эксперт по созданию вдохновляющих презентаций. Помоги мне подготовить речь по методу Золотого круга:
1. Сформулируй «Почему?» — миссию и проблему, которую решает продукт.
2. Добавь «Как?» — уникальные подходы и технологии.
3. Заверши «Что?» — описание продукта и его функций.
Тема: [ваша тема]
🔥 Вывод: Люди запоминают не цифры, а эмоции и идеи. Начните с «Почему», чтобы вдохновить аудиторию так же, как это делал Джобс!
💡 А теперь ваш ход! Где вы могли бы применить эту структуру? Поделитесь своими идеями в комментариях! ⬇️
❤3🔥3
🎯 Создайте презентацию за минуты с помощью AI: Gamma и другие инструменты
Презентации больше не требуют часов работы. С современными инструментами на основе ИИ, такими как Gamma, вы можете создавать профессиональные, стильные и интерактивные слайды всего за несколько минут.
Возможности Gamma: что нового?
1️⃣ Генерация контента: Просто введите тему или текст, и Gamma создаст готовую структуру слайдов.
2️⃣ Интерактивные элементы: Добавляйте видео, диаграммы, анимации и даже формы для опросов.
3️⃣ Аналитика: Отслеживайте вовлеченность аудитории — кто смотрел презентацию и как долго.
4️⃣ Совместная работа: Редактируйте слайды в реальном времени вместе с командой.
5️⃣ Социальный формат: Создавайте контент, оптимизированный для социальных сетей.
6️⃣ Экспорт: Скачивайте презентации в PDF или PPT, либо делитесь ссылкой на готовый проект.
Другие инструменты для презентаций:
- Tome: Генерирует презентации из текстового запроса, автоматически добавляя изображения и графики.
- Canva Magic Design: Простота дизайна с красивыми шаблонами и анимациями.
- Beautiful.ai: Умные слайды с автоматическим редактированием дизайна.
Пример промпта для ИИ (Gamma):
💡 Попробуйте Gamma или другие платформы, чтобы создать свою лучшую презентацию! А какие инструменты вы используете? Делитесь в комментариях! ⬇️
Презентации больше не требуют часов работы. С современными инструментами на основе ИИ, такими как Gamma, вы можете создавать профессиональные, стильные и интерактивные слайды всего за несколько минут.
Возможности Gamma: что нового?
1️⃣ Генерация контента: Просто введите тему или текст, и Gamma создаст готовую структуру слайдов.
2️⃣ Интерактивные элементы: Добавляйте видео, диаграммы, анимации и даже формы для опросов.
3️⃣ Аналитика: Отслеживайте вовлеченность аудитории — кто смотрел презентацию и как долго.
4️⃣ Совместная работа: Редактируйте слайды в реальном времени вместе с командой.
5️⃣ Социальный формат: Создавайте контент, оптимизированный для социальных сетей.
6️⃣ Экспорт: Скачивайте презентации в PDF или PPT, либо делитесь ссылкой на готовый проект.
Другие инструменты для презентаций:
- Tome: Генерирует презентации из текстового запроса, автоматически добавляя изображения и графики.
- Canva Magic Design: Простота дизайна с красивыми шаблонами и анимациями.
- Beautiful.ai: Умные слайды с автоматическим редактированием дизайна.
Пример промпта для ИИ (Gamma):
Ты — эксперт по созданию презентаций. Помоги мне разработать структуру презентации по теме «[ваша тема]». Укажи:
1. Заголовок каждого слайда.
2. Основную информацию для каждого из них (коротко).
3. Идеи для визуального оформления (графики, фото, видео).
Количество слайдов: 8–10. Презентация рассчитана на 5 минут выступления.
💡 Попробуйте Gamma или другие платформы, чтобы создать свою лучшую презентацию! А какие инструменты вы используете? Делитесь в комментариях! ⬇️
🔥2
Не создавайте LLM, если вы хотите создать настоящий ИИ
Сделали небольшую выжимку выступления Яна ЛеКуна на Саммите ИИ в Париже. Как и в Давосе, Лекун утверждает, что текущие языковые модели не приведут к созданию настоящего искусственного интеллекта. Они не обладают здравым смыслом, не умеют планировать и лишь предсказывают токен за токеном, что делает их уязвимыми к накоплению ошибок. Он называет этот подход "авторегрессионным" и указывает, что такие модели не могут исправлять свои ошибки, что приводит к экспоненциальному расхождению предсказаний.
Он предлагает альтернативный путь: обучение на сенсорных данных, как у детей, а не на текстах; построение "ментальных моделей" мира для предсказания событий и понимания физики; отказ от вероятностных методов в пользу энергетических моделей, которые оптимизируют решения вместо простого прогнозирования. Лекун утверждает, что даже современные ИИ не могут сравниться по интеллекту с крысами или кошками, которые способны к сложному планированию, а их поведение основано на врождённом здравом смысле.
Его подход предполагает системы, способные к причинно-следственному мышлению, иерархическому планированию и самостоятельному принятию решений. Он предлагает модели, использующие "энергетические функции" для измерения соответствия входных и выходных данных, а также структуры, где системы могут "думать" над ответом, затрачивая больше вычислительных ресурсов на сложные задачи. Сам подход совсем не нов, его ещё в 2003 году предлагала группа авторов под руководством Джеффри Хинтона. Лекун отмечает, что текущее обучение ИИ на текстовых данных не приведёт к достижению человеческого уровня интеллекта, так как даже четырёхлетний ребёнок получает столько же сенсорной информации, сколько самая большая языковая модель, но в гораздо более сжатые сроки.
Лекун резко критикует генеративные модели и призывает сосредоточиться на развитии новых архитектур. Он предлагает отказаться от контрастивного обучения в пользу регуляризованных методов, от reinforcement learning в пользу оптимизационных стратегий, а также развивать методы структурного планирования, которые позволят системам действовать осмысленно, а не просто копировать паттерны из данных. Он подчёркивает, что современные ИИ способны решать математические задачи и сдавать экзамены, но не могут, например, очистить стол или научиться водить машину так же быстро, как человек.
Он предупреждает, что запрет на открытый ИИ приведёт к технологическому отставанию тех стран, которые пойдут по пути закрытого ИИ. Будущее — за универсальными помощниками, интегрированными в жизнь людей, и их развитие должно быть результатом международного сотрудничества.
Сделали небольшую выжимку выступления Яна ЛеКуна на Саммите ИИ в Париже. Как и в Давосе, Лекун утверждает, что текущие языковые модели не приведут к созданию настоящего искусственного интеллекта. Они не обладают здравым смыслом, не умеют планировать и лишь предсказывают токен за токеном, что делает их уязвимыми к накоплению ошибок. Он называет этот подход "авторегрессионным" и указывает, что такие модели не могут исправлять свои ошибки, что приводит к экспоненциальному расхождению предсказаний.
Он предлагает альтернативный путь: обучение на сенсорных данных, как у детей, а не на текстах; построение "ментальных моделей" мира для предсказания событий и понимания физики; отказ от вероятностных методов в пользу энергетических моделей, которые оптимизируют решения вместо простого прогнозирования. Лекун утверждает, что даже современные ИИ не могут сравниться по интеллекту с крысами или кошками, которые способны к сложному планированию, а их поведение основано на врождённом здравом смысле.
Его подход предполагает системы, способные к причинно-следственному мышлению, иерархическому планированию и самостоятельному принятию решений. Он предлагает модели, использующие "энергетические функции" для измерения соответствия входных и выходных данных, а также структуры, где системы могут "думать" над ответом, затрачивая больше вычислительных ресурсов на сложные задачи. Сам подход совсем не нов, его ещё в 2003 году предлагала группа авторов под руководством Джеффри Хинтона. Лекун отмечает, что текущее обучение ИИ на текстовых данных не приведёт к достижению человеческого уровня интеллекта, так как даже четырёхлетний ребёнок получает столько же сенсорной информации, сколько самая большая языковая модель, но в гораздо более сжатые сроки.
Лекун резко критикует генеративные модели и призывает сосредоточиться на развитии новых архитектур. Он предлагает отказаться от контрастивного обучения в пользу регуляризованных методов, от reinforcement learning в пользу оптимизационных стратегий, а также развивать методы структурного планирования, которые позволят системам действовать осмысленно, а не просто копировать паттерны из данных. Он подчёркивает, что современные ИИ способны решать математические задачи и сдавать экзамены, но не могут, например, очистить стол или научиться водить машину так же быстро, как человек.
Он предупреждает, что запрет на открытый ИИ приведёт к технологическому отставанию тех стран, которые пойдут по пути закрытого ИИ. Будущее — за универсальными помощниками, интегрированными в жизнь людей, и их развитие должно быть результатом международного сотрудничества.
👏2
Forwarded from Стартап дня. Александр Горный.
Коллапс
«В долгосрочной перспективе все мы мертвы», – Кейнс сказал это о людях, век спустя это стало относиться к странам. Пока не ко всем. Уже ко многим.
Вот милый ребенок только из роддома, но мы знаем, что через сто двадцать лет он будет в гробу. Неизбежно. Вот Япония или Китай, огромные государства с огромными амбициями, но через 50 лет там будет — хм, даже сравнить не с чем, не было такого опыта в истории.
Посмотрим на Японию (в Китае или Южной Корее все похоже, но писать проще об одной стране). Население 125 миллионов человек. Рекорд рождаемости поставлен аж в 1949 году. Это 2.7 миллиона человек, очень грубо соответствует 200 миллионам жителей (если б так каждый год, и все жили по 80 лет). Обычная рождаемость 1950-1975 по 1.6-2 миллиона детей «предсказывает» население в 140-150 миллионов.
Начиная с 1975 (полвека уже!) график идет строго вниз, практически без остановок. 2023 год — 700 тысяч рождений, в 4 раза меньше рекорда, в 2.5 раза меньше старой нормы. Научно-грамотный показатель фертильности — 1.2 ребенка на женщину, чуть больше половины необходимого для воспроизводства населения. И рожают уже только маленькие поколения. Последнему большому 50 лет исполнилось, повторюсь.
Разворачивать такие тренды человечество не умеет. Отсутствует положительный опыт. По 0.2-0.3 некоторые страны прибавляли, и то ненадолго. Из 1.2 сделать хотя бы 1.8 — нет сопоставимых примеров, не считая выхода из внешних кризисов. И даже если такое чудо и случится, оно сработает для японок из поколения, ну, скажем, нулевых, когда рождалось по миллиону, в два раза меньше, чем когда-то. Появятся эти спасительные дети вокруг 2035-ого, начнут помогать экономике в 2055, и то такие числа – это только замедление коллапса, а не победа над ним. Реальный разворот арифметически возможен не раньше следующего века – когда повзрослеют внуки современных младенцев. Нигде кроме Excel он, видимо, невозможен.
Базовый официальный (и, вероятно, избыточно оптимистичный, не зря ж он официальный) сценарий такой: суммарное население к 2050 упадет до 105 миллионов человек, из них в активном рабочем возрасте будет миллионов 40 против 60 из 125 сейчас. Падение числа работников в полтора раза при точном сохранении количества иждивенцев. Тем более молодым будет не до детей, кстати говоря. Дальше хуже.
И роботы с AI тут не помогут. Понятно, что прогресс поддержит или даже поднимет объективный уровень потребления, но ощущения-то у людей не от объективного уровня. Сравнивать они себя будут с благополучными странами. Или, что еще хуже, с прошлым сравнением с благополучными странами :)
Т.е. будет плохо. Как именно плохо — непредставимо. Нет у меня фантазии вообразить дом престарелых на 100 миллионов обитателей. И, видимо, ни у кого нет.
Другим странам и человечеству в целом приговор ещё не подписан, время есть. У Африки вообще противоположные проблемы пока. И в РФ, и в ЕС, и в Латинской Америке, и в США все лучше или гораздо лучше, чем в Японии. Большинство государств из списка ещё и мигрантов привлекать как-то умеют. Но, может быть, мы все по той же траектории идем, просто с опозданием. Тогда доживем до неизбежности катастрофы, но не до самой её.
Стартап вечной молодости очень нужен, да.
#политота #простомысли
«В долгосрочной перспективе все мы мертвы», – Кейнс сказал это о людях, век спустя это стало относиться к странам. Пока не ко всем. Уже ко многим.
Вот милый ребенок только из роддома, но мы знаем, что через сто двадцать лет он будет в гробу. Неизбежно. Вот Япония или Китай, огромные государства с огромными амбициями, но через 50 лет там будет — хм, даже сравнить не с чем, не было такого опыта в истории.
Посмотрим на Японию (в Китае или Южной Корее все похоже, но писать проще об одной стране). Население 125 миллионов человек. Рекорд рождаемости поставлен аж в 1949 году. Это 2.7 миллиона человек, очень грубо соответствует 200 миллионам жителей (если б так каждый год, и все жили по 80 лет). Обычная рождаемость 1950-1975 по 1.6-2 миллиона детей «предсказывает» население в 140-150 миллионов.
Начиная с 1975 (полвека уже!) график идет строго вниз, практически без остановок. 2023 год — 700 тысяч рождений, в 4 раза меньше рекорда, в 2.5 раза меньше старой нормы. Научно-грамотный показатель фертильности — 1.2 ребенка на женщину, чуть больше половины необходимого для воспроизводства населения. И рожают уже только маленькие поколения. Последнему большому 50 лет исполнилось, повторюсь.
Разворачивать такие тренды человечество не умеет. Отсутствует положительный опыт. По 0.2-0.3 некоторые страны прибавляли, и то ненадолго. Из 1.2 сделать хотя бы 1.8 — нет сопоставимых примеров, не считая выхода из внешних кризисов. И даже если такое чудо и случится, оно сработает для японок из поколения, ну, скажем, нулевых, когда рождалось по миллиону, в два раза меньше, чем когда-то. Появятся эти спасительные дети вокруг 2035-ого, начнут помогать экономике в 2055, и то такие числа – это только замедление коллапса, а не победа над ним. Реальный разворот арифметически возможен не раньше следующего века – когда повзрослеют внуки современных младенцев. Нигде кроме Excel он, видимо, невозможен.
Базовый официальный (и, вероятно, избыточно оптимистичный, не зря ж он официальный) сценарий такой: суммарное население к 2050 упадет до 105 миллионов человек, из них в активном рабочем возрасте будет миллионов 40 против 60 из 125 сейчас. Падение числа работников в полтора раза при точном сохранении количества иждивенцев. Тем более молодым будет не до детей, кстати говоря. Дальше хуже.
И роботы с AI тут не помогут. Понятно, что прогресс поддержит или даже поднимет объективный уровень потребления, но ощущения-то у людей не от объективного уровня. Сравнивать они себя будут с благополучными странами. Или, что еще хуже, с прошлым сравнением с благополучными странами :)
Т.е. будет плохо. Как именно плохо — непредставимо. Нет у меня фантазии вообразить дом престарелых на 100 миллионов обитателей. И, видимо, ни у кого нет.
Другим странам и человечеству в целом приговор ещё не подписан, время есть. У Африки вообще противоположные проблемы пока. И в РФ, и в ЕС, и в Латинской Америке, и в США все лучше или гораздо лучше, чем в Японии. Большинство государств из списка ещё и мигрантов привлекать как-то умеют. Но, может быть, мы все по той же траектории идем, просто с опозданием. Тогда доживем до неизбежности катастрофы, но не до самой её.
Стартап вечной молодости очень нужен, да.
#политота #простомысли
👏2😁2👍1
Китайские автомобили быстро захватывают европейские рынки, а продажи электромобилей BYD во многих странах ЕС превзошли продажи Tesla @svezhesti
👍1🔥1