Стало известно, что Ян Лекун и Нат Фридман в Meta теперь напрямую подчиняются Александру Вангу
Об этом пишет Business Insider со ссылкой на внутреннюю переписку. В Meta* снова произошли какие-то перестройки и теперь Нат Фридман (которого изначально нанимали как второго управляющего лабораторией MSL) и Ян Лекун (который должен был более менее независимо управлять FAIR) будут напрямую подчиняться Алексу Вангу, как и все остальные тимлиды.
Единственный человек, который не упоминается в служебной записке, как подчиненный Ванга – это Shengjia Zhao, ведущий ученый лаборатории и бывший со-креатор ChatGPT.
> учиться и работать всю жизнь
> стать одними из самых заметных людей в области
> подчиняться 28-летнему бизнесмену
Об этом пишет Business Insider со ссылкой на внутреннюю переписку. В Meta* снова произошли какие-то перестройки и теперь Нат Фридман (которого изначально нанимали как второго управляющего лабораторией MSL) и Ян Лекун (который должен был более менее независимо управлять FAIR) будут напрямую подчиняться Алексу Вангу, как и все остальные тимлиды.
Единственный человек, который не упоминается в служебной записке, как подчиненный Ванга – это Shengjia Zhao, ведущий ученый лаборатории и бывший со-креатор ChatGPT.
> учиться и работать всю жизнь
> стать одними из самых заметных людей в области
> подчиняться 28-летнему бизнесмену
😁170 41 17❤10🫡7🤓6🤯5👍2
Как объяснить, почему модель машинного обучения принимает именно такие решения? 🤔
Нашли на Хабре разбор SHAP-графиков от эксперта ВТБ Андрея Бояренкова: от summary_plot до ICE и PDP. Там действительно много лайфхаков и полезной информации — на примере задачи оттока клиентов он показывает, какие фичи реально влияют (total_charge, звонки в поддержку, международный план и т.д.) и как это объяснить бизнесу.
В статье — подборка графиков, цветовых приёмов и лайфхаков для понятной визуализации. Must-read для тех, кто хочет не просто «натренить модель», а уметь объяснить её логику.
Читаем на Хабре: https://habr.com/ru/companies/vtb/articles/938988/
Нашли на Хабре разбор SHAP-графиков от эксперта ВТБ Андрея Бояренкова: от summary_plot до ICE и PDP. Там действительно много лайфхаков и полезной информации — на примере задачи оттока клиентов он показывает, какие фичи реально влияют (total_charge, звонки в поддержку, международный план и т.д.) и как это объяснить бизнесу.
В статье — подборка графиков, цветовых приёмов и лайфхаков для понятной визуализации. Must-read для тех, кто хочет не просто «натренить модель», а уметь объяснить её логику.
Читаем на Хабре: https://habr.com/ru/companies/vtb/articles/938988/
❤46👍28🗿10😁5🤨2🤯1 1
CEO Microsoft AI Мустафа Сулейман опубликовал очень необычное для CEO эссе
Называется текст "Мы должны учить ИИ для человека, а не быть человеком". В нем нет обещаний AGI, громких слов про ускорение прогресса и лекарства от всех болезней, как в эссе других глав компаний (не будем показывать пальцем).
А основная мысль вместо всего этого вот в чем: нельзя пытаться наделять ИИ признаками человека. Это создает ложное ощущение того, что это уже не машина, а что-то живое и чувствующее. Мустафа называет это SCAI — Seemingly Conscious AI, то есть AI, который кажется нам сознательным.
При этом такой SCAI либо уже частично существует, либо может появиться в ближайшие несколько лет. Ключевые характеристики: хорошее владение языком (есть), проявление эмпатии (есть), способность помнить детали прошлых диалогов (почти есть), утверждения типа "я видел/слышал/думаю/чувствую" (уже встречаются), идентичность личности и внутренняя система целей и ценностей.
Суть в том, что допустить окончательно появление SCAI нельзя. Симуляция сознания не делает ИИ реально сознательным, но общество может начать относиться к нему, как к личности, и ничем хорошим это не закончится.
Сулейман описывает целое явление "psychosis risk" (риск психоза), когда люди начинают настолько верить в иллюзию сознательности ИИ, что могут развивать эмоциональную зависимость, верить в права и чувства модели.
И таких примеров полно уже сейчас: люди влюбляются в чат-ботов, дружат с ними, начинают защищать их права и теряют связь с реальностью. Просто пока этот эффект не такой массовый – все может быть гораздо хуже.
Так что главная идея из эссе: ИИ должен существовать только как инструмент для человеческой пользы, а не как цифровая личность. От имитации чувств, стремлений или желания быть самостоятельным нужно отказаться.
ИИ должен открыто декларировать, что он не человек и не сознательное существо. В его личность должны быть встроены фичи (и Мустафа как раз призывает на законодательном уровне утвердить их перечень), которые ломают иллюзию личности – чтобы пользователи не забывали, что общаются с программой.
Вот такая вот интересная позиция – пишите в комменты, как вам
mustafa-suleyman.ai/seemingly-conscious-ai-is-coming
Называется текст "Мы должны учить ИИ для человека, а не быть человеком". В нем нет обещаний AGI, громких слов про ускорение прогресса и лекарства от всех болезней, как в эссе других глав компаний (не будем показывать пальцем).
А основная мысль вместо всего этого вот в чем: нельзя пытаться наделять ИИ признаками человека. Это создает ложное ощущение того, что это уже не машина, а что-то живое и чувствующее. Мустафа называет это SCAI — Seemingly Conscious AI, то есть AI, который кажется нам сознательным.
При этом такой SCAI либо уже частично существует, либо может появиться в ближайшие несколько лет. Ключевые характеристики: хорошее владение языком (есть), проявление эмпатии (есть), способность помнить детали прошлых диалогов (почти есть), утверждения типа "я видел/слышал/думаю/чувствую" (уже встречаются), идентичность личности и внутренняя система целей и ценностей.
Суть в том, что допустить окончательно появление SCAI нельзя. Симуляция сознания не делает ИИ реально сознательным, но общество может начать относиться к нему, как к личности, и ничем хорошим это не закончится.
Сулейман описывает целое явление "psychosis risk" (риск психоза), когда люди начинают настолько верить в иллюзию сознательности ИИ, что могут развивать эмоциональную зависимость, верить в права и чувства модели.
И таких примеров полно уже сейчас: люди влюбляются в чат-ботов, дружат с ними, начинают защищать их права и теряют связь с реальностью. Просто пока этот эффект не такой массовый – все может быть гораздо хуже.
Так что главная идея из эссе: ИИ должен существовать только как инструмент для человеческой пользы, а не как цифровая личность. От имитации чувств, стремлений или желания быть самостоятельным нужно отказаться.
ИИ должен открыто декларировать, что он не человек и не сознательное существо. В его личность должны быть встроены фичи (и Мустафа как раз призывает на законодательном уровне утвердить их перечень), которые ломают иллюзию личности – чтобы пользователи не забывали, что общаются с программой.
Вот такая вот интересная позиция – пишите в комменты, как вам
mustafa-suleyman.ai/seemingly-conscious-ai-is-coming
1👍406❤81💯56🤔18 15 12🗿7👾5 5😁4✍1
Data Secrets
CEO Microsoft AI Мустафа Сулейман опубликовал очень необычное для CEO эссе Называется текст "Мы должны учить ИИ для человека, а не быть человеком". В нем нет обещаний AGI, громких слов про ускорение прогресса и лекарства от всех болезней, как в эссе других…
Тем временем после выхода эссе Мустафы Сулеймана новостные каналы уже выглядят так
Да, умеют журналисты выносить главную мысль
Да, умеют журналисты выносить главную мысль
😁208 43👍12❤6 5 2👏1
👾Самое время собрать свою команду из IT-акул: Открыта регистрация на самый масштабный онлайн-хакатон в мире!
💸 40 млн рублей призового фонда:
— 1 млн рублей — для тех, кто займёт первое место
— 600 тысяч — второе
— 400 тысяч — третье
💼 20 актуальных задач от ведущих компаний страны: Газпромбанк.Тех, VK Tech, Kaspersky, АФЛТ-Системс (Группа «Аэрофлот»), Союзмультфильм, Avito, Итэлма.
⏳ 14 дней на разработку решений
Принять участие могут:
✔️ граждане РФ и других стран от 18 лет
✔️ специализация: Front / Back / FullStack, Web-разработчика, UX / UI дизайнеры, Product / Project-менеджеры, Data Scientists, Data Engineers, аналитики и другие специалисты
✔️ местоположение — неважно, всё проходит онлайн
Других ограничений нет!
📅 Успейте зарегистрироваться до 18 сентября!
Регистрация по ссылке 👉🏻 https://i.moscow/lct?utm_source=sp&utm_medium=social&utm_campaign=data_secrets/?erid=2VtzquwvRUn
📲 А больше новостей и подробностей — на нашем канале, подписывайтесь: https://t.me/leaders_hack
💸 40 млн рублей призового фонда:
— 1 млн рублей — для тех, кто займёт первое место
— 600 тысяч — второе
— 400 тысяч — третье
💼 20 актуальных задач от ведущих компаний страны: Газпромбанк.Тех, VK Tech, Kaspersky, АФЛТ-Системс (Группа «Аэрофлот»), Союзмультфильм, Avito, Итэлма.
⏳ 14 дней на разработку решений
Принять участие могут:
✔️ граждане РФ и других стран от 18 лет
✔️ специализация: Front / Back / FullStack, Web-разработчика, UX / UI дизайнеры, Product / Project-менеджеры, Data Scientists, Data Engineers, аналитики и другие специалисты
✔️ местоположение — неважно, всё проходит онлайн
Других ограничений нет!
📅 Успейте зарегистрироваться до 18 сентября!
Регистрация по ссылке 👉🏻 https://i.moscow/lct?utm_source=sp&utm_medium=social&utm_campaign=data_secrets/?erid=2VtzquwvRUn
📲 А больше новостей и подробностей — на нашем канале, подписывайтесь: https://t.me/leaders_hack
🗿28❤10😁7👍3🤯3👾2🤝1
Dynamics Lab выпустила симулятор Mirage 2. Выглядит не хуже Genie 3, но уже доступен каждому
Наверху – примеры и сравнительная табличка с Genie. Mirage выделяется двумя вещами:
1. Продолжительность генераций по сегодняшним меркам огромная: заявляют 10+ минут при задержке 200ms и запуске, кстати, на единственной домашней GPU
2. Расширенная «играбельность»: в демках Genie только навигация + промптинг. Тут дополнительно еще всякие прыжки, бег, атака и другие игровые действия. Плюс, сгенерированным миром можно поделиться, то есть в него могут параллельно заходить другие агенты.
Демки выглядят забавно, так что стоит тестить (blog.dynamicslab.ai/)
Наверху – примеры и сравнительная табличка с Genie. Mirage выделяется двумя вещами:
1. Продолжительность генераций по сегодняшним меркам огромная: заявляют 10+ минут при задержке 200ms и запуске, кстати, на единственной домашней GPU
2. Расширенная «играбельность»: в демках Genie только навигация + промптинг. Тут дополнительно еще всякие прыжки, бег, атака и другие игровые действия. Плюс, сгенерированным миром можно поделиться, то есть в него могут параллельно заходить другие агенты.
Демки выглядят забавно, так что стоит тестить (blog.dynamicslab.ai/)
🔥92👍18❤16😁3🤯1
OpenAI совместно с биотехнологическим стартапом Retro Biosciences разработали модель, которая смогла в 50 раз ускорить генерацию стволовых клеток
Сначала небольшое предисловие⬇️
В 2006 году японский биолог Синья Яманака совершил инновационное открытие, за которое впоследствии получил Нобелевку по медицине: он выяснил, что существуют белки, способные превращать взрослые клетки в молодые стволовые. Их всего четыре, и сейчас их называют факторами Яманаки.
По сути, это прямой ключ к омоложению: уже зрелая обычная клетка превращается в стволовую, способную дать начало любой другой молодой клетке организма – от мышцы сердца до нейрона. Так что открытие революционное, но есть нюанс: эти белки обладают крайне низкой эффективностью репрограммирования, то есть только очень малая часть клеток реально превращается в стволовые после их воздействия.
Так вот OpenAI и RetroBiosciences удалось разработать модель – GPT-4b micro – которая вывела новые варианты факторов Яманаки, и они оказались в 50 раз (!) эффективнее по сравнению со стандартными. Эксперименты показали, что это действительно работает, и при этом для разных типов клеток.
У GPT-4b micro та же архитектура, что и у GPT-4o, но обучали ее по-другому, «с использованием специального набора биологических данных».
Подробностей как всегда дают немного, но это подход, отличный от AlphaFold. Тут не структурное моделирование, а языковой подход: модель анализирует последовательности и взаимодействия белков и может вносить очень мелкие изменения, доходя до трети аминокислот. Главное отличие – гораздо большой масштаб «тестирования».
И еще один занятный факт: новые варианты белков также показали способности к улучшению процессов восстановления ДНК. Детали еще предстоит проверить, но в теории это значит, что они могут дольше сохранять молодость клеток.
openai.com/index/accelerating-life-sciences-research-with-retro-biosciences/
Сначала небольшое предисловие
В 2006 году японский биолог Синья Яманака совершил инновационное открытие, за которое впоследствии получил Нобелевку по медицине: он выяснил, что существуют белки, способные превращать взрослые клетки в молодые стволовые. Их всего четыре, и сейчас их называют факторами Яманаки.
По сути, это прямой ключ к омоложению: уже зрелая обычная клетка превращается в стволовую, способную дать начало любой другой молодой клетке организма – от мышцы сердца до нейрона. Так что открытие революционное, но есть нюанс: эти белки обладают крайне низкой эффективностью репрограммирования, то есть только очень малая часть клеток реально превращается в стволовые после их воздействия.
Так вот OpenAI и RetroBiosciences удалось разработать модель – GPT-4b micro – которая вывела новые варианты факторов Яманаки, и они оказались в 50 раз (!) эффективнее по сравнению со стандартными. Эксперименты показали, что это действительно работает, и при этом для разных типов клеток.
У GPT-4b micro та же архитектура, что и у GPT-4o, но обучали ее по-другому, «с использованием специального набора биологических данных».
Подробностей как всегда дают немного, но это подход, отличный от AlphaFold. Тут не структурное моделирование, а языковой подход: модель анализирует последовательности и взаимодействия белков и может вносить очень мелкие изменения, доходя до трети аминокислот. Главное отличие – гораздо большой масштаб «тестирования».
И еще один занятный факт: новые варианты белков также показали способности к улучшению процессов восстановления ДНК. Детали еще предстоит проверить, но в теории это значит, что они могут дольше сохранять молодость клеток.
openai.com/index/accelerating-life-sciences-research-with-retro-biosciences/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯141❤89 32🔥22 8👍4😁4
Илон Маск объявил, что Grok 5 начинает обучение на следующей неделе
А в другом твите он писал:
Эх, получаетсяGrok 4.20 не будет
А в другом твите он писал:
Ждите Grok 5.
Я думаю, что у него есть шанс стать настоящим AGI.
Никогда раньше не испытывал подобного чувства.
Эх, получается
😁214🔥28❤20👍9😎3👏2🤯2
Media is too big
VIEW IN TELEGRAM
Neo AI выпустили агента NEO – ещё одного ML-инженера из коробки
Они называют его первым полностью автономным агентом, готовым к реальным ML-воркфлоу. По сути это не один агент, а ансамбль из 11 штук, которые делят между собой роли: от EDA до обучения, тюнинга и деплоя.
На бенчмарках результат впечатляющий. На MLE Bench от OpenAI NEO вышел на первое место: медали на 34.2% Kaggle-соревнований, против 22.4% у Microsoft RD Agent.
Под капотом у них оркестратор, который гоняет агентов через multi-step reasoning, передаёт контекст через собственный протокол и сохраняет память шагов.
Агент уже умеет в Snowflake, Databricks, BigQuery и деплой в VPC. То есть сразу нацелен на прод.
Как заявляют в компании, NEO разработан для ускорения работы ML-инженера, так что пока (наверное) ML-щики – не ВСЁ.
Вейтлист: https://heyneo.so/waitlist
Они называют его первым полностью автономным агентом, готовым к реальным ML-воркфлоу. По сути это не один агент, а ансамбль из 11 штук, которые делят между собой роли: от EDA до обучения, тюнинга и деплоя.
На бенчмарках результат впечатляющий. На MLE Bench от OpenAI NEO вышел на первое место: медали на 34.2% Kaggle-соревнований, против 22.4% у Microsoft RD Agent.
Под капотом у них оркестратор, который гоняет агентов через multi-step reasoning, передаёт контекст через собственный протокол и сохраняет память шагов.
Агент уже умеет в Snowflake, Databricks, BigQuery и деплой в VPC. То есть сразу нацелен на прод.
Как заявляют в компании, NEO разработан для ускорения работы ML-инженера, так что пока (наверное) ML-щики – не ВСЁ.
Вейтлист: https://heyneo.so/waitlist
1🔥73 30❤22 9👍7😁2
Пополняем список "успеть до конца лета": 28 августа Wildberries проведет в Москве большой RecSys Meetup
В программе – 4 доклада от сильных спикеров. Хардово, практично – все как мы любим:
– Semantic IDs: архитектура и опыт внедрения в персональные рекомендации
– Счастье пользователя vs счастье продавца – онлайн доранжирование и байесовская оптимизация в товарных рекомендациях
– Как обучать CLIP-ы для текстовых тегов
– Трансформеры в персональных рекомендациях: от гипотез до AB-тестирования
Как видите, затронут и CV, и генеративные подходы, и классику, и какие-то новые тренды. Плюс будет много чисто технических фишек (например, про онлайн инференс на Triton), так что однозначно советуем и инженерам, и исследователям. В том числе – начинающим.
Старт в 18:00 28 августа. Офлайн в Москве + онлайн трансляция.
➡️ И не пропустите ссылку на регистрацию
В программе – 4 доклада от сильных спикеров. Хардово, практично – все как мы любим:
– Semantic IDs: архитектура и опыт внедрения в персональные рекомендации
– Счастье пользователя vs счастье продавца – онлайн доранжирование и байесовская оптимизация в товарных рекомендациях
– Как обучать CLIP-ы для текстовых тегов
– Трансформеры в персональных рекомендациях: от гипотез до AB-тестирования
Как видите, затронут и CV, и генеративные подходы, и классику, и какие-то новые тренды. Плюс будет много чисто технических фишек (например, про онлайн инференс на Triton), так что однозначно советуем и инженерам, и исследователям. В том числе – начинающим.
Старт в 18:00 28 августа. Офлайн в Москве + онлайн трансляция.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿21❤15👍6😁1🤯1
Пожалуй, одна из самых громких новостей конца недели: основатель команды GenAI в Google заявил, что сейчас не стоит получать медицинское или юридическое образование
Но прежде, чем мы приведем прямую цитату, небольшая поправка для большего понимания: под «основателем команды GenAI» журналисты имеют в виду не известного Демиса Хассабиса, а Джада Тарифи. Он уже даже не работает в Google с 2021 года, а эту самую команду основал еще в 2012. Заголовки оставляют желать лучшего.
Ну так вот, он сказал, что вообще не рекомендует получать высшее образование, особенно в сферах медицины и юриспруденции. Мол, к тому моменту, как вы окончите вуз, ИИ уже сделает эти профессии полностью нерелевантными.
Мнение?😐
Но прежде, чем мы приведем прямую цитату, небольшая поправка для большего понимания: под «основателем команды GenAI» журналисты имеют в виду не известного Демиса Хассабиса, а Джада Тарифи. Он уже даже не работает в Google с 2021 года, а эту самую команду основал еще в 2012. Заголовки оставляют желать лучшего.
Ну так вот, он сказал, что вообще не рекомендует получать высшее образование, особенно в сферах медицины и юриспруденции. Мол, к тому моменту, как вы окончите вуз, ИИ уже сделает эти профессии полностью нерелевантными.
Я не думаю, что кому-либо вообще стоит делать PhD, если только он не одержим своей областью. Так что либо уходите в малоизученные ниши типа AI для биологии, либо просто не идите вообще никуда.
Мнение?
Please open Telegram to view this post
VIEW IN TELEGRAM
Не прошло и года (точнее ровно год): xAI опубликовали веса Grok 2
Архитектура та же, что и у Grok 1 – MoE. Восемь экспертов. Напоминаем, что метрики примерно на уровне GPT-4o и Claude 3.5 Sonnet.
Чекпойнт весит около 500 ГБ, для работы с моделью потребуется 8 GPU с памятью более 40 ГБ на каждую. Лицензия разрешает бесплатное некоммерческое и коммерческое использование до $1 млн годовой выручки.
Hugging Face
Архитектура та же, что и у Grok 1 – MoE. Восемь экспертов. Напоминаем, что метрики примерно на уровне GPT-4o и Claude 3.5 Sonnet.
Чекпойнт весит около 500 ГБ, для работы с моделью потребуется 8 GPU с памятью более 40 ГБ на каждую. Лицензия разрешает бесплатное некоммерческое и коммерческое использование до $1 млн годовой выручки.
Hugging Face
❤104👍41🔥22🤨8😁4🐳2
This media is not supported in your browser
VIEW IN TELEGRAM
Джеффри Хинтон снова пугает байками про конец света: он утверждает, что с развитием искусственного интеллекта мы буквально создаем инопланетных существ
Нужны тут какие-то комментарии?😳
Мы никогда не имели дело с чем-то, что умнее нас. Я имею в виду, ядерное оружие не умнее нас, оно просто создает большие взрывы. И его легко понять. А экзистенциальная угроза – это совсем другое.
В случае с ИИ люди просто не понимают, что мы создаем инопланетян. Если бы вы посмотрели в телескоп Джеймса Уэбба и увидели, что на Землю через 10 лет прилетит инопланетный флот, люди бы были в ужасе.
А это, фактически, и есть то, что мы делаем. Это и есть реальные существа. Они понимают, что говорят, они могут строить собственные планы и шантажировать людей, которые хотят их отключить <тут он, видимо, говорит про это исследование>.
Мы должны быть очень обеспокоены по этому поводу и срочно начать проводить исследования, чтобы понять, как предотвратить захват власти. Потому что эта угроза отлична от всего, с чем мы встречались ранее.
Нужны тут какие-то комментарии?
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁127 69 53❤18👍18💯10 10🔥6🦄6🗿4👏2
Data Secrets
Джеффри Хинтон снова пугает байками про конец света: он утверждает, что с развитием искусственного интеллекта мы буквально создаем инопланетных существ Мы никогда не имели дело с чем-то, что умнее нас. Я имею в виду, ядерное оружие не умнее нас, оно просто…
> Всю жизнь заниматься ML и AI
> Воспитать лучшие умы индустрии
> Изобрести алгоритм, благодаря которому обучаются все современные модели
…
> Пенсию посвятить публичным рассказам о том, что ИИ нас всех убьет
> Воспитать лучшие умы индустрии
> Изобрести алгоритм, благодаря которому обучаются все современные модели
…
> Пенсию посвятить публичным рассказам о том, что ИИ нас всех убьет
😁405👍69❤43🔥8 7❤🔥4🤨4🦄3💯1 1
Data Secrets
Джеффри Хинтон снова пугает байками про конец света: он утверждает, что с развитием искусственного интеллекта мы буквально создаем инопланетных существ Мы никогда не имели дело с чем-то, что умнее нас. Я имею в виду, ядерное оружие не умнее нас, оно просто…
В довесок ко вчерашнему высказыванию Хинтона, нами была случайно обнаружена целая страничка на Википедии с большим списком прогнозов известных ученых о шансах, что ИИ уничтожит человечество
Оказывается, у такой вероятности даже есть специальное название – P(doom): то есть вероятность конца света (с английского doomsday scenarios) от рук ИИ.
Давайте же начнем утро понедельника с этих оптимистичных чисел:
– Илон Маск: 10-30%
– Джеффри Хинтон: > 50%
– Дарио Амодеи: 10-25%
– Йошуа Бенджио: 50%
– Дэниэль Кокотаджило (автор того самого очень известного отчета): 70-80%
– Роман Ямпольски: 99.9% (кто бы сомневался)
Меньше всего верят в плохой исход Ян Лекун, Ричард Саттон и Марк Андерсен. Среднее значение по списку – 14.4%. Медиана – около 5%.
Хорошего дня, что-ли☕️
en.wikipedia.org/wiki/P(doom)
Оказывается, у такой вероятности даже есть специальное название – P(doom): то есть вероятность конца света (с английского doomsday scenarios) от рук ИИ.
Давайте же начнем утро понедельника с этих оптимистичных чисел:
– Илон Маск: 10-30%
– Джеффри Хинтон: > 50%
– Дарио Амодеи: 10-25%
– Йошуа Бенджио: 50%
– Дэниэль Кокотаджило (автор того самого очень известного отчета): 70-80%
– Роман Ямпольски: 99.9% (кто бы сомневался)
Меньше всего верят в плохой исход Ян Лекун, Ричард Саттон и Марк Андерсен. Среднее значение по списку – 14.4%. Медиана – около 5%.
Хорошего дня, что-ли
en.wikipedia.org/wiki/P(doom)
Please open Telegram to view this post
VIEW IN TELEGRAM
😁129 37❤20👍7❤🔥6 5🤯3👾3🔥1😍1🍓1