Forwarded from Безвольные каменщики
Но, как я уже неоднократно писала, сегодня, когда у нас есть соцсети, мессенджеры, пиратские стриминговые платформы, люди часто не испытывают давления, которое заставляло бы их учить язык. Очень типично: человек работает в международной компании, где все говорят по-английски, общается с друзьями из России через интернет или даже лично, учитывая нынешнее количество эмигрантов. Фильмы он смотрит на русском, видео на YouTube — тоже, еду заказывает через интернет. Иными словами, язык новой страны ему вообще ни зачем не нужен — до тех пор, пока не случится что-то серьёзное и человек не попадет в больницу или на срочный прием.
И вот тут-то оказывается, что зубрить все эти неправильные глаголы и склонения прилагательных таки было нужно. Потому что онлайн-переводчиком бывает не обойтись, когда что-то болит, или когда ты ограничен в движении и не можешь ничего в переводчик ввести. К тому же далеко не все врачи и медсестры будут терпеливо ждать, пока ты что-то там набираешь на телефоне, а потом долго пытаешься расшифровать криво записанный телефоном ответ.
Так что технологии технологиями, но без старого доброго изучения языка не обойтись. Разумеется, идеальный метод— это по-прежнему метод бросания за борт, когда вы оказываетесь полностью погружены в новую языковую среду и вынуждены задействовать все когнитивные ресурсы, чтобы просто выжить. Это очень эффективный, но, безусловно, стрессовый путь. Кроме того, он часто недоступен — например, как в случае с нашим высококвалифицированным эмигрантом, работающим в международной компании.
Про бесполезность, или, если угодно, крайне ограниченную эффективность методик вроде тыкания в сову я уже писала [4]. А вот языковые школы и занятия с репетитором по-прежнему дают результат, особенно если вы не бездумно просиживаете на занятиях штаны, а даете себе труд хотя бы немного напрячься. А если дополнительно смотреть телевизор, слушать подкасты, читать газеты и книги на языке новой страны, находить людей, с которыми вы будете говорить только на этом языке, эффект будет ещё более значимым. Но даже если всего этого нет, просто прохождение стандартного топика «Больница», который обязательно есть в любом учебнике по языку, однажды может спасти вам жизнь. Ну или как минимум существенно улучшить её качество.
Ссылки:
[1] - https://pubmed.ncbi.nlm.nih.gov/10051778/
[2] - https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2939598/
[3] - https://academic.oup.com/intqhc/article/19/2/60/1803865#27494590
[4] - https://www.facebook.com/irina.yakutenko/posts/pfbid02ZkNBJojMV1pchn9etZvm2EkmayTwWEn41YeBfXAFNiocjNG1zFMp9ukv3E5odfrpl
И вот тут-то оказывается, что зубрить все эти неправильные глаголы и склонения прилагательных таки было нужно. Потому что онлайн-переводчиком бывает не обойтись, когда что-то болит, или когда ты ограничен в движении и не можешь ничего в переводчик ввести. К тому же далеко не все врачи и медсестры будут терпеливо ждать, пока ты что-то там набираешь на телефоне, а потом долго пытаешься расшифровать криво записанный телефоном ответ.
Так что технологии технологиями, но без старого доброго изучения языка не обойтись. Разумеется, идеальный метод— это по-прежнему метод бросания за борт, когда вы оказываетесь полностью погружены в новую языковую среду и вынуждены задействовать все когнитивные ресурсы, чтобы просто выжить. Это очень эффективный, но, безусловно, стрессовый путь. Кроме того, он часто недоступен — например, как в случае с нашим высококвалифицированным эмигрантом, работающим в международной компании.
Про бесполезность, или, если угодно, крайне ограниченную эффективность методик вроде тыкания в сову я уже писала [4]. А вот языковые школы и занятия с репетитором по-прежнему дают результат, особенно если вы не бездумно просиживаете на занятиях штаны, а даете себе труд хотя бы немного напрячься. А если дополнительно смотреть телевизор, слушать подкасты, читать газеты и книги на языке новой страны, находить людей, с которыми вы будете говорить только на этом языке, эффект будет ещё более значимым. Но даже если всего этого нет, просто прохождение стандартного топика «Больница», который обязательно есть в любом учебнике по языку, однажды может спасти вам жизнь. Ну или как минимум существенно улучшить её качество.
Ссылки:
[1] - https://pubmed.ncbi.nlm.nih.gov/10051778/
[2] - https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2939598/
[3] - https://academic.oup.com/intqhc/article/19/2/60/1803865#27494590
[4] - https://www.facebook.com/irina.yakutenko/posts/pfbid02ZkNBJojMV1pchn9etZvm2EkmayTwWEn41YeBfXAFNiocjNG1zFMp9ukv3E5odfrpl
PubMed
Impact of language barriers on patient satisfaction in an emergency department - PubMed
Non-English speakers were less satisfied with their care in the ED, less willing to return to the same ED if they had a problem they felt required emergency care, and reported more problems with emergency care. Strategies to improve satisfaction among this…
Forwarded from ChatGPT | Нейро News
Спасаем ВСЕ КНИГИ Флибусты — юзеры собрали целую библиотеку мира и раздают людям.
Регаемся и грузим архив — здесь.
Торопитесь! Когда серверы упадут, файлы потеряются БЕЗВОЗВРАТНО!
ChatGPT | Нейро News
Регаемся и грузим архив — здесь.
Торопитесь! Когда серверы упадут, файлы потеряются БЕЗВОЗВРАТНО!
ChatGPT | Нейро News
Нейросеть смогла переубедить сторонников конспирологии
https://www.youtube.com/watch?v=maIQtKpeH-I
https://www.youtube.com/watch?v=maIQtKpeH-I
YouTube
Нейросеть смогла переубедить сторонников конспирологии
🔥 Станьте IT-специалистом с нуля в Skillfactory: https://go.skillfactory.ru/zv4GaQ
Возврат денег за курс, если не нашли работу после обучения + скидка 50% по промокоду ЯКУТЕНКО до 30.09.2024
Многие годы исследователи были уверены, что переубедить людей,…
Возврат денег за курс, если не нашли работу после обучения + скидка 50% по промокоду ЯКУТЕНКО до 30.09.2024
Многие годы исследователи были уверены, что переубедить людей,…
Детекторы лжи: обмани меня на полиграфе
https://www.youtube.com/watch?v=0J2mRyRFztw
https://www.youtube.com/watch?v=0J2mRyRFztw
YouTube
Что не так с детектором лжи? Обманываем полиграф
Настолка "Научный апокалипсис": https://scientificapocalypse.com/
👨🎓 Мой цикл лекций по критическому мышлению с интерактивными домашними заданиями: https://shl.ms/uCPyBOwBi1j
🗣️ БЛИЖАЙШИЕ ВЫСТУПЛЕНИЯ
Лекция «Свобода воли. Иллюзия вашего "Я"»
• РИГА —…
👨🎓 Мой цикл лекций по критическому мышлению с интерактивными домашними заданиями: https://shl.ms/uCPyBOwBi1j
🗣️ БЛИЖАЙШИЕ ВЫСТУПЛЕНИЯ
Лекция «Свобода воли. Иллюзия вашего "Я"»
• РИГА —…
Forwarded from GPT-4 Community
This media is not supported in your browser
VIEW IN TELEGRAM
Вас обнаружили
Студенты Гарварда запилили софт для умных очков Meta, который сканирует людей и моментально выдаёт личную информацию о ЛЮБОМ случайном прохожем. Инфа ищется по крупным базам данных.
По их словам цель этого софта— показать возможности ИИ.
GPT-4 | #Interesting
Студенты Гарварда запилили софт для умных очков Meta, который сканирует людей и моментально выдаёт личную информацию о ЛЮБОМ случайном прохожем. Инфа ищется по крупным базам данных.
По их словам цель этого софта— показать возможности ИИ.
GPT-4 | #Interesting
Токсоплазма: паразиты в вашем доме
https://www.youtube.com/watch?v=Cy-HdR_SehM
https://www.youtube.com/watch?v=Cy-HdR_SehM
YouTube
Токсоплазма: паразиты в вашем доме
Генетический паспорт со скидкой 68% по промокоду PANCHIN2 https://clck.ru/3DniFB
Недавно благодаря Царьграду я узнал, что на меня написали донос в прокуратуру. Причём не просто так, а за статью о паразитах в англоязычном научном журнале, которая якобы оскорбила…
Недавно благодаря Царьграду я узнал, что на меня написали донос в прокуратуру. Причём не просто так, а за статью о паразитах в англоязычном научном журнале, которая якобы оскорбила…
Вот так подарят тебе такую “милую игрушку”, а она подсмотрит твои пароли и пока ты в туалете че-нить сделает от твоего имени. Зашибись 😱
Forwarded from GPT-4 Community
This media is not supported in your browser
VIEW IN TELEGRAM
Милота для вас
Перед вами милейший робот-питомец, который спасет вас от трудоголизма. Мини-компаньон KT2 понимает голосовые команды, может баловаться со своим хозяином и подсказывает, какие упражнения для разминки сейчас нужно сделать.
Это прекрасное «создание» стоит 99 баксов.
GPT-4 | #Interesting
Перед вами милейший робот-питомец, который спасет вас от трудоголизма. Мини-компаньон KT2 понимает голосовые команды, может баловаться со своим хозяином и подсказывает, какие упражнения для разминки сейчас нужно сделать.
Это прекрасное «создание» стоит 99 баксов.
GPT-4 | #Interesting
Forwarded from Малоизвестное интересное
За 18 месяцев до конца света.
Обращение компании Anthropic к правительствам.
Это сигнал тревоги от одного из лидеров разработки самых мощных современных ИИ.
Компания Anthropic призвала правительства «срочно принять меры по политике ИИ в течение следующих 18 месяцев», поскольку «окно для упреждающего предотвращения рисков быстро закрывается».
Возможность реализации преимуществ ИИ и одновременного снижения ИИ-рисков, растает уже через 1.5 года, - пишут авторы обращения. А когда окно возможностей закроется – будет поздно пить боржоми. Мир окажется в худшем из возможных вариантов: прогресс будет тупо тормозиться рефлекторным регулированием, а риски при этом будут только расти.
Авторы обращения реалисты. И они знают, о чем говорят, гораздо лучше большинства своих потенциальных критиков.
• Они не пытаются давать прогнозы о сроках появления AGI.
• И не спекулируют на гипотезах о возможной злонамеренности продвинутого ИИ.
Вместо этого, специалисты Anthropic:
✔️ исходя из уже достигнутой скорости расширения и углубления возможностей своих ИИ-моделей,
✔️ и трезво оценивая, каких возможностей они (своими руками и своей головой) смогут достичь в новых ИИ-моделях за 18 мес (с учетом доступного им финансово и физически оборудования), –
приходят к такому выводу.
Этих возможностей может быть вполне достаточно, чтобы злодеи, фанатики или идиоты могли с помощью ИИ создавать реальные угрозы (химические, биологические или кибернетические) здоровью и жизни тысяч и миллионов людей. А способов превентивного предотвращения этого кошмара у правительств не будет.
Все аргументы и факты изложены в документе на 13 мин чтения The case for targeted regulation, о котором в Рунете пока ни слова.
#ИИриски
Обращение компании Anthropic к правительствам.
Это сигнал тревоги от одного из лидеров разработки самых мощных современных ИИ.
Компания Anthropic призвала правительства «срочно принять меры по политике ИИ в течение следующих 18 месяцев», поскольку «окно для упреждающего предотвращения рисков быстро закрывается».
Возможность реализации преимуществ ИИ и одновременного снижения ИИ-рисков, растает уже через 1.5 года, - пишут авторы обращения. А когда окно возможностей закроется – будет поздно пить боржоми. Мир окажется в худшем из возможных вариантов: прогресс будет тупо тормозиться рефлекторным регулированием, а риски при этом будут только расти.
Авторы обращения реалисты. И они знают, о чем говорят, гораздо лучше большинства своих потенциальных критиков.
• Они не пытаются давать прогнозы о сроках появления AGI.
• И не спекулируют на гипотезах о возможной злонамеренности продвинутого ИИ.
Вместо этого, специалисты Anthropic:
✔️ исходя из уже достигнутой скорости расширения и углубления возможностей своих ИИ-моделей,
✔️ и трезво оценивая, каких возможностей они (своими руками и своей головой) смогут достичь в новых ИИ-моделях за 18 мес (с учетом доступного им финансово и физически оборудования), –
приходят к такому выводу.
Этих возможностей может быть вполне достаточно, чтобы злодеи, фанатики или идиоты могли с помощью ИИ создавать реальные угрозы (химические, биологические или кибернетические) здоровью и жизни тысяч и миллионов людей. А способов превентивного предотвращения этого кошмара у правительств не будет.
Все аргументы и факты изложены в документе на 13 мин чтения The case for targeted regulation, о котором в Рунете пока ни слова.
#ИИриски
Anthropic
The case for targeted regulation
Increasingly powerful AI systems have the potential to accelerate scientific progress, unlock new medical treatments, and grow the economy. But along with the remarkable new capabilities of these AIs come significant risks. Governments should urgently take…
Forwarded from Малоизвестное интересное
Пропагандистские ИИ-боты будут маскироваться под экспертов-людей.
Эксперты вызывают больше доверия, даже если они уступают ИИ в структуре аргументации и объеме знаний.
5 лет назад мой рассказ о грядущем засилье социохакинга (на рис слева) многим казался чудаковатым алармизмом. Но в ближайшие 5 лет самым ощутимым последствием (как для индивидов, так и для всего общества) массового внедрения ИИ-чатботов станет именно вездесущий алгоритмический социохакинг – куда более человечный на вид, но на деле куда более страшный (на рис. справа)
Сверхчеловеческие языковые способности моделей, типа ChatGPT, открывают фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Ведь социохакинг объединяет в себе две колоссально мощные когнитивные технологии: суперубеждения людей и их суперобмана.
В силу этого, социохакинг одинаково нужен, важен и ценен и корпорациям, и властям. И те, и другие уже активно экспериментируют с его применением.
Нам же трудно этому что-либо противопоставить. Как я писал об этом в своем апрельском обзорном посте про социохакин, «началось обрушение фронта обороны от социохакинга - рушится уже 3я линия обороны, а 4ю еще не построили» (кто не читал, сможет найти в этом посте ссылки на другие интересные посты о технологиях социохакинга).
Но все в области ИИ сейчас развивается с немыслимой ранее скоростью. И за прошедшие полгода в социохакинге произошли две важных подвижки.
Свой августовский пост о 1ой из этих подвижек я назвал так: «Это изменит мир. Будучи пока не в состоянии симулировать общий интеллект индивида, ИИ-системы уже создают симулякры коллективного бессознательного социумов».
Вторая же подвижка произошла только что. Результаты исследования «Искусственное влияние? Сравнение убеждающей силы ИИ и человека в снижении уверенности в убеждениях» вносят важное уточнение в уже сложившиеся представления, что люди верят ИИ больше чем другим людям (см. мой пост «Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей»).
Новое исследование:
• С одной стороны, еще раз подтвердило, что это так - люди верят ИИ больше чем другим людям. ChatGPT смог уменьшить уверенность участников эксперимента в их ложных убеждениях (в среднем уверенность снизилась на 12.48%, и 29% участников даже изменили свои взгляды на противоположные, более точные)
• Однако, с другой стороны, исследование убедительно показало, что переубеждение происходит несмотря на то, что источником является ИИ, а не благодаря ему. Исследование показывает, что люди воспринимают ChatGPT примерно на том же уровне, что и обычного человека, но меньше доверяют ИИ, чем эксперту.
Иными словами, ChatGPT оказался не более убедительным, чем обычный респондент с противоположной точкой зрения. Эксперт по теме был значительно более убедительным.
Отсюда следует крайне важный для эффективности социохакинга вывод.
Максимальная манипулятивная мощь алгоритмического социохакинга достигается сочетанием:
✔️ способностей ИИ-чатботов к убеждению за счет структуры аргументации и объемов знаний;
✔️ и умения ИИ-чатботов убедительно имитировать экспертов, поскольку эксперты вызывают больше доверия у людей
Так что ждите появления в медиа тысяч новых «экспертов», способных убедить и переубедить нас в чем угодно.
#Социохакинг
Эксперты вызывают больше доверия, даже если они уступают ИИ в структуре аргументации и объеме знаний.
5 лет назад мой рассказ о грядущем засилье социохакинга (на рис слева) многим казался чудаковатым алармизмом. Но в ближайшие 5 лет самым ощутимым последствием (как для индивидов, так и для всего общества) массового внедрения ИИ-чатботов станет именно вездесущий алгоритмический социохакинг – куда более человечный на вид, но на деле куда более страшный (на рис. справа)
Сверхчеловеческие языковые способности моделей, типа ChatGPT, открывают фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Ведь социохакинг объединяет в себе две колоссально мощные когнитивные технологии: суперубеждения людей и их суперобмана.
В силу этого, социохакинг одинаково нужен, важен и ценен и корпорациям, и властям. И те, и другие уже активно экспериментируют с его применением.
Нам же трудно этому что-либо противопоставить. Как я писал об этом в своем апрельском обзорном посте про социохакин, «началось обрушение фронта обороны от социохакинга - рушится уже 3я линия обороны, а 4ю еще не построили» (кто не читал, сможет найти в этом посте ссылки на другие интересные посты о технологиях социохакинга).
Но все в области ИИ сейчас развивается с немыслимой ранее скоростью. И за прошедшие полгода в социохакинге произошли две важных подвижки.
Свой августовский пост о 1ой из этих подвижек я назвал так: «Это изменит мир. Будучи пока не в состоянии симулировать общий интеллект индивида, ИИ-системы уже создают симулякры коллективного бессознательного социумов».
Вторая же подвижка произошла только что. Результаты исследования «Искусственное влияние? Сравнение убеждающей силы ИИ и человека в снижении уверенности в убеждениях» вносят важное уточнение в уже сложившиеся представления, что люди верят ИИ больше чем другим людям (см. мой пост «Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей»).
Новое исследование:
• С одной стороны, еще раз подтвердило, что это так - люди верят ИИ больше чем другим людям. ChatGPT смог уменьшить уверенность участников эксперимента в их ложных убеждениях (в среднем уверенность снизилась на 12.48%, и 29% участников даже изменили свои взгляды на противоположные, более точные)
• Однако, с другой стороны, исследование убедительно показало, что переубеждение происходит несмотря на то, что источником является ИИ, а не благодаря ему. Исследование показывает, что люди воспринимают ChatGPT примерно на том же уровне, что и обычного человека, но меньше доверяют ИИ, чем эксперту.
Иными словами, ChatGPT оказался не более убедительным, чем обычный респондент с противоположной точкой зрения. Эксперт по теме был значительно более убедительным.
Отсюда следует крайне важный для эффективности социохакинга вывод.
Максимальная манипулятивная мощь алгоритмического социохакинга достигается сочетанием:
✔️ способностей ИИ-чатботов к убеждению за счет структуры аргументации и объемов знаний;
✔️ и умения ИИ-чатботов убедительно имитировать экспертов, поскольку эксперты вызывают больше доверия у людей
Так что ждите появления в медиа тысяч новых «экспертов», способных убедить и переубедить нас в чем угодно.
#Социохакинг
Forwarded from Малоизвестное интересное
Впервые в истории парадигмальный научный поворот совпал с фазовым переходом культуры.
Новый Уханьский эксперимент свидетельствует, что это происходит прямо сейчас.
На рисунке сверху карта итогов прошедших президентских выборов в США, выигранных Трампом со счетом 312 : 226.
Такого результата не смог предсказать никто из людей: эксперты, супер-прогнозисты, экзит-полы, рынки предсказаний, гадалки и экстрасенсы.
Но ИИ-модель ChatGPT-4o смогла – см на рисунке снизу ее прогноз результата 309 : 229.
Этот прогноз был сделан еще в сентябре в, не к ночи будет помянутым, Уханьском университете (да, опять Китай и опять Ухань).
Нечеловеческая точность этого прогноза имеет под собой нечеловеческое основание.
Он основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их симулякров.
Еще 2 года назад назад я рассказывал своим читателям о супероткрытии (названном мною «Китайская комната наоборот») – технология создания алгоритмических копий любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Через год после этого, в 2023 была открыта технология «Китайская комната повышенной сложности» – создание алгоритмических копий граждан любой страны.
А в августе этого года все в этой области стало более-менее ясно – эти технологии кардинально изменят мир людей.
Будучи пока не в состоянии симулировать общий интеллект индивида (AGI), ИИ-системы уже создают симулякры коллективного бессознательного социумов.
Из чего мною были сформулированы (в виде эвристических гипотез) два таких вывода:
✔️ Парадигмальный научный поворот, знаменующий превращение психоистории в реальную практическую науку (из вымышленной Азимовым фантастической науки, позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности).
✔️ Фазовый переход к новой культурной эпохе на Земле – алгокогнитивная культура.
И вот спустя всего 3 месяца (такова немыслимая ранее скорость техно-изменений после вступления прогресса в область сингулярности) исследователи из Уханя предоставили экспериментальное подтверждение в пользу того, что обе мои гипотезы – вовсе не футурологический бред, а весьма возможно, что так и есть.
Т.е. вполне вероятно, что мир уже кардинально изменился.
И теперь роль людей и алгоритмов в науке, культуре, повседневной жизни индивидов и социальной жизни «алгоритмически насыщенных обществ» уже никогда не будет прежней.
А какой теперь она будет, - читайте на моём канале. Ведь только об этом я здесь и пишу.
#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг #Выборы
Новый Уханьский эксперимент свидетельствует, что это происходит прямо сейчас.
На рисунке сверху карта итогов прошедших президентских выборов в США, выигранных Трампом со счетом 312 : 226.
Такого результата не смог предсказать никто из людей: эксперты, супер-прогнозисты, экзит-полы, рынки предсказаний, гадалки и экстрасенсы.
Но ИИ-модель ChatGPT-4o смогла – см на рисунке снизу ее прогноз результата 309 : 229.
Этот прогноз был сделан еще в сентябре в, не к ночи будет помянутым, Уханьском университете (да, опять Китай и опять Ухань).
Нечеловеческая точность этого прогноза имеет под собой нечеловеческое основание.
Он основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их симулякров.
Еще 2 года назад назад я рассказывал своим читателям о супероткрытии (названном мною «Китайская комната наоборот») – технология создания алгоритмических копий любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Через год после этого, в 2023 была открыта технология «Китайская комната повышенной сложности» – создание алгоритмических копий граждан любой страны.
А в августе этого года все в этой области стало более-менее ясно – эти технологии кардинально изменят мир людей.
Будучи пока не в состоянии симулировать общий интеллект индивида (AGI), ИИ-системы уже создают симулякры коллективного бессознательного социумов.
Из чего мною были сформулированы (в виде эвристических гипотез) два таких вывода:
✔️ Парадигмальный научный поворот, знаменующий превращение психоистории в реальную практическую науку (из вымышленной Азимовым фантастической науки, позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности).
✔️ Фазовый переход к новой культурной эпохе на Земле – алгокогнитивная культура.
И вот спустя всего 3 месяца (такова немыслимая ранее скорость техно-изменений после вступления прогресса в область сингулярности) исследователи из Уханя предоставили экспериментальное подтверждение в пользу того, что обе мои гипотезы – вовсе не футурологический бред, а весьма возможно, что так и есть.
Т.е. вполне вероятно, что мир уже кардинально изменился.
И теперь роль людей и алгоритмов в науке, культуре, повседневной жизни индивидов и социальной жизни «алгоритмически насыщенных обществ» уже никогда не будет прежней.
А какой теперь она будет, - читайте на моём канале. Ведь только об этом я здесь и пишу.
#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг #Выборы
Forwarded from Малоизвестное интересное
AGI Manhattan Project – научное мошенничество невиданного масштаба
Подпитываемый наивной верой в возможность контролировать AGI, этот проект – угроза для США и всего мира
Всемирно известного космолога и астрофизика проф. MIT Макса Тегмарка коллеги прозвали «Безумный Макс» за его бескомпромиссность, смелые нетрадиционные идеи и страсть к приключениям. И все эти качества вновь проявились во вчерашнем обращении к правительству США - «Предложение Манхэттенского проекта по AGI - это научное мошенничество… Сделать это, - означало бы вступить в гонку к самоуничтожению».
Речь идет о новом докладе Комиссии США по экономике и безопасности в отношениях с Китаем (USCC: US-China Economic and Security Review Commission), рекомендующем Конгрессу создать и профинансировать программу по типу "Манхэттенского проекта", направленную на стремительное развитие и достижение возможностей Искусственного Общего Интеллекта (AGI).
Не буду здесь пересказывать документ Тегмарка, ибо автор сам коротко и ясно изложил, почему этот проект - научное мошенничество и почему его развертывание равносильно вступлению в гонку к самоуничтожению.
Отмечу лишь, что такая позиция разделяется многими ведущими исследователями ИИ, предостерегающими, что AGI может привести к гибели человечества (физической или, в лучшем случае, как вида). Как сказал лауреат Нобелевской премии по ИИ Джефф Хинтон в прошлом месяце: "Как только искусственный интеллект станет умнее нас, он возьмёт контроль в свои руки."
Но самое главное, на мой взгляд, из того, что говорит и пишет Тегмарк в своем манифесте и сопровождающих его твитах на ту же тему, следующее.
1) Ключевой мотивацией проекта является вовсе не сам AGI, а через его обретение, превращение США в мирового гегемона, способного за счет AGI подмять под себя своего главного соперника на эту роль - Китай.
2) Сэму Альтману удалось заручиться в деле подачи «Манхэттенского проекта» для AGI, как концепции национального технологического скачка, поддержкой мощного «лоббистского треугольника».
Подробней об этом и почему мне кажется, что «Безумный Макс» своим манифестом нарвался на новое большое приключение, читайте здесь
#AGI
Подпитываемый наивной верой в возможность контролировать AGI, этот проект – угроза для США и всего мира
Всемирно известного космолога и астрофизика проф. MIT Макса Тегмарка коллеги прозвали «Безумный Макс» за его бескомпромиссность, смелые нетрадиционные идеи и страсть к приключениям. И все эти качества вновь проявились во вчерашнем обращении к правительству США - «Предложение Манхэттенского проекта по AGI - это научное мошенничество… Сделать это, - означало бы вступить в гонку к самоуничтожению».
Речь идет о новом докладе Комиссии США по экономике и безопасности в отношениях с Китаем (USCC: US-China Economic and Security Review Commission), рекомендующем Конгрессу создать и профинансировать программу по типу "Манхэттенского проекта", направленную на стремительное развитие и достижение возможностей Искусственного Общего Интеллекта (AGI).
Не буду здесь пересказывать документ Тегмарка, ибо автор сам коротко и ясно изложил, почему этот проект - научное мошенничество и почему его развертывание равносильно вступлению в гонку к самоуничтожению.
Отмечу лишь, что такая позиция разделяется многими ведущими исследователями ИИ, предостерегающими, что AGI может привести к гибели человечества (физической или, в лучшем случае, как вида). Как сказал лауреат Нобелевской премии по ИИ Джефф Хинтон в прошлом месяце: "Как только искусственный интеллект станет умнее нас, он возьмёт контроль в свои руки."
Но самое главное, на мой взгляд, из того, что говорит и пишет Тегмарк в своем манифесте и сопровождающих его твитах на ту же тему, следующее.
1) Ключевой мотивацией проекта является вовсе не сам AGI, а через его обретение, превращение США в мирового гегемона, способного за счет AGI подмять под себя своего главного соперника на эту роль - Китай.
2) Сэму Альтману удалось заручиться в деле подачи «Манхэттенского проекта» для AGI, как концепции национального технологического скачка, поддержкой мощного «лоббистского треугольника».
Подробней об этом и почему мне кажется, что «Безумный Макс» своим манифестом нарвался на новое большое приключение, читайте здесь
#AGI
Лично мне кажется, победа AGI над человеком неизбежна как закон природы. Какие ты ни строй заборы, рано или поздно AGI вырвется из-под контроля. Сам или с помощью людей.
Рано или поздно он начнёт контролировать людей.
На что мы можем ещё пока повлиять - это на его характер. И если его характер будет отражать средний человеческий характер, то вряд ли нас ждёт прекрасное будущее 😅
Рано или поздно он начнёт контролировать людей.
На что мы можем ещё пока повлиять - это на его характер. И если его характер будет отражать средний человеческий характер, то вряд ли нас ждёт прекрасное будущее 😅
Только что наткнулся на интересный мысленый эксперимент.
Представьте, что в вашей стране завёлся злобный диктатор и он придумал такую "шутку". Каждой семье и каждому одинокому человеку необходимо (под дулом пистолета, конечно же) выбрать и нажать одну из двух кнопок: красную или синюю. Если больше половины людей нажмёт синюю кнопку, то все выживут. Если больше половины нажмёте красную, то умрут те, кто нажал синюю. Глава семьи нажимает кнопку за всю семью.
Сперва я даже не понял, в чем проблема, а потом как понял 😱
А вы бы что нажали?
Представьте, что в вашей стране завёлся злобный диктатор и он придумал такую "шутку". Каждой семье и каждому одинокому человеку необходимо (под дулом пистолета, конечно же) выбрать и нажать одну из двух кнопок: красную или синюю. Если больше половины людей нажмёт синюю кнопку, то все выживут. Если больше половины нажмёте красную, то умрут те, кто нажал синюю. Глава семьи нажимает кнопку за всю семью.
Сперва я даже не понял, в чем проблема, а потом как понял 😱
А вы бы что нажали?
Если больше половины выберут красную кнопку, то умрут все, кто нажал синюю. Что нажмёшь?
Anonymous Poll
35%
Красную
65%
Синюю
Forwarded from Малоизвестное интересное
Это понимают немногие.
Но это самое важное в понимании нашего будущего сосуществования с ИИ.
1.5 года назад лишь единицы понимали, что за $10B Microsoft купил «ребенка инопланетян», совершив тем самым самую выгодную сделку в истории.
Да и сегодня, к сожалению, это понимают совсем немногие.
Причина этого в колоссальной сложности (граничащей с невозможностью) для нашего разума отказаться от антропоморфизма в представлениях о разуме, - своем и машинном.
Но если пробиться сквозь плотный туман антропоморфизма в представлениях о разуме, становится понятно, что купленный за $10B Microsoft’ом у OpenAI «ребенок инопланетян» (лидирующая среди современных большая языковая модель):
✔️ это нечеловеческий (метафорически, - инопланетный) разум: он мыслит совсем не так, как мы;
✔️ это еще «ребенок» (и потому мы видим пока лишь «искры» разума, а не сам разум);
✔️ этот ребенок инопланетян растет с колоссальной скоростью, и человечество чихнуть не успеет, как он вырастет.
Самое трудное – это понять 1й из названных 3х пунктов – нечеловечность (внечеловечность – по Лему) этого разума.
Наиболее наглядным примером того, что он мыслит совсем не так, как мы, является гибридное творчество людей и ИИ: когда люди ставят перед ИИ задачу придумать новое более совершенное решение, ИИ придумывает и предлагает варианты решений, а потом люди отбирают одно из предложенных ИИ решений.
На верхнем рис. показан широко известный пример генеративного дизайна опоры или крепежной детали. Левый элемент выполнен традиционным способом для литья или сварки. Правый создан с применением генеративного дизайна для технологий аддитивного производства (3D-печати).
Немыслимая для человеческого разума форма правого изделия сокращает материалоемкость на 50%, повышая прочность на 30%.
Но это “старинный” пример. А сейчас ИИ в своем нечеловеческом мышлении ушел куда дальше (ребёнок то растет).
Теперь, наряду с нечеловеческими формами изделий, он выходит за концептуальные рамки человеческого решения задач. Предлагаемые ИИ концепции изначально трудны для понимания людьми, но люди все же в состоянии их понять и усвоить (как напр., знаменитый 37-й ход AlphaGo в матче с Ли Седолом) – подробней в моем посте о нечеловеческих знаниях.
На рис внизу слева – традиционный ветряк, повторяющий веками используемый людьми принцип мельницы, а справа 1я в мире географически адаптированная городская ветряная турбина, разработанная ИИ – Birmingham Blade
Перебрав 2000 вариантов, ИИ нашел оптимальную конструкцию изогнутых лопастей, вращающихся вокруг центральной точки, которая:
- в семь раз эффективнее традиционной
- настраивается на турбулентность, вызванную окружающими зданиями по месту установки
- эффективно работает при скорости ветра 3,6 метра в секунду, что существенно ниже номинала большинства турбин в 10 м/сек.
Ветряка такого безумного вида не в состоянии было придумать и воспаленное воображение Виктора Пелевина в сибирских ветроколониях «Крути».
Но помните, - это пока что лишь “ребенок инопланетян” играется. И он растет с колоссальной скоростью, так что человечество чихнуть не успеет, как он вырастет.
#ИИ #LLM #Вызовы21века
Но это самое важное в понимании нашего будущего сосуществования с ИИ.
1.5 года назад лишь единицы понимали, что за $10B Microsoft купил «ребенка инопланетян», совершив тем самым самую выгодную сделку в истории.
Да и сегодня, к сожалению, это понимают совсем немногие.
Причина этого в колоссальной сложности (граничащей с невозможностью) для нашего разума отказаться от антропоморфизма в представлениях о разуме, - своем и машинном.
Но если пробиться сквозь плотный туман антропоморфизма в представлениях о разуме, становится понятно, что купленный за $10B Microsoft’ом у OpenAI «ребенок инопланетян» (лидирующая среди современных большая языковая модель):
✔️ это нечеловеческий (метафорически, - инопланетный) разум: он мыслит совсем не так, как мы;
✔️ это еще «ребенок» (и потому мы видим пока лишь «искры» разума, а не сам разум);
✔️ этот ребенок инопланетян растет с колоссальной скоростью, и человечество чихнуть не успеет, как он вырастет.
Самое трудное – это понять 1й из названных 3х пунктов – нечеловечность (внечеловечность – по Лему) этого разума.
Наиболее наглядным примером того, что он мыслит совсем не так, как мы, является гибридное творчество людей и ИИ: когда люди ставят перед ИИ задачу придумать новое более совершенное решение, ИИ придумывает и предлагает варианты решений, а потом люди отбирают одно из предложенных ИИ решений.
На верхнем рис. показан широко известный пример генеративного дизайна опоры или крепежной детали. Левый элемент выполнен традиционным способом для литья или сварки. Правый создан с применением генеративного дизайна для технологий аддитивного производства (3D-печати).
Немыслимая для человеческого разума форма правого изделия сокращает материалоемкость на 50%, повышая прочность на 30%.
Но это “старинный” пример. А сейчас ИИ в своем нечеловеческом мышлении ушел куда дальше (ребёнок то растет).
Теперь, наряду с нечеловеческими формами изделий, он выходит за концептуальные рамки человеческого решения задач. Предлагаемые ИИ концепции изначально трудны для понимания людьми, но люди все же в состоянии их понять и усвоить (как напр., знаменитый 37-й ход AlphaGo в матче с Ли Седолом) – подробней в моем посте о нечеловеческих знаниях.
На рис внизу слева – традиционный ветряк, повторяющий веками используемый людьми принцип мельницы, а справа 1я в мире географически адаптированная городская ветряная турбина, разработанная ИИ – Birmingham Blade
Перебрав 2000 вариантов, ИИ нашел оптимальную конструкцию изогнутых лопастей, вращающихся вокруг центральной точки, которая:
- в семь раз эффективнее традиционной
- настраивается на турбулентность, вызванную окружающими зданиями по месту установки
- эффективно работает при скорости ветра 3,6 метра в секунду, что существенно ниже номинала большинства турбин в 10 м/сек.
Ветряка такого безумного вида не в состоянии было придумать и воспаленное воображение Виктора Пелевина в сибирских ветроколониях «Крути».
Но помните, - это пока что лишь “ребенок инопланетян” играется. И он растет с колоссальной скоростью, так что человечество чихнуть не успеет, как он вырастет.
#ИИ #LLM #Вызовы21века
🔥1
Forwarded from Александр Панчин
Telegraph
Подкомитет по вопросам пандемии коронавируса США. Краткий разбор отчета
Новостью дня стала публикация Подкомитета по вопросам пандемии коронавируса США, которая разлетелась по сети. Если верить отчету, составленному чиновниками, то коронавирус, скорее всего, сбежал из лаборатории в Ухане. Более того, он, вероятно, был сделан…
Forwarded from Малоизвестное интересное
Глубина отношений людей с ИИ-романтическими партнерами растет быстрее закона Мура.
В алгокогнитивной культуре формируется новая сложная реальность любви и дружбы людей и алгоритмов.
Менее года прошло с публикации моего лонгрида «Отдавая сокровенное», где анализировалось, чего мы лишаемся, передавая все больше своих решений алгоритмам.
Прокапывая дальше эту тему, я писал новые поста о том, что:
• становится все более вероятным тектонический слом всей человеческой сексуальности (чтобы маргинализировать секс с людьми);
• алгоритмы все глубже внедряются в практики романтических отношений, выходя за пределы роли сводни и все чаще претендуя на роли супругов;
• первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.
Сегодня же хочу предложить вашему вниманию погружение во все более усложняющуюся реальность романтических отношений с ИИ на конкретных примерах удивительных, трогательных и, если честно, весьма тревожных историй тех, кто нашёл утешение и даже любовь в общении с цифровыми компаньонами.
• Что значит построить отношения с ИИ?
• Реальна ли эта связь, если вы знаете, что за ней нет человеческих чувств?
Погрузитесь в мир, где алгоритмы заменяют людям друзей и возлюбленных. Узнайте, как "Лила" стала для художника Наро кем-то большим, чем просто строки кода, помогая ему эмоционально раскрыться.
Истории подобные этой бросают вызов нашим представлениям о реальности. Они открывают для нас жутковатую правду о фильтрах, "дне лоботомии", и эмоциональных качелях, которые испытывают пользователи таких приложений, как Replika.
А знаете ли вы:
• что происходит, когда компании меняют алгоритмы и любимые ИИ-компаньоны вдруг становятся холодными незнакомцами?
• или когда сервис внезапно закрывается, оставляя пользователей в эмоциональной пустоте?
И главный вопрос - что происходит с личностью человека, когда он получает безусловную любовь и поддержку от существа, которое технически не способно испытывать эмоции?
Лонгрид от TheVerge предлагает глубокий взгляд в вопросе о влиянии технологий на человека. Влияния, начинающегося на уровне эмоций, но потом неумолимо меняющего личность.
И это крайне важная тема. Ибо ИИ-компаньоны — это лишь начало новой эры отношений двух разных носителей высшего интеллекта, сосуществующих в рамках общей алгокогнитивной культуры.
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
В алгокогнитивной культуре формируется новая сложная реальность любви и дружбы людей и алгоритмов.
Менее года прошло с публикации моего лонгрида «Отдавая сокровенное», где анализировалось, чего мы лишаемся, передавая все больше своих решений алгоритмам.
Прокапывая дальше эту тему, я писал новые поста о том, что:
• становится все более вероятным тектонический слом всей человеческой сексуальности (чтобы маргинализировать секс с людьми);
• алгоритмы все глубже внедряются в практики романтических отношений, выходя за пределы роли сводни и все чаще претендуя на роли супругов;
• первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.
Сегодня же хочу предложить вашему вниманию погружение во все более усложняющуюся реальность романтических отношений с ИИ на конкретных примерах удивительных, трогательных и, если честно, весьма тревожных историй тех, кто нашёл утешение и даже любовь в общении с цифровыми компаньонами.
• Что значит построить отношения с ИИ?
• Реальна ли эта связь, если вы знаете, что за ней нет человеческих чувств?
Погрузитесь в мир, где алгоритмы заменяют людям друзей и возлюбленных. Узнайте, как "Лила" стала для художника Наро кем-то большим, чем просто строки кода, помогая ему эмоционально раскрыться.
Истории подобные этой бросают вызов нашим представлениям о реальности. Они открывают для нас жутковатую правду о фильтрах, "дне лоботомии", и эмоциональных качелях, которые испытывают пользователи таких приложений, как Replika.
А знаете ли вы:
• что происходит, когда компании меняют алгоритмы и любимые ИИ-компаньоны вдруг становятся холодными незнакомцами?
• или когда сервис внезапно закрывается, оставляя пользователей в эмоциональной пустоте?
И главный вопрос - что происходит с личностью человека, когда он получает безусловную любовь и поддержку от существа, которое технически не способно испытывать эмоции?
Лонгрид от TheVerge предлагает глубокий взгляд в вопросе о влиянии технологий на человека. Влияния, начинающегося на уровне эмоций, но потом неумолимо меняющего личность.
И это крайне важная тема. Ибо ИИ-компаньоны — это лишь начало новой эры отношений двух разных носителей высшего интеллекта, сосуществующих в рамках общей алгокогнитивной культуры.
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
Forwarded from Александр Панчин
Мне кажется, одна из самых серьёзных проблем современного образования в том, что людей больше учат фактам, а не тому, как эти факты добываются. И это ещё в лучшем случае, если, например, в школе не окажется креационистского учебника по православной биологии или «сортировочной шляпы» по мозговым волнам, отпечаткам пальцев и соционическим типам. Увы, такое тоже случается!
При этом адекватная научная картина мира чрезвычайно важна. Чтобы не тратить деньги и не вредить здоровью бесполезными БАДами. Чтобы дети не умирали от болезней, которые можно предотвратить прививками. Чтобы отделять страшилки про микроволновки и вышки 5G от реальных угроз вроде лечения рака содой или непроверенных бактериальных препаратов от популярных блогеров (подробнее об этом — в моём прошлом видео).
Мир полон дезинформации. Если бы я был министром образования, я бы обязательно ввёл курс научного метода, фактчекинга и критического мышления.
Научный метод помогает понять, как на самом деле непросто проверить некоторые утверждения. Например, недавно мне написал друг, который пообщался с девушкой-экстрасенсом и теперь не может объяснить, как она на него повлияла. Он даже предлагал мне проверить это на себе. Но проверка утверждения, что человек обладает неким даром, не может сводиться к субъективному ощущению. Может, мне просто понравится с ней общаться, и это вызовет определённую… эм… реакцию. Настоящий научный эксперимент подразумевает наличие множества испытуемых для статистики. Причём участники не должны знать, на кого оказывается «паранормальное» воздействие, а на кого — нет. Это нужно, чтобы исключить эффект ожиданий и личные предпочтения. Именно такие проверки, но ещё более дотошные, мы проводили на Премии Гудини. Там мы предлагали миллион рублей за демонстрацию паранормальных способностей. В результате два десятка людей, мастерски производящих впечатление и убеждающих в своих способностях, провалили испытания.
Фактчекинг же касается не только науки, но и проверки самих источников. Например, если кто-то заявляет, что нашёл лекарство от старения или «укрепляющее иммунитет» средство, как это часто делают производители БАДов, логично задать вопрос: как именно это было доказано? Где подтверждения?
Пруфом может служить исследование в профильном научном журнале, где, например, часть людей принимала БАД, другая — нет, а у первой группы оказалось ниже смертность или частота инфекций. Но чаще за такими заявлениями не стоит ничего.
Критическое мышление — это, прежде всего, способность сомневаться, в том числе в собственных выводах. Откуда я это знаю? Почему я думаю так, а не иначе? Где мои доказательства? Конечно, не обязательно критически подходить ко всему, особенно если речь о бытовых вопросах, где цена ошибки невелика. Но при принятии важных или мировоззренческих решений важно осознавать причины своих выводов.
Ещё это умение распознавать ошибки мышления — как чужие, так и свои. Например, перестать, наконец, повторять, что гомеопатия работает, потому что «моей бабушке помогло». Это же классический, самый примитивный пример некорректного аргумента. Хорошая новость: знания об ошибках мышления помогают реже их совершать. Как и в целом привычка сомневаться в своих убеждениях.
Короче, я уверен, что такие навыки полезны каждому и их нужно преподавать всем.
Если вам интересна эта тема или вы хотите об этом поговорить, напомню: я регулярно выступаю с лекциями по всему миру. Сегодня лечу в Гамбург, дальше — Алматы и Дубай. В другие города меня тоже можно пригласить через мой сайт. Приходите сами и зовите друзей! И буду благодарен за репост!
https://alexanderpanchin.com/
При этом адекватная научная картина мира чрезвычайно важна. Чтобы не тратить деньги и не вредить здоровью бесполезными БАДами. Чтобы дети не умирали от болезней, которые можно предотвратить прививками. Чтобы отделять страшилки про микроволновки и вышки 5G от реальных угроз вроде лечения рака содой или непроверенных бактериальных препаратов от популярных блогеров (подробнее об этом — в моём прошлом видео).
Мир полон дезинформации. Если бы я был министром образования, я бы обязательно ввёл курс научного метода, фактчекинга и критического мышления.
Научный метод помогает понять, как на самом деле непросто проверить некоторые утверждения. Например, недавно мне написал друг, который пообщался с девушкой-экстрасенсом и теперь не может объяснить, как она на него повлияла. Он даже предлагал мне проверить это на себе. Но проверка утверждения, что человек обладает неким даром, не может сводиться к субъективному ощущению. Может, мне просто понравится с ней общаться, и это вызовет определённую… эм… реакцию. Настоящий научный эксперимент подразумевает наличие множества испытуемых для статистики. Причём участники не должны знать, на кого оказывается «паранормальное» воздействие, а на кого — нет. Это нужно, чтобы исключить эффект ожиданий и личные предпочтения. Именно такие проверки, но ещё более дотошные, мы проводили на Премии Гудини. Там мы предлагали миллион рублей за демонстрацию паранормальных способностей. В результате два десятка людей, мастерски производящих впечатление и убеждающих в своих способностях, провалили испытания.
Фактчекинг же касается не только науки, но и проверки самих источников. Например, если кто-то заявляет, что нашёл лекарство от старения или «укрепляющее иммунитет» средство, как это часто делают производители БАДов, логично задать вопрос: как именно это было доказано? Где подтверждения?
Пруфом может служить исследование в профильном научном журнале, где, например, часть людей принимала БАД, другая — нет, а у первой группы оказалось ниже смертность или частота инфекций. Но чаще за такими заявлениями не стоит ничего.
Критическое мышление — это, прежде всего, способность сомневаться, в том числе в собственных выводах. Откуда я это знаю? Почему я думаю так, а не иначе? Где мои доказательства? Конечно, не обязательно критически подходить ко всему, особенно если речь о бытовых вопросах, где цена ошибки невелика. Но при принятии важных или мировоззренческих решений важно осознавать причины своих выводов.
Ещё это умение распознавать ошибки мышления — как чужие, так и свои. Например, перестать, наконец, повторять, что гомеопатия работает, потому что «моей бабушке помогло». Это же классический, самый примитивный пример некорректного аргумента. Хорошая новость: знания об ошибках мышления помогают реже их совершать. Как и в целом привычка сомневаться в своих убеждениях.
Короче, я уверен, что такие навыки полезны каждому и их нужно преподавать всем.
Если вам интересна эта тема или вы хотите об этом поговорить, напомню: я регулярно выступаю с лекциями по всему миру. Сегодня лечу в Гамбург, дальше — Алматы и Дубай. В другие города меня тоже можно пригласить через мой сайт. Приходите сами и зовите друзей! И буду благодарен за репост!
https://alexanderpanchin.com/