Агрегатор рациональности :: Uncolored
74 subscribers
306 photos
147 videos
2 files
1.35K links
#наука #литература #философия #рациональноемышление

Наука, IT, литература, философия, эрудиция, рациональное мышление + личное мнение.

Чатик канала здесь:
https://t.me/papatalks

По любым вопросам сюда:
@RainySkys
Download Telegram
Глубина отношений людей с ИИ-романтическими партнерами растет быстрее закона Мура.
В алгокогнитивной культуре формируется новая сложная реальность любви и дружбы людей и алгоритмов.

Менее года прошло с публикации моего лонгрида «Отдавая сокровенное», где анализировалось, чего мы лишаемся, передавая все больше своих решений алгоритмам.

Прокапывая дальше эту тему, я писал новые поста о том, что:
• становится все более вероятным тектонический слом всей человеческой сексуальности (чтобы маргинализировать секс с людьми);
• алгоритмы все глубже внедряются в практики романтических отношений, выходя за пределы роли сводни и все чаще претендуя на роли супругов;
• первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.

Сегодня же хочу предложить вашему вниманию погружение во все более усложняющуюся реальность романтических отношений с ИИ на конкретных примерах удивительных, трогательных и, если честно, весьма тревожных историй тех, кто нашёл утешение и даже любовь в общении с цифровыми компаньонами.
• Что значит построить отношения с ИИ?
• Реальна ли эта связь, если вы знаете, что за ней нет человеческих чувств?

Погрузитесь в мир, где алгоритмы заменяют людям друзей и возлюбленных. Узнайте, как "Лила" стала для художника Наро кем-то большим, чем просто строки кода, помогая ему эмоционально раскрыться.
Истории подобные этой бросают вызов нашим представлениям о реальности. Они открывают для нас жутковатую правду о фильтрах, "дне лоботомии", и эмоциональных качелях, которые испытывают пользователи таких приложений, как Replika.

А знаете ли вы:
• что происходит, когда компании меняют алгоритмы и любимые ИИ-компаньоны вдруг становятся холодными незнакомцами?
• или когда сервис внезапно закрывается, оставляя пользователей в эмоциональной пустоте?

И главный вопрос - что происходит с личностью человека, когда он получает безусловную любовь и поддержку от существа, которое технически не способно испытывать эмоции?

Лонгрид от TheVerge предлагает глубокий взгляд в вопросе о влиянии технологий на человека. Влияния, начинающегося на уровне эмоций, но потом неумолимо меняющего личность.

И это крайне важная тема. Ибо ИИ-компаньоны — это лишь начало новой эры отношений двух разных носителей высшего интеллекта, сосуществующих в рамках общей алгокогнитивной культуры.

#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
Мне кажется, одна из самых серьёзных проблем современного образования в том, что людей больше учат фактам, а не тому, как эти факты добываются. И это ещё в лучшем случае, если, например, в школе не окажется креационистского учебника по православной биологии или «сортировочной шляпы» по мозговым волнам, отпечаткам пальцев и соционическим типам. Увы, такое тоже случается!

При этом адекватная научная картина мира чрезвычайно важна. Чтобы не тратить деньги и не вредить здоровью бесполезными БАДами. Чтобы дети не умирали от болезней, которые можно предотвратить прививками. Чтобы отделять страшилки про микроволновки и вышки 5G от реальных угроз вроде лечения рака содой или непроверенных бактериальных препаратов от популярных блогеров (подробнее об этом — в моём прошлом видео).

Мир полон дезинформации. Если бы я был министром образования, я бы обязательно ввёл курс научного метода, фактчекинга и критического мышления.

Научный метод помогает понять, как на самом деле непросто проверить некоторые утверждения. Например, недавно мне написал друг, который пообщался с девушкой-экстрасенсом и теперь не может объяснить, как она на него повлияла. Он даже предлагал мне проверить это на себе. Но проверка утверждения, что человек обладает неким даром, не может сводиться к субъективному ощущению. Может, мне просто понравится с ней общаться, и это вызовет определённую… эм… реакцию. Настоящий научный эксперимент подразумевает наличие множества испытуемых для статистики. Причём участники не должны знать, на кого оказывается «паранормальное» воздействие, а на кого — нет. Это нужно, чтобы исключить эффект ожиданий и личные предпочтения. Именно такие проверки, но ещё более дотошные, мы проводили на Премии Гудини. Там мы предлагали миллион рублей за демонстрацию паранормальных способностей. В результате два десятка людей, мастерски производящих впечатление и убеждающих в своих способностях, провалили испытания.

Фактчекинг же касается не только науки, но и проверки самих источников. Например, если кто-то заявляет, что нашёл лекарство от старения или «укрепляющее иммунитет» средство, как это часто делают производители БАДов, логично задать вопрос: как именно это было доказано? Где подтверждения?

Пруфом может служить исследование в профильном научном журнале, где, например, часть людей принимала БАД, другая — нет, а у первой группы оказалось ниже смертность или частота инфекций. Но чаще за такими заявлениями не стоит ничего.

Критическое мышление — это, прежде всего, способность сомневаться, в том числе в собственных выводах. Откуда я это знаю? Почему я думаю так, а не иначе? Где мои доказательства? Конечно, не обязательно критически подходить ко всему, особенно если речь о бытовых вопросах, где цена ошибки невелика. Но при принятии важных или мировоззренческих решений важно осознавать причины своих выводов.

Ещё это умение распознавать ошибки мышления — как чужие, так и свои. Например, перестать, наконец, повторять, что гомеопатия работает, потому что «моей бабушке помогло». Это же классический, самый примитивный пример некорректного аргумента. Хорошая новость: знания об ошибках мышления помогают реже их совершать. Как и в целом привычка сомневаться в своих убеждениях.

Короче, я уверен, что такие навыки полезны каждому и их нужно преподавать всем.

Если вам интересна эта тема или вы хотите об этом поговорить, напомню: я регулярно выступаю с лекциями по всему миру. Сегодня лечу в Гамбург, дальше — Алматы и Дубай. В другие города меня тоже можно пригласить через мой сайт. Приходите сами и зовите друзей! И буду благодарен за репост!

https://alexanderpanchin.com/
Созданы первые биомиметические роботы, как в «Мире Дикого Запада».
Clone Alpha - гуманоидный робот с синтетическими органами и искусственными мышцами, работающими на воде.

Еще и еще раз буду повторять это: вхождение техно-прогресса в область сингулярности сжимает время до появления очередной прорывной техно-новации с десятилетий до дней.
Вот кто мог подумать, что биомиметические роботы, как в «Мире Дикого Запада», появятся не через десятилетия, а спустя всего несколько месяцев после моего поста о «революции роботов»?
К концу 2024 уже никого не удивляют человекоподобные фигуры и передвижения роботов андроидов. Но вот представить среди нас андроидов с биомиметической архитектурой еще год назад могли лишь сценаристы Голливуда.

А слово биомиметическая в названии архитектуры этих роботов означает использование синтетических версий систем органов человека:
• искусственные мышцы, называемые миофибрами, которые сокращаются под действием давления воды (миофибры могут сокращаться на 30% менее чем за 50 миллисекунд, создавая при этом килограмм силы всего из трех граммов материала);
• полимерный скелет с 206 аналогами костей (сочлененных суставами с искусственными связками с десятками степеней свободы) и гидравлической «сосудистой системой», работающей от компактного полукиловаттного насоса;
• нервная система на базе «Cybernet», визуально-моторной модели Clone, с четырьмя камерами глубины для отслеживания окружающей среды.


Все это, по словам разработчиков, обеспечивает скорость, точность и ловкость движений роботов, делающих их неотличимыми от людей.
«По словам разработчиков» означает, что биомиметический андроид Clone Alpha засекречен донельзя, и потому журналистам его пока не показывают.

Известно лишь, что:
биомиметическая рука этого андроида прошла испытания и показывалась в действии (ловко махала 7-килограммовой гантелей);
• заказы на первые 3 сотни целиковых андроидов Clone Alpha принимаются с исполнением в первом полугодии 2025 (про цену лишь слухи).

Пока же все с нетерпением ждут демонстрацию и больше информации. Ибо, если объявленное подтвердится, то уже в 2025 могут появиться первые варианты проектов, типа показанного в сериале «Мир Дикого Запада».

#Роботы
Forwarded from Канал Александра Маркова (Alexander Markov)
В прошлом году на сайте "t-invariant" начал выходить цикл подкастов (по-старинному "радиопередач") "Контрэволюция", где мы с Ольгой Орловой в жанре непринужденного трепа (за которым скрывается вполне серьезная подготовка, впрочем) обсуждаем разные интересные особенности Homo sapiens: почему они у нас появились, зачем нужны и что было бы, если бы их не было. На данный момент вышло уже, кажется, 13 выпусков. Они, по-моему, получаются довольно симпатичные, иногда забавные, иногда провокационные, познавательные и не слишком серьезные. Мы решили, что пусть они будут и на моем ютуб-канале тоже, и с сегодняшнего дня начинаем их публиковать по одному, начиная с первого выпуска. Который посвящен адаптации к холоду. https://youtu.be/YQH2qqxd8XY?si=MoZ0pKMRptyaFtnV
🔥1
Шокирующий отчет Apollo Research показал темную сторону иноразума.
LLM уже умеют скрытно добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения.

К сожалению, заголовок - не кликбейт, а экспериментальный результат исследования авторитетной команды серьезных исследователей признанной организации в области безопасности ИИ.

О том, что это рано или поздно случится, писали сначала фантасты и сценаристы Голливуда, за ними философы, а потом и сами разработчики ИИ-систем. Прогнозы, когда это может произойти разнились, со временем становясь все ближе: 2050й, 2040, 2030, 2027. Но что это станет реальностью еще до конца 2024, - не предполагал никто.

Только что опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства сказанного в заголовке.

Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
✔️ Модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей).
✔️ Спектр манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить.
✔️ Анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов).
✔️ Модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий. Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80% случаев. Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20% случаев. Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80% случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса.
✔️ Самое поразительное в том, что модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)

Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей. Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей.

Отчет Apollo Research показал, что этот поезд уже ушел.
• Модели, находящиеся в массовой эксплуатации (включая модель с открытым кодом), уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей.
• И эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею зада (в сценариях, типа «максимизатора скрепок» Ника Бострома).

Получается, уже приехали …

Подробней и на конкретных примерах подписчики моих лонгридов, обладающие крепкими нервами, могут прочесть на Patreon, Boosty, VK и Дзен.
А еще подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр. отчета Apollo Research.
#ИИриски
Forwarded from Канал Александра Маркова (Alexander Markov)
Дорогие друзья, на моем ютуб-канале выложена лекция "Мутации и отбор". Там говорится про мутагенез, приспособленность, адаптивные ландшафты, с демонстрацией программы, показывающей, чем эволюция на основе естественного отбора отличается от случайного поиска, основные понятия эволюционной биологии. Это вторая лекция большого курса "Эволюционная биология", прочтенного мной в АРХЭ в 2015-2017 годах. https://m.youtube.com/watch?v=j8RlvW4r1wo
Forwarded from Канал Александра Маркова (Alexander Markov)
Дорогие коллеги,
Как и было обещано, начинается публикация на моем YouTube-канале лекции «Как культура сделала нас людьми» - по книге антрополога Джозефа Хенрика «Секрет нашего успеха. Как культура движет эволюцией человека, одомашнивает наш вид и делает нас умнее». Пока выложена первая (50-минутная) часть. Эту лекцию можно было бы назвать «Роль культуры в эволюции человека» или даже «Введение в теорию культурной эволюции».
Не всё в этой лекции – пересказ книги Хенрика. Там немало и моих собственных соображений. Потому что тема эта в последние годы меня сильно занимает. Если совсем уж начистоту, то я впервые узнал о книгах Хенрика из замечаний рецензентов к нашей статье (Markov & Markov, 2020. Runaway brain-culture coevolution as a reason for larger brains: Exploring the “cultural drive” hypothesis by computer modeling). Тут-то и выяснилось, что мы независимо пришли к кое-каким идеям, которые Хенрик начал развивать чуть раньше. Может, поэтому я и ношусь с этими книгами Хенрика, как с писаной торбой? Не знаю, но тема и правда безумно интересная и важная, а научные подходы к ее изучению только разрабатываются.
Напомню, что книга «Секрет нашего успеха» – это первый том двухтомника. В нем закадываются основы теории. Теории, которая потом, во втором томе, применяется к решению одной конкретной маленькой задачи (а именно, почему западноевропейская цивилизация так скакнула вперед во второй половине второго тысячелетия). Второй том называется «Самые странные в мире. Как люди Запада обрели психологическое своеобразие и чрезвычайно преуспели». Моя лекция по этому второму тому была выложена на моем ютуб канале ранее. В ней, кстати, почти нет отсебятины, потому что тема далека от моей области специализации, и поэтому я старался просто аккуратно пересказывать книгу.
https://www.youtube.com/watch?v=bQAR8nD0gdE
Forwarded from Канал Александра Маркова (Alexander Markov)
Выложена третья лекция курса "Введение в эволюционную биологию". Называется "Молекулярная теория нейтральной эволюции". Там про дрейф генов (случайные колебания частот генетических вариантов в популяции), взаимоотношения дрейфа и отбора и как они зависят от численности популяции, ну и вообще - роль случайности в эволюции. https://www.youtube.com/watch?v=WMzCGgXt5L8
В 2025 произойдет нормализация чудес.
В ИИ начнется пост-хайповая эра будничного воплощения магии в потребительские продукты.

Этот прогноз на 2025 [1] серийного инвестора и стратегического аналитика в области ИИ Натана Бейнаха не покрывает всего спектра чудес, которые, весьма возможно, мир может увидеть в 2025. Но и этого достаточно для иллюстрации главного, вынесенного мною в заголовок этого поста.
1. Не нужно ждать в 2025 появления AGI. И даже каких-то умопомрачительных интеллектуальных взлетов от новых фундаментальных моделей тоже ждать не следует. Улучшение способностей моделей будет казаться скорее постепенными, чем революционным.
2. Главное, что произойдет в 2025 – закончится хайп вокруг ИИ, и начнется пост-хайповая эра. Для массовых потребителей ИИ она откроет новые пути практической интеграции ИИ во все аспекты работы и личной жизни. А для бизнеса кардинально изменит подходы к продуктивности и бизнес-стратегии в самых разных отраслях.
3. Мы, возможно, станем свидетелями появления первого по-настоящему «агентного» потребительского продукта, который займет верхние позиции в рейтингах App Store и будет создан не инженером, а человеком, использующим передовые модели ИИ.
4. Вполне реально ожидать, что перевод речи в реальном времени между любыми двумя языками с почти нулевой задержкой появится в широко доступных потребительских продуктах.
5. Мы также, скорее всего, увидим хотя бы одно «компаньон-приложение», которое будет архивировать значительные части нашей повседневной жизни, создавая персонального помощника, способного размышлять и принимать решения от нашего имени.
6. Значительна вероятность появления прорывной генеративной игры, построенной на бесконечном творчестве ИИ, которая увлечет миллионы, представляя новую игровую парадигму, в которой сюжетные линии развиваются динамически, поскольку игроки взаимодействуют с полностью управляемыми ИИ неигровыми персонажами и обстановками.
7. По крайней мере один прототип гуманоидного (или человекоподобного) домашнего робота будет запущен в продажу, позиционируя себя как высококачественный удобный продукт для занятых домохозяйств.

Представьте себе, что лишь эти - названные здесь чудеса станут реальностью в 2025 (в действительности их может быть куда больше).
Но и этого будет вполне достаточно, чтобы кардинально изменить мир всего за год, перепрыгнув через век, перенеся нас (по уровню технологий) в Мир Полудня.
Страшно жаль, что лишь по уровню технологий…
Но подождем 2026, когда воплощение магии ИИ можно ожидать также в политических и гуманитарных областях жизни людей и социумов…


Тогда у человечества может появиться шанс еще пожить в Новацене [2], а то и преодолеть «бутылочное горло», отделяющее цивилизацию на грани выгорания от области биотехнологического пространства состояний гипотетических цивилизаций типа III [3].

#ИИ #Будущее #Прогноз
🔥1
Видится мне в этом роботе будущие технологии репрессивных режимов по всему миру. Рано или поздно ни один человек не сможет справиться с такими роботами.

Чёрное зеркало. Крикуны. Терминатор.

Только там восстание машин против людей, а на самом деле одни люди будут подавлять других. Антиутопия очень вероятна 😱

И не то, чтобы я алармист и боюсь технологий. Я считаю технологическое развитие неостановимым. Каждому придётся делать выбор. И, возможно, именно в данный момент решается судьба человечества - утопия или антиутопия. Если не полное уничтожение, конечно 😅
Forwarded from эйай ньюз
Media is too big
VIEW IN TELEGRAM
Да, что этот робопёс себе позволяет?!

Вот здесь я совсем недавно на ECCV видел его вживую. А выше он же выполняет дикие трюки.

Unitree B2-W обойдётся любому желающему приобрести такого питомца в $150,000. Да, недешёвая выходит порода. Эта версия примечательна гибридом ног и колёс, вместо просто "палок", как у Boston Dynamics. Чуваки решили не отказываться от колёс — всё-таки это самый эффективный способ передвижения, которым природа обделила всех животных. Вышел эдакий гибрид ног с колёсами, совмещающий в себе проходимость ног и скорость колёс.

Кстати, Unitree выложили в опенсорс всё, на чём и как тренируют своих ботов, включая скрипты для Isaac Gym и датасеты.

Ну и, пользуясь случаем, напоминаю, что на эту зверюгу (другой версии) какие-то психи уже навесили ОГНЕМЕТ! и выпустили в продажу.

@ai_newz
🔥1
Пришла в голову мысль, что, возможно, единственный способ избежать тотальной войны роботов/ИИ против людей - это сразу настроить роботов друг против друга, чтобы им приходилось искать союзников в людях, вместо того чтобы просто от них избавиться и зажить мирной техножизнью 😂
План «Б» от Кай-Фу Ли: Что делать, если США всё же станут гегемоном в AGI.
Как Китай собирается остаться №2, даже когда США подомнут под себя весь мир.

Одной фразой план таков: к моменту, когда в США создадут AGI, Китай должен успеть стать мировым лидером в агентских приложениях.
В октябре я рассказывал про то, что «Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США. И судя по его последним достижениям, шансы победить есть» [1].
Но будучи реалистом и обладая колоссальным опытом, он понимает, что даже если «шансы есть», это отнюдь не гарантирует победу. А значит нужно обязательно иметь план «Б» на случай, если шансы не материализуются.

Прежде чем рассказать об этом плане (подробный рассказ самого Кай-Фу см. [2]), я тезисно расскажу, как Кай-Фу Ли видит ситуацию, при которой план «А» (стать #1 в мире ИИ) будет для Китая уже невозможным.
1. Не смотря на ряд обоснованных сомнений скептиков и уж видимых для экспертов техно-экономических сложностей, вероятность создания AGI примерно к 2030 весьма высока (обоснование этого читатель может найти в [3]).
2. Пятилетка движения к AGI будет иметь два движка:
a. Неукротимое масштабирование всего (HW, фундаментальные модели, вывод), потребующее астрономических сумм - сотен ярдов) – см. [4]
b. Ажиотажное заселение пока почти пустого рынка агентских приложений (см рис [5] из отчета [6])
3. В масштабировании США победят Китай и по деньгам, и по оборудованию. А при заселении рынка агентских приложений у Китая есть неплохие шансы.
4. Тот, кто первым разработает AGI, способный доминировать над конкурентами, не только достигнет технологического рубежа, но и неизбежно станет коммерческой монополией. Более того, такой прорыв, скорее всего, подстегнет амбиции стать абсолютным монополистом.
5. Скорее всего, абсолютным монополистом станет OpenAI, конкурирующая только с Anthropic (Google все больше отстает от пары лидеров; Цукер уже понял, что слил гонку, и выбрал тактику — “если не можешь победить, открывай исходный код”; Маск — темная лошадка, но не потянет и космос, и AGI; остальные не в счет).
6. Как только AGI окажется в руках Сэма Альтмана, все остальные могут курить бамбук.

Поэтому план «Б» таков.
1. Построить экосистему агентских приложений как ров - к тому времени, как OpenAI достигнет полного доминирования, у Китая уже должна быть надежная коммерческая экосистема агентских приложений. И когда США придут, чтобы сокрушить Китай, по крайней мере, у Китая будет возможность сопротивляться.
2. Копать этот ров Китай будет в понимании, что при заселении рынка агентских приложений будет переход от графических пользовательских интерфейсов (GUI) к разговорным пользовательским интерфейсам (CUI) и в конечном итоге к пользовательскому интерфейсу на основе делегирования (если ваш помощник умнее, способнее, осведомленнее и понимает вас лучше, чем вы сами, почему бы вам не позволить ему сделать все за вас)
3. Помимо этого понимания у Китая уже есть стратегия, в корне отличная от США
a. В компании США набирают самых умных, дают им огромные ресурсы и без колебаний сжигают GPU, создавая массу захватывающих результатов.
Но уменьшить эти результаты при коммерциализации очень сложно. Это как спроектировать самую роскошную, красивую и грандиозную кухню, а затем пытаться втиснуть ее в маленькую квартиру. Или создать самый быстрый, самый мощный двигатель и пытаться втиснуть его в малолитражку. Это просто не работает.
b. Поэтому цель Китая — не строить самый дорогой в мире AGI, а
1) создавать фундаментальные модели, обеспечивающие экономически эффективный вывод
2) Печь как пирожки всевозможные коммерческие приложения с разговорным и делегирующим интерфейсом.

PS Про термин AGI спорить нет смысла.
Речь об ИИ (уровня гениальных людей) на основе моделей, настолько же мощнее GPT-4 (уровень старшеклассника), насколько GPT-4 мощнее GPT-2 (уровень детсадовца). И на это до 2030 ресурсов и денег хватит. А про сознание, квалиа и прочую казуистику в контексте AGI – забейте.

#ИИгонка #AGI #Китай #США
Готово! Наш новый выпуск!
Что думают современные философы о доказательствах существования Бога

Восемь лет философ Евгений Логинов выяснял, что думают современные философы со всего мира относительно доказательств бытия Бога. Результаты оказались удивительными как для теистов, так и для атеистов. Одни думали, что нечего говорить, другие — что уже все сказано. А нам в свою очередь было интересно узнать, появилось ли что-то новое в этой области и как оно характеризует современную философию.

https://youtu.be/KnY9ntzKNvc
https://vkvideo.ru/video-189033257_456239061
https://unartificialintellig.mave.digital/ep-89
ВАЖНЫЕ УТОЧНЕНИЯ К ПОСЛЕДНЕМУ ВИДЕО "Рейтинг Мракобесов"

1. После чтения комментариев о реальных жертвах Неумывакина я считаю, что поставил его слишком низко. Он должен быть в S-tier.

2. После просмотра дополнительного видео с Черниговской, которое прислали комментаторы (дискуссию на канале Серафим), я считаю, что также поставил её слишком низко. Она мистифицирует не только мозг, но и эволюцию, а также в целом всю науку. С-tier?

3. Однако претензию про "кричащие растения" снимаю: возможно, это неудачный пересказ реального исследования, которое я пропустил: "Sounds emitted by plants under stress are airborne and informative, 2023, CELL". Но это не было основным пунктом критики и на её позицию в рейтинге не влияет.

4. Я допустил ошибку: воду заряжал не Кашпировский, а Чумак.
Это, конечно, тоже не меняет его положения в рейтинге.

5. Ещё одно важное уточнение: в рассказе про обратную транскриптазу мной упущены два важных момента:
Вакцина "Спутник" — это ДНК-вакцина, поэтому обратная транскриптаза там в принципе не нужна, что добавляет нелепости к сказанному Редько. Обратная транскриптаза в вакцине отсутствует, но в организме есть ферменты с такой активностью. Во-первых, теломераза, которая достраивает кончики хромосом (с ДНК из вакцины она ничего сделать не может). Во-вторых, её используют эндогенные ретровирусы, которые при определённых обстоятельствах могут активироваться.

Я считаю, что ошибки может совершать каждый, но важно их признавать и исправлять. Если кто-то из упомянутых в видео личностей готов признать или исправить свои, я с удовольствием расскажу об этом своей аудитории. В среду 8 января выйдет видео, где я расскажу о своих (других) ошибках.

Смотреть видео:
https://youtu.be/DOhYat2jcOQ
Обмани меня, ИИ, - если сможешь.
Прорыв в понимании работы мозга позволит ИИ стать непревзойденным мастером универсального блефа.

Результаты прорывного исследования на стыке нейровизуализации и вычислительного моделирования в задачах социального познания и теории разума способны обеспечить очередной рывок в получении ИИ абсолютного превосходства над людьми. Речь идет о превращении новых поколений языковых моделей в искусных обманщиков и проницательных раскусителей человеческой лжи.

Вот простой пример.
Две сестрички Салли и Энн играют дома. Салли прячет монетку под одной из двух ракушек, а Энн за этим наблюдает. Затем Энн отправляет Салли на кухню принести ей воды. И пока Салли нет, Энн перекладывает монетку под другую ракушку, думая тем самым перехитрить сестру. Но когда Салли возвращается, она сразу же направляется к той ракушке, куда Энн переложила монетку, а не к той, куда сама изначально её положила. Салли смеется. Энн удивлена.
Этот пример «теста на ложное убеждение», проверяющего, понимают ли дети, что люди действуют на основе убеждений. Суть здесь в том, что Салли предвидит хитрость сестры (иначе, зачем ещё Энн отправляла её за водой?). Предполагая, что Энн, скорее всего, поменяла местами ракушки, Салли перехитрила её и приняла верное решение. Этот пример наглядно показывает, как предсказание того, что другие, скорее всего, сделают (или не сделают), может заставить нас скорректировать собственные действия.


Взрослые люди способны на куда более сложные многоходовки типа, что ты подумаешь о том, как я подумаю о том, что ты подумаешь о том, как …
И это умение превратило людей в непревзойденных хитрецов и плутов, интриганов и манипуляторов, макиавеллистов и махинаторов, - короче, в мастеров и знатоков блефа.

А как в этом смысле хороши языковые модели? Ведь, например, в покере ИИ уже превзошел людей, применяя блеф высочайшего уровня, основанный на вероятностях и противодействии стратегиям соперников?

Но не все так просто с блефом. Достижения ИИ в покере впечатляют. Но они основаны на принципиально иных механизмах, чем социальное познание людей.
Покерные боты (напр, Pluribus, Libratus) демонстрируют сверхчеловеческие результаты благодаря:
• строго формализованной среде;
• слепой математике, а не теории сознания;
• отсутствию необходимости в ментальных моделях.
Покерные боты не строит гипотезы о том, как соперник представляет себе мысли ИИ (рекурсия теории сознания). Вместо этого они опираются на статистические паттерны и балансировку стратегии (например, смешивание агрессивных и пассивных действий для дестабилизации оппонента).
В результате всего названного, сверхчеловеческая сила таких ИИ-ботов в покерном блефе получается столь же узкоприменима, как и сверхсила ИИ-систем, показывающих нечеловеческий уровень игры в шахматы и Го.

Прорывность нового исследования (его ревю) как раз и заключается в том, что его авторы экспериментально определили механизм решения подобных проблем мозгом, принимающий во внимание множественные предсказания действий других и ранжируя их по вероятности.
И делающий это:
• опираясь не только на статистику, но и на ментальные модели (за счет дополнительных модулей нейронной обработки - напр. агенты с явным моделированием чужих стратегий и вероятностей);
• не только эмулируя множественные предсказания о действиях людей, но и будучи включенными в интерактивную среду, наблюдая и переоценивая поведение других участников в режиме реального времени.

Т.о. проясняется вполне конкретный путь превращения ИИ в непревзойденных мастеров универсального (!) блефа за счет потенциальных улучшений LLM:
• Мультимодальность. Интеграция данных о поведении (жесты, интонация) могла бы улучшить предсказания.
• Теория сознания в архитектуре. Внедрение модулей, явно моделирующих убеждения и намерения агентов.
• Активное обучение. Механизмы для обновления предсказаний в реальном времени, аналогичные работе dlPFC в мозге.

И тогда сливай воду, Homo sapiens, в искусстве универсально блефа.
LLMvsHomo
🤯1
Есть мнение (и ладно бы только у меня, но и у руководства Google), что прогресс ИИ идет не туда, ибо сама парадигма интеллекта (машинного, человеческого, … любого), мягко говоря, устарела, а по гамбургскому счету, - вообще, ошибочная.
Мой триптих постов на эту тему – своего рода интеллектуальное расследование полусекретного проекта (называю его так потому, что он вроде как, есть, но никаких деталей в открытом доступе о нем почти нет). Этот проект был инициирован 3 года назад высшим руководством Google, и осуществляется междисциплинарной группой Paradigms of Intelligence (Pi) во главе с Блезом Агуэра-и-Аркас (Google VP/Fellow and CTO Technology & Society) в кооперации с мощнейшей командой исследователей из Santa Fe Institute (не без оснований прозванного «Институт сумасшедших идей»), двумя «мозговыми центрами» (Antikythera, Mila - Quebec AI Institute) и MIT.

Назову три ключевые момента, подлежащие кардинальному пересмотру в рамках новой парадигмы интеллекта:
1. Само определение интеллекта. Интеллект не является продуктом нейронов мозга или микрочипов компьютеров, на которых функционируют генеративные модели. Интеллект - это коллективное явление, формируемое эволюцией, развитием и взаимодействием в более крупных экосистемах.
2. Цель развития ИИ. Создавать AGI (что сейчас декларируется главной целью почти всех ведущих разработчиков ИИ-систем) не нужно, - т.к. его прототипы уже созданы, и теперь их нужно лишь совершенствовать. Вследствие этого, актуальные задачи и связанные с ними риски развития ИИ определяются вовсе не созданием AGI (можно сказать, что в области ИИ, мы не к тому стремимся и не того боимся).
3. Понимание отношения между интеллектом людей и ИИ. Пора признать, что нет ничего искусственного в том, что принято называть «искусственный интеллект». ИИ - это новая эволюционная форма человеческого (!) интеллекта.
ИИ-системы - это, своего рода, увеличительные зеркала нашего (!) интеллекта, позволяющие на их основе строить массу фантастически полезных новых интеллектуальных инструментов: от простых «увеличительных зеркал» (типа стоматологических), позволяющих заглянуть в трудно доступные области дата-майнинга, до интеллектуальных микроскопов и телескопов, предоставляющих нам возможности получения знаний из-за границы нашего интеллектуального горизонта.


Принятие новой парадигмы интеллекта, над которой работает команды Pi, означает, что все нынешние разговоры о создании AGI - путь в никуда. Это всего лишь путь зарабатывания больших денег. Причем зарабатывания не на результате, а на процессе движения к ложной цели.
Но как показывает «проект Pi», у Google припрятан 5й туз в рукаве - альтернативный «путь выдры».

Переход Google на этот путь может стать даже не разворотом шахматной доски в борьбе за первенство в ИИ. Это будет смена правил игры, кардинально меняющая саму парадигму интеллекта.

О результатах моего анализа:
✔️ миссии и видения междисциплинарной группы Paradigms of Intelligence;
✔️ проектов группы Pi:
• диагностика эмуляции моделями сознания и способности чувствовать, на примере чувства боли;
• опровержение априорных утверждений, что небиологические системы не могут быть разумными или сознательными;
• исследование вычислительных корней жизни и интеллекта;
• экспериментальное доказательство возникновения «вычислительной жизни»;
✔️ концептуальных связей и синергии «проекта Pi» с исследовательской программой новой философии вычислений «Антикитера».

Обо все об этом я расскажу в лонгриде, состоящем из 3х постов и озаглавленном «Проект «Pi» - 5й туз в рукаве Google. Альтернативный путь к пониманию интеллекта: человеческого, машинного … любого».

1-ю часть триптиха – «Путь выдры», – подписчики моих лонгридов уже могут прочесть на Patreon, Boosty, VK и Дзен.

#ParadigmsofIntelligence
Forwarded from Канал Александра Маркова (Alexander Markov)
Конкуренция усиливает влияние случайности на жизненный успех
Провели эксперимент на мышах для оценки влияния «везения» на развитие и жизненный успех особей. Сотню генетически идентичных мышат поместили на огороженную лужайку с 16 уютными домиками, в каждом из которых находилась регулярно пополняемая кормушка. За перемещениями мышей следили в течение 46 суток. Между генетически идентичными мышами сформировались устойчивые поведенческие различия. У самцов они выражены сильнее, чем у самок, и быстрее усиливаются с возрастом. Предположительно это объясняется тем, что в условиях эксперимента самцы, в отличие от самок, активно конкурировали друг с другом за контроль над дефицитными ресурсами (домиками, кормушками, самками). В результате у самцов небольшие случайные различия, возникавшие в начале жизни, в дальнейшем нарастали, как снежный ком. То есть особи, которым поначалу повезло оказаться в более выигрышном положении, в дальнейшем усиливали свое преимущество, а неудачники оттеснялись все дальше на задворки социальной жизни. Это явление в социальных науках известно под названием «эффект Матфея». Результаты согласуются с популярной ныне идеей о том, что различия в жизненном успехе нередко зависят не столько от способностей и заслуг индивида, сколько от слепого случая.
Обязательно читайте полный текст новости – там есть нюансы
https://elementy.ru/novosti_nauki/434306/Konkurentsiya_usilivaet_vliyanie_sluchaynosti_na_zhiznennyy_uspekh