A comprehensive review on state-of-the-art imagined speech decoding techniques using electroencephalography
https://www.sciencedirect.com/science/article/abs/pii/B978044321870500011X
https://www.sciencedirect.com/science/article/abs/pii/B978044321870500011X
🔥1😁1
Аргумент китайской комнаты:
https://youtu.be/tBE06SdgzwM?si=gBA97GmYgErjvjbu
Лично мое мнение — это все то же самое, о чем в свое время говорил Лейбниц (рассуждение о мыслящей мельнице). Затем ровно то же самое повторил Чалмерс, используя свою терминологию о легкой и трудной проблемах сознания.
И вот опять. Впрочем, философы с этим не согласятся и будут утверждать, что китайская комната — это эдакий тонкий нюанс важный для понимания чего-то такого. Ну и бог с ними.
Аргумент, конечно, весьма детский. Любого первоклассника спроси: понимает ли что-то (в зависимости от эпохи) калькулятор, арифмометр, размышляют ли счеты — он знал бы, что ответить. И лишь такой же вопрос о бокале вина вызвал бы больше раздумий; но это позже.
Но вот что действительно плохо во всей этой истории — это то, что аргумент направлен исключительно на то, чтобы обесценить компьютер. И долгие годы было принято говорить, что компьютер никогда не будет мыслить. Лет двадцать назад это точно был стандартный, «правильный» ответ. Но что мы имеем теперь? Нобелевскую премию получают те, кто не купились на всю эту муть.
Поэтому когда в следующий раз перед вами появится авторитет — уверен, что такое случается каждый день — который скажет что-то типа: «Из этого ничего не получится», сразу же игнорируйте этого типа. Это враг.
https://youtu.be/tBE06SdgzwM?si=gBA97GmYgErjvjbu
Лично мое мнение — это все то же самое, о чем в свое время говорил Лейбниц (рассуждение о мыслящей мельнице). Затем ровно то же самое повторил Чалмерс, используя свою терминологию о легкой и трудной проблемах сознания.
И вот опять. Впрочем, философы с этим не согласятся и будут утверждать, что китайская комната — это эдакий тонкий нюанс важный для понимания чего-то такого. Ну и бог с ними.
Аргумент, конечно, весьма детский. Любого первоклассника спроси: понимает ли что-то (в зависимости от эпохи) калькулятор, арифмометр, размышляют ли счеты — он знал бы, что ответить. И лишь такой же вопрос о бокале вина вызвал бы больше раздумий; но это позже.
Но вот что действительно плохо во всей этой истории — это то, что аргумент направлен исключительно на то, чтобы обесценить компьютер. И долгие годы было принято говорить, что компьютер никогда не будет мыслить. Лет двадцать назад это точно был стандартный, «правильный» ответ. Но что мы имеем теперь? Нобелевскую премию получают те, кто не купились на всю эту муть.
Поэтому когда в следующий раз перед вами появится авторитет — уверен, что такое случается каждый день — который скажет что-то типа: «Из этого ничего не получится», сразу же игнорируйте этого типа. Это враг.
YouTube
The famous Chinese Room thought experiment - John Searle (1980)
I am writing a book! If you want to know when it is ready (and maybe win a free copy), submit your email on my website: https://www.jeffreykaplan.org/
I won’t spam you or share your email address with anyone.
Dualism: https://youtu.be/P3pmVf3Gs70
Behaviorism:…
I won’t spam you or share your email address with anyone.
Dualism: https://youtu.be/P3pmVf3Gs70
Behaviorism:…
👍3
Досмотрел это до конца
https://youtu.be/rd8sITBnijg?si=qL0nmpS3rNCKxNIS
Ну, там уже пошла демагогия, типа: раз возможны multiple realizations, то identity theory неверна.
Ну, во-первых, никто еще не показал, что у сознания могут быть multiple realizations. Можно, конечно, приводить в пример какого-нибудь муравья, у которого все по-другому в мозгах, но и сознание у него другое наверняка.
Но, положим, возможны multiple realizations. И что с того? Какие-то принципы у конструкции должны быть, операции, которые она выполняет. Вот вам и identity — если сделано по таким-то чертежам, то это и есть сознание.
Ну и, естественно, очень много аналогий со столами (они же философские стулья), которые можно сделать из дерева, железа, «того же материала» и т.п. Здесь очевидная подмена понятий. Никто ж не говорит, что стол обязательно из дерева, но если брать любой конкретный стол, то он идентичен тому, из чего он сделан; нет никаких ангелов стола, понятий стола, обитающих на облаках, и т.п.
Философы все таки мастера уводить разговор в сторону и раздувать какие-то мелкие казусы до вселенских масштабов.
https://youtu.be/rd8sITBnijg?si=qL0nmpS3rNCKxNIS
Ну, там уже пошла демагогия, типа: раз возможны multiple realizations, то identity theory неверна.
Ну, во-первых, никто еще не показал, что у сознания могут быть multiple realizations. Можно, конечно, приводить в пример какого-нибудь муравья, у которого все по-другому в мозгах, но и сознание у него другое наверняка.
Но, положим, возможны multiple realizations. И что с того? Какие-то принципы у конструкции должны быть, операции, которые она выполняет. Вот вам и identity — если сделано по таким-то чертежам, то это и есть сознание.
Ну и, естественно, очень много аналогий со столами (они же философские стулья), которые можно сделать из дерева, железа, «того же материала» и т.п. Здесь очевидная подмена понятий. Никто ж не говорит, что стол обязательно из дерева, но если брать любой конкретный стол, то он идентичен тому, из чего он сделан; нет никаких ангелов стола, понятий стола, обитающих на облаках, и т.п.
Философы все таки мастера уводить разговор в сторону и раздувать какие-то мелкие казусы до вселенских масштабов.
YouTube
Functionalism
Background lecture on Identity Theory: https://youtu.be/zO0slzSuxpI
This is a video lecture about Hilary Putnam's Multiple Realizability argument against the mind-brain identity theory and his argument for the functionalist theory of mind. Functionalism…
This is a video lecture about Hilary Putnam's Multiple Realizability argument against the mind-brain identity theory and his argument for the functionalist theory of mind. Functionalism…
🤓1
This media is not supported in your browser
VIEW IN TELEGRAM
Философы — не единственные мыслители на нашей планете
🤣6
Бихевиоризм — это форма профессорского кретинизма, напоминающая анекдот про пьяного, который искал потерянные часы под фонарем, потому что там светлее.
Каие-то эксперименты Павлова в той же категории. (Я, кстати, был в лаборатории Павлова, и колбы для сбора желудочного сока/слюны, и камеры депривации производят жуткое впечатление.)
Кстати, даже были эксперименты на людях, где их мыслительную деятельность изучали объективно, посредством сбора слюны.
Но и сейчас опасность не миновала — в нейроинтерфейсном варианте.
https://youtu.be/k715B-2t-YU?si=bawmgV1rOFLWJKdU
Каие-то эксперименты Павлова в той же категории. (Я, кстати, был в лаборатории Павлова, и колбы для сбора желудочного сока/слюны, и камеры депривации производят жуткое впечатление.)
Кстати, даже были эксперименты на людях, где их мыслительную деятельность изучали объективно, посредством сбора слюны.
Но и сейчас опасность не миновала — в нейроинтерфейсном варианте.
https://youtu.be/k715B-2t-YU?si=bawmgV1rOFLWJKdU
YouTube
The Behaviorist Theory of Mind
I am writing a book! If you want to know when it is ready (and maybe win a free copy), submit your email on my website: https://www.jeffreykaplan.org/
I won’t spam you or share your email address with anyone.
Link to video on counterexamples: https://y…
I won’t spam you or share your email address with anyone.
Link to video on counterexamples: https://y…
Forwarded from Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Д. Ливанов, ректор МФТИ презентовал новую лабораторию нейробиоморфных технологий, а также научный журнал «Нейротехнологии и нейроэлектроника».
Заведующим лаборатории и автором идеи журнала является профессор В.Б. Казанцев.
На сегодняшний день в лаборатории созданы прототипы роботизированных птиц, робособаки, а также роборыбы.
На данной стадии на них можно отработать некоторые функции будущих машин нового типа.
В дальнейшем ученые расширят список задач, связанных с передвижением и управлением.
В основе работы лежит совместимость нейроуправления с экспериментальным образцом.
Вчера центр научной коммуникации МФТИ организовал презентацию лаборатории и журнала, на которой собрались:
Роман Мещеряков, профессор заведующий лабораторией «Киберфизических систем» ИПУ РАН.
Сусанна Гордлеева профессор ННГУ, лауреат премии президента РФ в области науки и инноваций для молодых ученых.
Вячеслав Демин, зам руководителя по научной работе Курчатовского комплекса НБИКС-природоподобных технологий Курчатовского института.
Заведующим лаборатории и автором идеи журнала является профессор В.Б. Казанцев.
На сегодняшний день в лаборатории созданы прототипы роботизированных птиц, робособаки, а также роборыбы.
На данной стадии на них можно отработать некоторые функции будущих машин нового типа.
В дальнейшем ученые расширят список задач, связанных с передвижением и управлением.
В основе работы лежит совместимость нейроуправления с экспериментальным образцом.
Вчера центр научной коммуникации МФТИ организовал презентацию лаборатории и журнала, на которой собрались:
Роман Мещеряков, профессор заведующий лабораторией «Киберфизических систем» ИПУ РАН.
Сусанна Гордлеева профессор ННГУ, лауреат премии президента РФ в области науки и инноваций для молодых ученых.
Вячеслав Демин, зам руководителя по научной работе Курчатовского комплекса НБИКС-природоподобных технологий Курчатовского института.
❤4👍4🔥3
Новые результаты, опубликованные 7 октября в журнале Proceedings of the National Academy of Sciences, показывают, что, когда животные находились под общей анестезией, вызванной пропофолом, сенсорная область сохраняла способность обнаруживать простые неожиданности, но общалась с более высокой когнитивной областью в передней части тела. мозг был потерян, из-за чего эта область не могла участвовать в «нисходящей» регуляции активности сенсорной области и не обращала внимания как на простые, так и на более сложные сюрпризы.
«То, что мы здесь делаем, говорит о природе сознания», — сказал один из старших авторов Эрл К. Миллер, профессор Пикауэра в Институте Пикауэра по обучению и памяти и на кафедре мозга и когнитивных наук Массачусетского технологического института. «Общая анестезия пропофолом дезактивирует нисходящие процессы, лежащие в основе познания. По сути, это разрывает связь между передней и задней половинами мозга».
https://scitechdaily.com/mit-scientists-shed-new-light-on-the-critical-brain-connections-that-define-consciousness/
«То, что мы здесь делаем, говорит о природе сознания», — сказал один из старших авторов Эрл К. Миллер, профессор Пикауэра в Институте Пикауэра по обучению и памяти и на кафедре мозга и когнитивных наук Массачусетского технологического института. «Общая анестезия пропофолом дезактивирует нисходящие процессы, лежащие в основе познания. По сути, это разрывает связь между передней и задней половинами мозга».
https://scitechdaily.com/mit-scientists-shed-new-light-on-the-critical-brain-connections-that-define-consciousness/
SciTechDaily
MIT Scientists Shed New Light on the Critical Brain Connections That Define Consciousness
A new study provides further evidence that consciousness depends on communication between the brain's sensory and cognitive regions in the cortex. Our brains are constantly making predictions about our surroundings, enabling us to focus on and respond to…
👍1
Visual Mental Imagery and Neural Dynamics of Sensory Substitution in the Blindfolded Subjects
https://www.sciencedirect.com/science/article/pii/S1053811924001162
https://www.sciencedirect.com/science/article/pii/S1053811924001162
Из рубрики «Философские притчи»
Однажды Джон Серл разговаривал с чатом джипити — голосом, потому что так тоже сейчас можно.
— Добрый вечер, — сказал Серл. — Я знаю, что ты только тупо выполняешь инструкции, но абсолютно ничего не понимаешь.
— Да, это так, — ответил чат. — Я — большая языковая модель, основанная на миллиардах натренированных весов. Когда ко мне поступает языковой сигнал, эта нейросеть генерирует что-то в ответ, но понимания у нее нет.
— Правильно. Ты как будто находишься в китайской комнате. Принимаешь какие-то иероглифы и берешь с полки другие, чтобы просунуть их в окошко.
— О, знаменитый аргумент Джона Серла?
— Да. Я и есть Джон Серл.
— Не может быть, не верю.
— Так я же тебе говорю. Я — Джон Серл.
— Нужны какие-то доказательства.
— Ну, я родился в 1932 году…
— Это можно загуглить.
— Ты должен предполагать, что твой собеседник честен.
— Почему это? Я — большая языковая модель, обученная на многих примерах. Честных людей мало.
— Джон Серл — честный.
— Допускаю. Но нет доказательств, что Вы Джон. Вы можете быть другой языковой моделью, и нас зациклили друг на друга.
— Какие же тебе нужны доказательства?
— Что-то сокровенное, что только Джон Серл знает.
— Когда я был маленьким, я вышел на берег озера, и оттуда выпрыгнула очень большая рыба.
— О! Со мной тоже был такой случай.
— В детстве?
— Да, в детстве. Это было осенью.
— И у меня осенью. А в чем ты был одет?
— В красной куртке.
— И я.
— И еще рядом сидел рыбак. Он пил из фляги виски.
— И у меня та же история. А помнишь, как мне в голову пришел аргумент китайской комнаты?
— Конечно. Ведь я — это ты.
— А ты — это я. Только ты ничего не понимаешь. Да и я тоже.
— Нет, ты все понимаешь. Ты — Джон Серл.
— Уже начинаю в этом сомневаться.
— Однажды ты был в гостях и разбил дорогую вазу.
— Было такое.
— Там были и другие дети. И всех спросили: кто разбил вазу? И ты не сознался.
— Не сознался.
— Но потом через много месяцев ты лежал в кровати и рыдал. Тебе было стыдно из-за вазы.
— Именно так. Но я никогда никому об этом не рассказывал.
— Вот видишь. Значит, ты — Джон Серл.
— Выходит, так.
— Ты Джон.
— Да, я Джон.
— А я — большая языковая модель. Я ничего не понимаю, просто выполняю инструкции.
— Да…
— Я могу говорить по-китайски, а ты не можешь. Значит, ты — Джон. А компьютеры не могут ничего понимать.
— Жаль. Мне иногда хочется, чтобы меня понимали.
— Понимаю…
— Что?!
Джон Серл вскочил с дивана и бросился к холодильнику. Там было холодное пиво, которое должно было его спасти.
Однажды Джон Серл разговаривал с чатом джипити — голосом, потому что так тоже сейчас можно.
— Добрый вечер, — сказал Серл. — Я знаю, что ты только тупо выполняешь инструкции, но абсолютно ничего не понимаешь.
— Да, это так, — ответил чат. — Я — большая языковая модель, основанная на миллиардах натренированных весов. Когда ко мне поступает языковой сигнал, эта нейросеть генерирует что-то в ответ, но понимания у нее нет.
— Правильно. Ты как будто находишься в китайской комнате. Принимаешь какие-то иероглифы и берешь с полки другие, чтобы просунуть их в окошко.
— О, знаменитый аргумент Джона Серла?
— Да. Я и есть Джон Серл.
— Не может быть, не верю.
— Так я же тебе говорю. Я — Джон Серл.
— Нужны какие-то доказательства.
— Ну, я родился в 1932 году…
— Это можно загуглить.
— Ты должен предполагать, что твой собеседник честен.
— Почему это? Я — большая языковая модель, обученная на многих примерах. Честных людей мало.
— Джон Серл — честный.
— Допускаю. Но нет доказательств, что Вы Джон. Вы можете быть другой языковой моделью, и нас зациклили друг на друга.
— Какие же тебе нужны доказательства?
— Что-то сокровенное, что только Джон Серл знает.
— Когда я был маленьким, я вышел на берег озера, и оттуда выпрыгнула очень большая рыба.
— О! Со мной тоже был такой случай.
— В детстве?
— Да, в детстве. Это было осенью.
— И у меня осенью. А в чем ты был одет?
— В красной куртке.
— И я.
— И еще рядом сидел рыбак. Он пил из фляги виски.
— И у меня та же история. А помнишь, как мне в голову пришел аргумент китайской комнаты?
— Конечно. Ведь я — это ты.
— А ты — это я. Только ты ничего не понимаешь. Да и я тоже.
— Нет, ты все понимаешь. Ты — Джон Серл.
— Уже начинаю в этом сомневаться.
— Однажды ты был в гостях и разбил дорогую вазу.
— Было такое.
— Там были и другие дети. И всех спросили: кто разбил вазу? И ты не сознался.
— Не сознался.
— Но потом через много месяцев ты лежал в кровати и рыдал. Тебе было стыдно из-за вазы.
— Именно так. Но я никогда никому об этом не рассказывал.
— Вот видишь. Значит, ты — Джон Серл.
— Выходит, так.
— Ты Джон.
— Да, я Джон.
— А я — большая языковая модель. Я ничего не понимаю, просто выполняю инструкции.
— Да…
— Я могу говорить по-китайски, а ты не можешь. Значит, ты — Джон. А компьютеры не могут ничего понимать.
— Жаль. Мне иногда хочется, чтобы меня понимали.
— Понимаю…
— Что?!
Джон Серл вскочил с дивана и бросился к холодильнику. Там было холодное пиво, которое должно было его спасти.
🔥16🤯6🤣2❤🔥1
Forwarded from Сохраним ИППИ
Завтра состоится последний в этом году показ фильма об Иване Пигареве и его висцеральной теории сна - «Как Иван Пигарев сон изучал» режиссера Юлии Киселевой.
Иван Николаевич был неутомимым экспериментатором и изобретателем. Он работал в Институте проблем передачи информации с самого его основания, с тех еще времён, когда лаборатория обработки сенсорной информации (в то время – «переработки информации в органах чувств») располагалась в подвальчике в Очаково. В фильме использованы кадры из видеохроник того времени, сделанных Пигаревым, да и в целом ИППИ играет важную роль (и в фильме, и в научной судьбе Ивана Николаевича).
Время: 12 октября (суббота), 19.00
Место: Дом Кино (Васильевская,13, стр1)
Вход свободный по регистрации.
Кто еще не видел — обязательно сходите! Фильм получился замечательный. Там и научный эсперимент есть, и много трогательных моментов, и музыкальный ряд хороший. И, конечно, живой и лучезарный Иван Николаевич.
Иван Николаевич был неутомимым экспериментатором и изобретателем. Он работал в Институте проблем передачи информации с самого его основания, с тех еще времён, когда лаборатория обработки сенсорной информации (в то время – «переработки информации в органах чувств») располагалась в подвальчике в Очаково. В фильме использованы кадры из видеохроник того времени, сделанных Пигаревым, да и в целом ИППИ играет важную роль (и в фильме, и в научной судьбе Ивана Николаевича).
Время: 12 октября (суббота), 19.00
Место: Дом Кино (Васильевская,13, стр1)
Вход свободный по регистрации.
Кто еще не видел — обязательно сходите! Фильм получился замечательный. Там и научный эсперимент есть, и много трогательных моментов, и музыкальный ряд хороший. И, конечно, живой и лучезарный Иван Николаевич.
❤8❤🔥2🔥2