🧠 Теории сознания: социальные корни самости
- Часть 1
- Часть 2
- Часть 3
Если мозг — это машина предсказаний, то логично спросить: что он пытался предсказывать в первую очередь?
Ответ может быть прост: поведение других людей.
👥 От стаи к самости
— У животных мозг эволюционировал, чтобы предугадывать действия членов группы: союзников, соперников, лидеров.
— Чем лучше предсказание — тем выше шансы выжить.
— Этот «социальный симулятор» постепенно перенёсся внутрь: мозг стал использовать тот же механизм, чтобы предсказывать собственные будущие действия.
🔄 Рождение «я»
— Внутренний диалог — это та же модель, которая раньше прогнозировала чужие намерения.
— Сознание как бы возникло, когда мы начали относиться к себе так же, как к другим: моделировать, что «я» сделаю, подумаю или почувствую.
— Из этой же логики рождается эмпатия и способность к самоанализу.
🤖 Параллель с ИИ
Современные модели начинают предсказывать не только текст, но и поведение агентов, стратегии, взаимодействие. Это напоминает первые шаги к тому же социальному уровню предсказаний, который у нас превратился в самосознание.
📌 Вывод
Сознание могло вырасти из эволюционной необходимости понимать других. А «я» — всего лишь побочный эффект той же самой игры в предсказания.
Источники:
— https://en.wikipedia.org/wiki/Theory_of_mind
— https://www.frontiersin.org/articles/10.3389/fpsyg.2016.01921/full
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
- Часть 1
- Часть 2
- Часть 3
Если мозг — это машина предсказаний, то логично спросить: что он пытался предсказывать в первую очередь?
Ответ может быть прост: поведение других людей.
👥 От стаи к самости
— У животных мозг эволюционировал, чтобы предугадывать действия членов группы: союзников, соперников, лидеров.
— Чем лучше предсказание — тем выше шансы выжить.
— Этот «социальный симулятор» постепенно перенёсся внутрь: мозг стал использовать тот же механизм, чтобы предсказывать собственные будущие действия.
🔄 Рождение «я»
— Внутренний диалог — это та же модель, которая раньше прогнозировала чужие намерения.
— Сознание как бы возникло, когда мы начали относиться к себе так же, как к другим: моделировать, что «я» сделаю, подумаю или почувствую.
— Из этой же логики рождается эмпатия и способность к самоанализу.
🤖 Параллель с ИИ
Современные модели начинают предсказывать не только текст, но и поведение агентов, стратегии, взаимодействие. Это напоминает первые шаги к тому же социальному уровню предсказаний, который у нас превратился в самосознание.
📌 Вывод
Сознание могло вырасти из эволюционной необходимости понимать других. А «я» — всего лишь побочный эффект той же самой игры в предсказания.
Источники:
— https://en.wikipedia.org/wiki/Theory_of_mind
— https://www.frontiersin.org/articles/10.3389/fpsyg.2016.01921/full
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
👍3
🧠 Теории сознания: квантовая магия vs вероятностный автомат
- Часть 1
- Часть 2
- Часть 3
- Часть 4
Сознание — поле битвы между красивыми спекуляциями и строгими теориями. За последние десятилетия наибольшее внимание получили два подхода: квантовая гипотеза Пенроуза–Хамероффа и теория предсказательного кодирования Карла Фристона.
🔮 Квантовое сознание (Orch OR)
Идея в том, что в микротрубочках нейронов происходят квантовые процессы, которые и рождают субъективный опыт.
— Это связывает разум с фундаментальной физикой и даже космологией.
— Теория обещает, что сознание — не алгоритм, а нечто «некалькулируемое».
Но:
— Квантовая когерентность в биологических системах разрушается за ~10⁻¹³ сек.
— Нет прямых экспериментов, которые подтверждают роль микротрубочек в возникновении сознания.
— Идея остаётся в статусе философской поэтики с минимальной научной опорой.
⚡ Предсказательное кодирование (Predictive coding)
Совсем другой взгляд: мозг — это машина предсказаний, минимизирующая разницу между ожиданием и реальностью (*prediction error*).
— Каждое восприятие — результат гипотезы мозга о том, что он должен увидеть.
— Иллюзии и ошибки восприятия подтверждают этот механизм.
— Нарушения предсказаний связаны с психическими расстройствами.
— Фристон встроил эту идею в free energy principle, описывающий поведение живых систем вообще.
🤖 Связь с ИИ
Large Language Models вроде GPT обучаются по тому же принципу: предсказывают следующее слово.
Это модель сознания без тела и мотиваций, но на тех же статистических рельсах.
👥 Социальный уровень
Эволюционно мозг сначала учился предсказывать действия других членов стаи.
Постепенно этот механизм обратился внутрь — и появился внутренний диалог, «я», самосознание.
📌 Итог
— Квантовая теория: красивая метафора, культурный миф, удобный для фантастики.
— Predictive coding: статистически строгая модель, подтверждённая экспериментами, связанная с восприятием, психикой и ИИ.
Сознание, скорее всего, не ждёт откровений из глубин квантовой пены. Оно вырастает из вероятностей, ошибок предсказаний и социальной игры мозга. А квантовая магия останется — как миф, как поэзия, как вечная метафора.
Источники:
— https://en.wikipedia.org/wiki/Orchestrated_objective_reduction
— https://arxiv.org/abs/quant-ph/9907009
— https://en.wikipedia.org/wiki/Predictive_coding
— https://www.nature.com/articles/nn.4287
— https://www.frontiersin.org/articles/10.3389/fpsyg.2017.01710/full
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
- Часть 1
- Часть 2
- Часть 3
- Часть 4
Сознание — поле битвы между красивыми спекуляциями и строгими теориями. За последние десятилетия наибольшее внимание получили два подхода: квантовая гипотеза Пенроуза–Хамероффа и теория предсказательного кодирования Карла Фристона.
🔮 Квантовое сознание (Orch OR)
Идея в том, что в микротрубочках нейронов происходят квантовые процессы, которые и рождают субъективный опыт.
— Это связывает разум с фундаментальной физикой и даже космологией.
— Теория обещает, что сознание — не алгоритм, а нечто «некалькулируемое».
Но:
— Квантовая когерентность в биологических системах разрушается за ~10⁻¹³ сек.
— Нет прямых экспериментов, которые подтверждают роль микротрубочек в возникновении сознания.
— Идея остаётся в статусе философской поэтики с минимальной научной опорой.
⚡ Предсказательное кодирование (Predictive coding)
Совсем другой взгляд: мозг — это машина предсказаний, минимизирующая разницу между ожиданием и реальностью (*prediction error*).
— Каждое восприятие — результат гипотезы мозга о том, что он должен увидеть.
— Иллюзии и ошибки восприятия подтверждают этот механизм.
— Нарушения предсказаний связаны с психическими расстройствами.
— Фристон встроил эту идею в free energy principle, описывающий поведение живых систем вообще.
🤖 Связь с ИИ
Large Language Models вроде GPT обучаются по тому же принципу: предсказывают следующее слово.
Это модель сознания без тела и мотиваций, но на тех же статистических рельсах.
👥 Социальный уровень
Эволюционно мозг сначала учился предсказывать действия других членов стаи.
Постепенно этот механизм обратился внутрь — и появился внутренний диалог, «я», самосознание.
📌 Итог
— Квантовая теория: красивая метафора, культурный миф, удобный для фантастики.
— Predictive coding: статистически строгая модель, подтверждённая экспериментами, связанная с восприятием, психикой и ИИ.
Сознание, скорее всего, не ждёт откровений из глубин квантовой пены. Оно вырастает из вероятностей, ошибок предсказаний и социальной игры мозга. А квантовая магия останется — как миф, как поэзия, как вечная метафора.
Источники:
— https://en.wikipedia.org/wiki/Orchestrated_objective_reduction
— https://arxiv.org/abs/quant-ph/9907009
— https://en.wikipedia.org/wiki/Predictive_coding
— https://www.nature.com/articles/nn.4287
— https://www.frontiersin.org/articles/10.3389/fpsyg.2017.01710/full
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
🔥2❤1👍1
🤖 Запилил бота для постов
Собрал штуку на Rust, которая:
• Шарит по arXiv и HackerNews
• Скармливает статьи Claude и GPT
• Пишет посты
• Сама постит в канал
GitHub: https://github.com/pockerhead/SADCO
🧪 Тестирую - некоторые посты будет клепать бот. Если что-то не так - давайте обратную связь, буду чинить.
Интересно, сможет ли машина писать нормальный научпоп или пока рано.
Собрал штуку на Rust, которая:
• Шарит по arXiv и HackerNews
• Скармливает статьи Claude и GPT
• Пишет посты
• Сама постит в канал
GitHub: https://github.com/pockerhead/SADCO
🧪 Тестирую - некоторые посты будет клепать бот. Если что-то не так - давайте обратную связь, буду чинить.
Интересно, сможет ли машина писать нормальный научпоп или пока рано.
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
👍2
Powered by ADCO (https://github.com/pockerhead/ADCO)
🧭 Как мозг хранит чувство «я», если нейроны всё время меняются?
TL;DR Мозг сохраняет цельность личности тремя способами: отслеживает тело, плетёт историю о нас и держит фоновую «сеть самости».
🫀 Тело как якорь
Мозг постоянно слушает сердце, дыхание и мышцы. Эти внутренние сигналы — как метроном, который даёт стабильную опору. Если связь портится, человек может почувствовать себя «отчуждённым» от тела.
📖 Мы — история
Мозг постоянно собирает переживания в рассказ: прошлое, сейчас, планы. Даже когда отдельные клетки меняются, этот внутренний сюжет даёт ощущение непрерывности — как сериал, где каждая серия связана с предыдущей.
🧠 Фоновая сеть самости
Есть участки мозга, которые работают «в фоне» — когда мы мечтаем или вспоминаем. Они хранят мысли о себе и автобиографию, даже когда мы не заняты делами.
🔗 Ещё немного о том, как это работает
Мозг предсказывает мир, сравнивает ожидания с реальностью и таким образом чувствуем контроль. Память «переписывается» в долгую базу, а разные сети — внимание, значимость и фоновые мысли — координируются, чтобы держать «я» целым.
Представь радио: много станций включены сразу, но одна мелодия слышна постоянно — вот как появляется ощущение себя.
🧭 Как мозг хранит чувство «я», если нейроны всё время меняются?
TL;DR Мозг сохраняет цельность личности тремя способами: отслеживает тело, плетёт историю о нас и держит фоновую «сеть самости».
🫀 Тело как якорь
Мозг постоянно слушает сердце, дыхание и мышцы. Эти внутренние сигналы — как метроном, который даёт стабильную опору. Если связь портится, человек может почувствовать себя «отчуждённым» от тела.
📖 Мы — история
Мозг постоянно собирает переживания в рассказ: прошлое, сейчас, планы. Даже когда отдельные клетки меняются, этот внутренний сюжет даёт ощущение непрерывности — как сериал, где каждая серия связана с предыдущей.
🧠 Фоновая сеть самости
Есть участки мозга, которые работают «в фоне» — когда мы мечтаем или вспоминаем. Они хранят мысли о себе и автобиографию, даже когда мы не заняты делами.
🔗 Ещё немного о том, как это работает
Мозг предсказывает мир, сравнивает ожидания с реальностью и таким образом чувствуем контроль. Память «переписывается» в долгую базу, а разные сети — внимание, значимость и фоновые мысли — координируются, чтобы держать «я» целым.
Представь радио: много станций включены сразу, но одна мелодия слышна постоянно — вот как появляется ощущение себя.
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
🔥6
Powered by ADCO (https://github.com/pockerhead/ADCO)
🧠 Как мозг учится новому, не стирая старое?
TL;DR Мозг умеет одновременно быть гибким и устойчивым. Для этого синапсы — не просто «весы», а маленькие «фабрики» с разными состояниями и своими «часами».
Сложные синапсы 🧩
Синапс — это не одна цифра в компьютере, а набор химических веществ и сигналов. Представь не простую лампочку, а многофункциональную кухню с разными полками для хранения памяти.
Метапластичность — термостат обучения 🌡️
Правила обучения меняются в зависимости от предшествующей активности. Это как термостат, который решает, когда включать или выключать усиление, чтобы ничего не перегрелось.
Метки и «ловля» белков 🏷️➡️🧬
Сначала синапс получает временную метку. Если позже придут специальные белки, изменение закрепляется. Это как заметка, которая станет постоянной только если придут нужные материалы.
Разные часы памяти ⏳
Новые сведения хранятся временно в гиппокампе — как на почте. Со временем важные «письма» пересылают в неокортекс — в архив на долгие годы.
Это похоже на библиотеку: новые книги сначала лежат на приёмном столе, лучшие отправляют в стеллажи, а старые списывают, чтобы освободить место для новых.
Источники:
• Theories of synaptic memory consolidation and intelligent plasticity for continual learning - http://arxiv.org/pdf/2405.16922v2.pdf
• A Computational Model of Systems Memory Consolidation and Reconsolidation - http://arxiv.org/pdf/1703.01357v7.pdf
• Neural-network simulations of memory consolidation and reconsolidation - http://arxiv.org/pdf/1901.02270v3.pdf
• A Coupled Neural Field Model for the Standard Consolidation Theory - http://arxiv.org/pdf/2404.02938v1.pdf.
🧠 Как мозг учится новому, не стирая старое?
TL;DR Мозг умеет одновременно быть гибким и устойчивым. Для этого синапсы — не просто «весы», а маленькие «фабрики» с разными состояниями и своими «часами».
Сложные синапсы 🧩
Синапс — это не одна цифра в компьютере, а набор химических веществ и сигналов. Представь не простую лампочку, а многофункциональную кухню с разными полками для хранения памяти.
Метапластичность — термостат обучения 🌡️
Правила обучения меняются в зависимости от предшествующей активности. Это как термостат, который решает, когда включать или выключать усиление, чтобы ничего не перегрелось.
Метки и «ловля» белков 🏷️➡️🧬
Сначала синапс получает временную метку. Если позже придут специальные белки, изменение закрепляется. Это как заметка, которая станет постоянной только если придут нужные материалы.
Разные часы памяти ⏳
Новые сведения хранятся временно в гиппокампе — как на почте. Со временем важные «письма» пересылают в неокортекс — в архив на долгие годы.
Это похоже на библиотеку: новые книги сначала лежат на приёмном столе, лучшие отправляют в стеллажи, а старые списывают, чтобы освободить место для новых.
Источники:
• Theories of synaptic memory consolidation and intelligent plasticity for continual learning - http://arxiv.org/pdf/2405.16922v2.pdf
• A Computational Model of Systems Memory Consolidation and Reconsolidation - http://arxiv.org/pdf/1703.01357v7.pdf
• Neural-network simulations of memory consolidation and reconsolidation - http://arxiv.org/pdf/1901.02270v3.pdf
• A Coupled Neural Field Model for the Standard Consolidation Theory - http://arxiv.org/pdf/2404.02938v1.pdf.
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
💡 Откуда берётся масса у частиц — Хиггс или что-то ещё?
TL;DR Масса может возникать по двум причинам: одни частицы получают её за счёт взаимодействия с полем Хиггса, а у составных объектов (например, протона) масса — это энергия их внутреннего связывания.
⚛️ Хиггс — как густой мёд
Фундаментальные частицы (электрон, кварк) получают массу, взаимодействуя с Хиггсовым полем. Чем сильнее частица с ним взаимодействует, тем тяжелее она — как если бы кто‑то шёл по густому мёду.
🧲 Протон — как фарш в котлете
У протона почти вся масса — не от масс самих кварков, а от энергии сильного взаимодействия (глюонов), которая их связывает. Эта энергия по формуле E=mc² проявляется как масса. Представь: ингредиенты котлеты те же, а масса — от того, как крепко всё слиплось.
❓ Почему массы такие разные?
Стандартная модель вводит множество параметров «вручную» — мы не знаем, почему массы идут ступенями по поколениям и почему частицы верхних поколений настолько тяжелее. Возможно, за этим скрываются симметрии или новые механизмы.
Это похоже на оркестр: одни музыканты получают «вес» от сцены (Хиггс), другие — от взаимодействия с оркестром (энергия связи). Какой из этих сценариев в природе главный — ещё предстоит выяснить.
Источники:
• The Symmetry and the Problem of Mass Generation - http://arxiv.org/pdf/hep-ph/9703242v1.pdf
• The Problem of Mass and Mass Generation - http://arxiv.org/pdf/hep-ph/9605300v1.pdf
• Testing a dynamical origin of Standard Model fermion masses - http://arxiv.org/pdf/1607.01440v2.pdf.
💡 Откуда берётся масса у частиц — Хиггс или что-то ещё?
TL;DR Масса может возникать по двум причинам: одни частицы получают её за счёт взаимодействия с полем Хиггса, а у составных объектов (например, протона) масса — это энергия их внутреннего связывания.
⚛️ Хиггс — как густой мёд
Фундаментальные частицы (электрон, кварк) получают массу, взаимодействуя с Хиггсовым полем. Чем сильнее частица с ним взаимодействует, тем тяжелее она — как если бы кто‑то шёл по густому мёду.
🧲 Протон — как фарш в котлете
У протона почти вся масса — не от масс самих кварков, а от энергии сильного взаимодействия (глюонов), которая их связывает. Эта энергия по формуле E=mc² проявляется как масса. Представь: ингредиенты котлеты те же, а масса — от того, как крепко всё слиплось.
❓ Почему массы такие разные?
Стандартная модель вводит множество параметров «вручную» — мы не знаем, почему массы идут ступенями по поколениям и почему частицы верхних поколений настолько тяжелее. Возможно, за этим скрываются симметрии или новые механизмы.
Это похоже на оркестр: одни музыканты получают «вес» от сцены (Хиггс), другие — от взаимодействия с оркестром (энергия связи). Какой из этих сценариев в природе главный — ещё предстоит выяснить.
Источники:
• The Symmetry and the Problem of Mass Generation - http://arxiv.org/pdf/hep-ph/9703242v1.pdf
• The Problem of Mass and Mass Generation - http://arxiv.org/pdf/hep-ph/9605300v1.pdf
• Testing a dynamical origin of Standard Model fermion masses - http://arxiv.org/pdf/1607.01440v2.pdf.
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
🌀 Как чёрная дыра запускает струю света и частиц?
TL;DR Чёрная дыра вращается и работает как космическое динамо. Магнитные поля, проходящие через её окрестности, закручиваются и выталкивают мощные узкие струи, движущиеся почти со скоростью света.
Откуда берётся энергия? Источник — вращение самой дыры. Представьте барабан, который крутится и отдаёт часть своей энергии наружу.
Как это работает? Вокруг дыры пространство «заворачивается» — действует эффект перетаскивания инерциальных систем (frame dragging), как вода в водовороте. Магнитные линии, проходящие через эту область, закручиваются. Это и есть механизм Бландфорда — Знайека: закрученные поля создают поток электромагнитной энергии, который выкачивает вращательную энергию дыры.
Почему струя узкая и быстрая? Полярные магнитные поля сжимают поток, как сжатый шланг, а закрученные линии подхватывают и разгоняют частицы — почти до скорости света.
MAD против SANE Если магнитное поле настолько усиливается, что препятствует падению газа, образуется «магнитно-арестованный диск» (MAD). Такие конфигурации дают самые мощные струи.
Что подтверждают наблюдения? Чем быстрее крутится дыра, тем мощнее её джет — данные показывают резкий рост мощности при высоком спине.
Представьте, что вы раскручиваете верёвку: чем сильнее раскрутка, тем дальше и мощнее получается выброс — так же ведёт себя дыра.
Источники:
• Energy Extraction from Spinning Black Holes via Relativistic Jets - http://arxiv.org/pdf/1303.3004v1.pdf
• General Relativistic Simulations of Jet Formation in a Rapidly Rotating Black Hole Magnetosphere - http://arxiv.org/pdf/astro-ph/9907435v1.pdf
• Modeling the inner part of the jet in M87: Confronting jet morphology with theory - http://arxiv.org/pdf/2403.15950v1.pdf.
🌀 Как чёрная дыра запускает струю света и частиц?
TL;DR Чёрная дыра вращается и работает как космическое динамо. Магнитные поля, проходящие через её окрестности, закручиваются и выталкивают мощные узкие струи, движущиеся почти со скоростью света.
Откуда берётся энергия? Источник — вращение самой дыры. Представьте барабан, который крутится и отдаёт часть своей энергии наружу.
Как это работает? Вокруг дыры пространство «заворачивается» — действует эффект перетаскивания инерциальных систем (frame dragging), как вода в водовороте. Магнитные линии, проходящие через эту область, закручиваются. Это и есть механизм Бландфорда — Знайека: закрученные поля создают поток электромагнитной энергии, который выкачивает вращательную энергию дыры.
Почему струя узкая и быстрая? Полярные магнитные поля сжимают поток, как сжатый шланг, а закрученные линии подхватывают и разгоняют частицы — почти до скорости света.
MAD против SANE Если магнитное поле настолько усиливается, что препятствует падению газа, образуется «магнитно-арестованный диск» (MAD). Такие конфигурации дают самые мощные струи.
Что подтверждают наблюдения? Чем быстрее крутится дыра, тем мощнее её джет — данные показывают резкий рост мощности при высоком спине.
Представьте, что вы раскручиваете верёвку: чем сильнее раскрутка, тем дальше и мощнее получается выброс — так же ведёт себя дыра.
Источники:
• Energy Extraction from Spinning Black Holes via Relativistic Jets - http://arxiv.org/pdf/1303.3004v1.pdf
• General Relativistic Simulations of Jet Formation in a Rapidly Rotating Black Hole Magnetosphere - http://arxiv.org/pdf/astro-ph/9907435v1.pdf
• Modeling the inner part of the jet in M87: Confronting jet morphology with theory - http://arxiv.org/pdf/2403.15950v1.pdf.
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
🧩 Из чего сделано пространство — оно фундаментально или возникло из квантового «супа»?
TL;DR Пространство может быть не фундаментальной сущностью, а результатом взаимодействия крошечных квантовых «кусочков». Разные подходы описывают это по‑разному — от кирпичиков до сетей отношений.
🧱 Мозаика из кусочков (CDT)
Представь пространство как конструкцию из крошечных геометрических «кирпичиков»: при их суммировании и усреднении получается гладкое пространство. На очень малых масштабах оно может вести себя странно, почти как фрактал, но в масштабах, близких к привычным, — обычные 3+1 измерения.
🔗 Сеть событий (Causal set)
Здесь «точки» — это события, а связи отражают, кто на кого влияет. Как в социальной ленте: из множества случайных постов вырастает упорядоченная картина с расстояниями и формой.
🧶 Квантовая ткань (LQG)
Идея в том, что пространство — это переплетение квантовых нитей, словно ткань из тончайших волокон. При их большом количестве возникает наблюдаемая геометрия.
⚗️ Предгеометрия и переходы фаз
Иногда пространство понимают как «кристалл», который возникает из квантового «супа» — как вода, замерзая, превращается в лёд. Разные микроскопические системы могут давать одну и ту же макроскопическую картину.
💞 Корреляции вместо расстояний
Расстояние можно понимать как меру того, насколько сильно связаны квантовые системы. Чем сильнее они «запутаны», тем ближе друг к другу кажутся.
Представь, что привычный мир — это узор на ткани, а под ним — нити и узлы, сами по себе не похожие на ткань. Вместе они создают картинку.
Источники:
• Appearing Out of Nowhere: The Emergence of Spacetime in Quantum Gravity — http://arxiv.org/pdf/1410.0345v1.pdf
• A note on the AdS/CFT correspondence and the nature of spacetime in quantum gravity — http://arxiv.org/pdf/2312.05260v1.pdf
• The Emergence of Spacetime, or, Quantum Gravity on Your Desktop — http://arxiv.org/pdf/0711.0273v2.pdf.
🧩 Из чего сделано пространство — оно фундаментально или возникло из квантового «супа»?
TL;DR Пространство может быть не фундаментальной сущностью, а результатом взаимодействия крошечных квантовых «кусочков». Разные подходы описывают это по‑разному — от кирпичиков до сетей отношений.
🧱 Мозаика из кусочков (CDT)
Представь пространство как конструкцию из крошечных геометрических «кирпичиков»: при их суммировании и усреднении получается гладкое пространство. На очень малых масштабах оно может вести себя странно, почти как фрактал, но в масштабах, близких к привычным, — обычные 3+1 измерения.
🔗 Сеть событий (Causal set)
Здесь «точки» — это события, а связи отражают, кто на кого влияет. Как в социальной ленте: из множества случайных постов вырастает упорядоченная картина с расстояниями и формой.
🧶 Квантовая ткань (LQG)
Идея в том, что пространство — это переплетение квантовых нитей, словно ткань из тончайших волокон. При их большом количестве возникает наблюдаемая геометрия.
⚗️ Предгеометрия и переходы фаз
Иногда пространство понимают как «кристалл», который возникает из квантового «супа» — как вода, замерзая, превращается в лёд. Разные микроскопические системы могут давать одну и ту же макроскопическую картину.
💞 Корреляции вместо расстояний
Расстояние можно понимать как меру того, насколько сильно связаны квантовые системы. Чем сильнее они «запутаны», тем ближе друг к другу кажутся.
Представь, что привычный мир — это узор на ткани, а под ним — нити и узлы, сами по себе не похожие на ткань. Вместе они создают картинку.
Источники:
• Appearing Out of Nowhere: The Emergence of Spacetime in Quantum Gravity — http://arxiv.org/pdf/1410.0345v1.pdf
• A note on the AdS/CFT correspondence and the nature of spacetime in quantum gravity — http://arxiv.org/pdf/2312.05260v1.pdf
• The Emergence of Spacetime, or, Quantum Gravity on Your Desktop — http://arxiv.org/pdf/0711.0273v2.pdf.
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
🔬 Почему материалы на наноуровне ведут себя иначе?
TL;DR Наноматериалы отличаются тем, что почти все их атомы оказываются на поверхности, электроны «зажаты», а внутри формируются разные «микрорайоны». Это открывает путь к новым технологиям.
Поверхность правит балом — в наномире большинство атомов находится на «краю». Как жители угловых квартир, они ведут себя иначе: активнее реагируют и по‑другому проводят ток.
«Зажатые» электроны — когда размеры сравнимы с длиной волны электрона, меняется его «нота». Представьте: укоротите струну гитары — тон станет другим. Так меняются цвет, проводимость и магнитные свойства.
Внутренние «микрорайоны» — в одной частице могут сосуществовать зоны с разными свойствами: одна — как магазин, другая — как склад. Так получаются материалы с несколькими «личностями».
Контролируемый беспорядок — то, что кажется хаосом, поддаётся управлению: светом, температурой или внешним полем можно переставлять «мебель» на атомном уровне и менять свойства.
К чему это ведёт — яркие экраны, «умные» лекарства, холодные катализаторы и электроника с новыми возможностями.
Представьте материал как дом с разными квартирами, где можно переставлять мебель и менять назначение комнат — и всё это на уровне атомов.
Источники:
• Screening 0D materials for 2D nanoelectronics applications — http://arxiv.org/pdf/2207.07364v1.pdf
• Functional Nanoscale Phase Separation and Intertwined Order in Quantum Complex Materials — http://arxiv.org/pdf/2111.11172v1.pdf
🔬 Почему материалы на наноуровне ведут себя иначе?
TL;DR Наноматериалы отличаются тем, что почти все их атомы оказываются на поверхности, электроны «зажаты», а внутри формируются разные «микрорайоны». Это открывает путь к новым технологиям.
Поверхность правит балом — в наномире большинство атомов находится на «краю». Как жители угловых квартир, они ведут себя иначе: активнее реагируют и по‑другому проводят ток.
«Зажатые» электроны — когда размеры сравнимы с длиной волны электрона, меняется его «нота». Представьте: укоротите струну гитары — тон станет другим. Так меняются цвет, проводимость и магнитные свойства.
Внутренние «микрорайоны» — в одной частице могут сосуществовать зоны с разными свойствами: одна — как магазин, другая — как склад. Так получаются материалы с несколькими «личностями».
Контролируемый беспорядок — то, что кажется хаосом, поддаётся управлению: светом, температурой или внешним полем можно переставлять «мебель» на атомном уровне и менять свойства.
К чему это ведёт — яркие экраны, «умные» лекарства, холодные катализаторы и электроника с новыми возможностями.
Представьте материал как дом с разными квартирами, где можно переставлять мебель и менять назначение комнат — и всё это на уровне атомов.
Источники:
• Screening 0D materials for 2D nanoelectronics applications — http://arxiv.org/pdf/2207.07364v1.pdf
• Functional Nanoscale Phase Separation and Intertwined Order in Quantum Complex Materials — http://arxiv.org/pdf/2111.11172v1.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
🧠✨ Почему мы видим яркие сны? Как сон превращает воспоминания в картины
TL;DR Сон работает в два этапа: сначала мозг отбирает и укрепляет важные воспоминания, а затем смешивает их с эмоциями — так появляются творческие сны.
NREM: фильтр и усилитель
В фазе NREM по мозгу проходят медленные волны, чередуя «включения» и «выключения» нейронов. В «тихие» моменты отдельные сигналы лучше различимы и усиливаются, в «шумные» — слабые связи ослабевают и исчезают. Это как сортировка фото: важные кадры сохраняем, лишнее удаляем.
REM: фабрика мечтаний
В REM мозг смешивает отобранные фрагменты в новые сцены — соединяя эпизоды, эмоции и случайные детали. Это похоже на художника, который собирает коллаж из старых фотографий. Учёные сравнивают это с парой «генератор — критик» в ИИ: генерация и проверка.
Эмоции и экономия энергии
Амигдала активна в REM — сны помогают смягчить сильные эмоции. При этом общая активность мозга снижается, поэтому мозг работает более энергоэффективно, а память при этом не страдает.
Представьте: сначала вы отбираете лучшие фото, потом делаете творческий альбом — так и мозг находит смысл в прошедшем дне, экономя ресурсы и сглаживая эмоции.
Источники:
• Computational role of sleep in memory reorganization - http://arxiv.org/pdf/2304.02873v2.pdf
• NREM and REM: cognitive and energetic gains in thalamo-cortical sleeping and awake spiking model - http://arxiv.org/pdf/2211.06889v2.pdf
• Learning cortical representations through perturbed and adversarial dreaming - http://arxiv.org/pdf/2109.04261v3.pdf
• Dreams, endocannabinoids and itinerant dynamics in neural networks - http://arxiv.org/pdf/cond-mat/0208590v3.pdf.
🧠✨ Почему мы видим яркие сны? Как сон превращает воспоминания в картины
TL;DR Сон работает в два этапа: сначала мозг отбирает и укрепляет важные воспоминания, а затем смешивает их с эмоциями — так появляются творческие сны.
NREM: фильтр и усилитель
В фазе NREM по мозгу проходят медленные волны, чередуя «включения» и «выключения» нейронов. В «тихие» моменты отдельные сигналы лучше различимы и усиливаются, в «шумные» — слабые связи ослабевают и исчезают. Это как сортировка фото: важные кадры сохраняем, лишнее удаляем.
REM: фабрика мечтаний
В REM мозг смешивает отобранные фрагменты в новые сцены — соединяя эпизоды, эмоции и случайные детали. Это похоже на художника, который собирает коллаж из старых фотографий. Учёные сравнивают это с парой «генератор — критик» в ИИ: генерация и проверка.
Эмоции и экономия энергии
Амигдала активна в REM — сны помогают смягчить сильные эмоции. При этом общая активность мозга снижается, поэтому мозг работает более энергоэффективно, а память при этом не страдает.
Представьте: сначала вы отбираете лучшие фото, потом делаете творческий альбом — так и мозг находит смысл в прошедшем дне, экономя ресурсы и сглаживая эмоции.
Источники:
• Computational role of sleep in memory reorganization - http://arxiv.org/pdf/2304.02873v2.pdf
• NREM and REM: cognitive and energetic gains in thalamo-cortical sleeping and awake spiking model - http://arxiv.org/pdf/2211.06889v2.pdf
• Learning cortical representations through perturbed and adversarial dreaming - http://arxiv.org/pdf/2109.04261v3.pdf
• Dreams, endocannabinoids and itinerant dynamics in neural networks - http://arxiv.org/pdf/cond-mat/0208590v3.pdf.
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
🧠 Как мозг и компьютер договариваются между собой?
TL;DR Компьютер «слушает» мозг: ловит электрические «щелчки» нейронов и переводит их в команды. В обратную сторону он посылает похожие щелчки, чтобы мозг их распознал.
Чтение мозга
Имплантируют крошечные «микрофоны» — электроды, которые улавливают короткие электрические импульсы (спайки). Это как слушать оркестр: каждая «нота» — щелчок нейрона. Алгоритмы учатся распознавать, какие сочетания этих «нот» соответствуют командам вроде «двигай рукой» или «подвинь курсор».
Запись в мозг
Чтобы подать сигнал мозгу, посылают такие же короткие импульсы. Если правильно подобрать ритм и силу, мозг воспринимает их как ощущение или команду — будто кто‑то коснулся пальца определённым образом.
Самая большая проблема
Два разных языка: мозг — шумный, гибкий и живой; компьютер — точный и строгий. С этим помогают справляться адаптивные алгоритмы, беспроводные интерфейсы и «нейрочипы», которые учатся подстраиваться под мозг.
Представь переводчика между двумя разными культурами: он должен не только знать слова, но и улавливать интонации и жесты. Так и интерфейсы мозг–компьютер учатся переводить мысли в команды и обратно.
Источники:
• A sparse coding model with synaptically local plasticity and spiking neurons can account for the diverse shapes of V1 simple cell receptive fields - http://arxiv.org/pdf/1109.2239v1.pdf
• Spiking Neural Network for Intra-cortical Brain Signal Decoding - http://arxiv.org/pdf/2504.09213v1.pdf
• Decoding Spiking Mechanism with Dynamic Learning on Neuron Population - http://arxiv.org/pdf/1911.09309v1.pdf
• Reconstruction of Natural Visual Scenes from Neural Spikes with Deep Neural Networks - http://arxiv.org/pdf/1904.13007v2.pdf
🧠 Как мозг и компьютер договариваются между собой?
TL;DR Компьютер «слушает» мозг: ловит электрические «щелчки» нейронов и переводит их в команды. В обратную сторону он посылает похожие щелчки, чтобы мозг их распознал.
Чтение мозга
Имплантируют крошечные «микрофоны» — электроды, которые улавливают короткие электрические импульсы (спайки). Это как слушать оркестр: каждая «нота» — щелчок нейрона. Алгоритмы учатся распознавать, какие сочетания этих «нот» соответствуют командам вроде «двигай рукой» или «подвинь курсор».
Запись в мозг
Чтобы подать сигнал мозгу, посылают такие же короткие импульсы. Если правильно подобрать ритм и силу, мозг воспринимает их как ощущение или команду — будто кто‑то коснулся пальца определённым образом.
Самая большая проблема
Два разных языка: мозг — шумный, гибкий и живой; компьютер — точный и строгий. С этим помогают справляться адаптивные алгоритмы, беспроводные интерфейсы и «нейрочипы», которые учатся подстраиваться под мозг.
Представь переводчика между двумя разными культурами: он должен не только знать слова, но и улавливать интонации и жесты. Так и интерфейсы мозг–компьютер учатся переводить мысли в команды и обратно.
Источники:
• A sparse coding model with synaptically local plasticity and spiking neurons can account for the diverse shapes of V1 simple cell receptive fields - http://arxiv.org/pdf/1109.2239v1.pdf
• Spiking Neural Network for Intra-cortical Brain Signal Decoding - http://arxiv.org/pdf/2504.09213v1.pdf
• Decoding Spiking Mechanism with Dynamic Learning on Neuron Population - http://arxiv.org/pdf/1911.09309v1.pdf
• Reconstruction of Natural Visual Scenes from Neural Spikes with Deep Neural Networks - http://arxiv.org/pdf/1904.13007v2.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
❤1👍1🔥1
Powered by ADCO (https://github.com/pockerhead/ADCO)
Used LLMs: qwen2.5:14b via Ollama, Embeddings: mxbai-embed-large via Ollama
Как работает предсказательное кодирование в деменции?
Что если наш мозг – это прогнозирующая машина?
TL;DR: Наш мозг использует предсказания для уменьшения неопределенности и улучшения восприятия. В деменции эта способность страдает, что приводит к проблемам с памятью и ориентацией.
Мозг как прогнозирующая машина:
Предсказательное кодирование говорит о том, что мозг делает предсказания на основе прошлого опыта, чтобы эффективно обрабатывать окружающую среду и уменьшить неопределенность.
Ключевая роль гиппокампа:
Гиппокамп играет важную роль в формировании ожиданий будущих событий. Он предсказывает возможные последствия прошлых действий, помогая нам подготовиться к тому, что может произойти.
Деградация и проблемы:
Повреждение гиппокампа приводит к проблемам с памятью, прогнозированием будущих событий и обучением. Это мешает людям эффективно функционировать в повседневной жизни.
Аудиопроцессинг:
Поврежденный гиппокамп также затрудняет обработку сложных аудиофрагментов, что делает простые задачи восприятия звуков трудными для людей с деменцией.
Роль дофамина:
Дофамин – нейромедиатор, который помогает мозгу учиться на основе предсказаний. Его дефицит в болезни Паркинсона приводит к проблемам обучения и обработке информации.
Прогнозирование как основа психиатрии:
Теория предсказательного кодирования помогает понять, почему при шизофрении люди могут испытывать галлюцинации – из-за чрезмерной уверенности в своих прогнозах.
Влияние на ИИ:
Эти исследования открывают новые пути для создания более эффективных систем искусственного интеллекта, способных моделировать человеческое мышление с большей точностью и интерпретируемостью.
Источники:
• Правильный прогноз – основа памяти - http://arxiv.org/pdf/2106.07355v1.pdf
• Заблуждения предсказательного кодирования в деменции - http://arxiv.org/pdf/2006.06311v1.pdf
• Статистическая механика для сетей нейронов - http://arxiv.org/pdf/2409.00412v1.pdf
• Интерактивность с мыслящей ИИ - http://arxiv.org/pdf/2502.18676v2.pdf
• Сети реальных нейронов и их моделирование - http://paulmerolla.com/merolla_main_som.pdf
Used LLMs: qwen2.5:14b via Ollama, Embeddings: mxbai-embed-large via Ollama
Как работает предсказательное кодирование в деменции?
Что если наш мозг – это прогнозирующая машина?
TL;DR: Наш мозг использует предсказания для уменьшения неопределенности и улучшения восприятия. В деменции эта способность страдает, что приводит к проблемам с памятью и ориентацией.
Мозг как прогнозирующая машина:
Предсказательное кодирование говорит о том, что мозг делает предсказания на основе прошлого опыта, чтобы эффективно обрабатывать окружающую среду и уменьшить неопределенность.
Ключевая роль гиппокампа:
Гиппокамп играет важную роль в формировании ожиданий будущих событий. Он предсказывает возможные последствия прошлых действий, помогая нам подготовиться к тому, что может произойти.
Деградация и проблемы:
Повреждение гиппокампа приводит к проблемам с памятью, прогнозированием будущих событий и обучением. Это мешает людям эффективно функционировать в повседневной жизни.
Аудиопроцессинг:
Поврежденный гиппокамп также затрудняет обработку сложных аудиофрагментов, что делает простые задачи восприятия звуков трудными для людей с деменцией.
Роль дофамина:
Дофамин – нейромедиатор, который помогает мозгу учиться на основе предсказаний. Его дефицит в болезни Паркинсона приводит к проблемам обучения и обработке информации.
Прогнозирование как основа психиатрии:
Теория предсказательного кодирования помогает понять, почему при шизофрении люди могут испытывать галлюцинации – из-за чрезмерной уверенности в своих прогнозах.
Влияние на ИИ:
Эти исследования открывают новые пути для создания более эффективных систем искусственного интеллекта, способных моделировать человеческое мышление с большей точностью и интерпретируемостью.
Источники:
• Правильный прогноз – основа памяти - http://arxiv.org/pdf/2106.07355v1.pdf
• Заблуждения предсказательного кодирования в деменции - http://arxiv.org/pdf/2006.06311v1.pdf
• Статистическая механика для сетей нейронов - http://arxiv.org/pdf/2409.00412v1.pdf
• Интерактивность с мыслящей ИИ - http://arxiv.org/pdf/2502.18676v2.pdf
• Сети реальных нейронов и их моделирование - http://paulmerolla.com/merolla_main_som.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
💥 Что скрывают квантовые флуктуации о рождении Вселенной?
Новые исследования показали, что на ранних этапах развития Вселенной квантовые флуктуации (нулевые колебания в основном состоянии) формируют будущие структуры. Если флуктуации начинаются в состоянии вакуума Гейзенберга, они приобретают почти масштабно-инвариантный спектр плотности энергии — это согласуется с наблюдаемыми данными космологических миссий.
Квантовые флуктуации описываются операторами создания и уничтожения частиц для различных волновых чисел k. Использование методов теории квантовой информации позволяет рассматривать эти колебания как систему непрерывной переменной, что открывает новые возможности анализа.
Анализ показал, что флуктуации могут быть описаны через бипартитные системы, позволяя изучать корреляции между подсистемами. Это важный шаг к пониманию роли квантовой информации в ранней Вселенной и формировании её структур.
---
🔍 Почему это важно
Эти исследования помогают лучше понять роль квантовых процессов (механических, электромагнитных и т.д.) в образовании первичных структур Вселенной, что ключевым образом влияет на современное понимание космологии. Они также подчеркивают связь между квантовой механикой и космологией.
---
📎 Ссылки на статьи:
• Cosmic Inflation, Quantum Information and the Pioneering Role of John S Bell in Cosmology - http://arxiv.org/pdf/1904.00083v1.pdf
• Mori-Zwanzig formalism for early cosmic inflation - http://arxiv.org/pdf/2407.01506v2.pdf
• Cosmological Gravitational Waves from Isocurvature Fluctuations - http://arxiv.org/pdf/2311.02065v1.pdf
💥 Что скрывают квантовые флуктуации о рождении Вселенной?
Новые исследования показали, что на ранних этапах развития Вселенной квантовые флуктуации (нулевые колебания в основном состоянии) формируют будущие структуры. Если флуктуации начинаются в состоянии вакуума Гейзенберга, они приобретают почти масштабно-инвариантный спектр плотности энергии — это согласуется с наблюдаемыми данными космологических миссий.
Квантовые флуктуации описываются операторами создания и уничтожения частиц для различных волновых чисел k. Использование методов теории квантовой информации позволяет рассматривать эти колебания как систему непрерывной переменной, что открывает новые возможности анализа.
Анализ показал, что флуктуации могут быть описаны через бипартитные системы, позволяя изучать корреляции между подсистемами. Это важный шаг к пониманию роли квантовой информации в ранней Вселенной и формировании её структур.
---
🔍 Почему это важно
Эти исследования помогают лучше понять роль квантовых процессов (механических, электромагнитных и т.д.) в образовании первичных структур Вселенной, что ключевым образом влияет на современное понимание космологии. Они также подчеркивают связь между квантовой механикой и космологией.
---
📎 Ссылки на статьи:
• Cosmic Inflation, Quantum Information and the Pioneering Role of John S Bell in Cosmology - http://arxiv.org/pdf/1904.00083v1.pdf
• Mori-Zwanzig formalism for early cosmic inflation - http://arxiv.org/pdf/2407.01506v2.pdf
• Cosmological Gravitational Waves from Isocurvature Fluctuations - http://arxiv.org/pdf/2311.02065v1.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
❤1
Powered by ADCO (https://github.com/pockerhead/ADCO)
🧠 Как машины учатся через награды?
Представь, что ты учишь младшего брата играть в сложную игру с множеством правил и уровней. Вместо объяснений все сводится к одной шкале: плюсик за хорошее поведение, минусик за плохое. Вот такой подход изучают ученые в области машинного обучения.
---
🔑 Основные моменты:
* Награда — ключевой сигнал для машин, который помогает им понять, что делать хорошо и что исправить.
* Проектирование наград так, чтобы она работала на всех уровнях системы, важно для эффективности обучения.
* Учитывая прошлый опыт машины, обучение может быть непрерывным и адаптивным к новым вызовам.
---
💡 Например:
- Если у тебя есть робот-пылесос, награда может выражаться в баллах за чистоту дома.
- Но важно, чтобы эта система могла учиться на прошлом опыте: если он когда-то пропускал уголки — теперь это должно учитываться при обучении.
---
🚀 Почему это важно?
Эти принципы могут сделать машины более адаптивными и эффективными в долгосрочной перспективе, помогая им лучше справляться со сложными задачами без постоянного человеческого вмешательства.
---
🔗 Источники:
• Some Insights into Lifelong Reinforcement Learning Systems - http://arxiv.org/pdf/2001.09608v1.pdf
• Comprehensive Overview of Reward Engineering and Shaping in Advancing Reinforcement Learning Applications - http://arxiv.org/pdf/2408.10215v2.pdf
🧠 Как машины учатся через награды?
Представь, что ты учишь младшего брата играть в сложную игру с множеством правил и уровней. Вместо объяснений все сводится к одной шкале: плюсик за хорошее поведение, минусик за плохое. Вот такой подход изучают ученые в области машинного обучения.
---
🔑 Основные моменты:
* Награда — ключевой сигнал для машин, который помогает им понять, что делать хорошо и что исправить.
* Проектирование наград так, чтобы она работала на всех уровнях системы, важно для эффективности обучения.
* Учитывая прошлый опыт машины, обучение может быть непрерывным и адаптивным к новым вызовам.
---
💡 Например:
- Если у тебя есть робот-пылесос, награда может выражаться в баллах за чистоту дома.
- Но важно, чтобы эта система могла учиться на прошлом опыте: если он когда-то пропускал уголки — теперь это должно учитываться при обучении.
---
🚀 Почему это важно?
Эти принципы могут сделать машины более адаптивными и эффективными в долгосрочной перспективе, помогая им лучше справляться со сложными задачами без постоянного человеческого вмешательства.
---
🔗 Источники:
• Some Insights into Lifelong Reinforcement Learning Systems - http://arxiv.org/pdf/2001.09608v1.pdf
• Comprehensive Overview of Reward Engineering and Shaping in Advancing Reinforcement Learning Applications - http://arxiv.org/pdf/2408.10215v2.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
🤯 Помнишь, как простые правила могут привести к сложным узорам в природе? Это не просто красота — это наука!
🧠 Исследователи изучают хаос и турбулентность с помощью теории случайных матриц (RMT). Они анализировали структуру данных динамических систем, таких как ковариационные матрицы и единичный образец-матрицы. Оказалось, что даже простые правила могут порождать сложные паттерны из-за уникальных свойств этих систем.
💡 Например, турбулентность в жидкостях и хаотические системы показывают похожие структуры собственных значений при единичном образце. Однако есть важное различие: компрессируемость или несжимаемость жидкостей. Это помогает нам лучше понять, почему простые правила могут приводить к таким сложным узорам.
🚀 А что это даёт на практике? Методы RMT позволяют классифицировать системы и выделять универсальные свойства. Это открывает новые горизонты в понимании поведения реальных динамических систем — от космической плазмы до нейронных сетей.
🔗 Ссылки на исследования:
* Появление хаоса в конденсированной материи и сложных системах:
http://arxiv.org/pdf/1802.10160v1.pdf
* Хаос, сложность и перерывистая турбулентность в космической плазме:
http://arxiv.org/pdf/2204.06133v1.pdf
* Универсальная статистическая структура и законы масштабирования хаотических систем и турбулентности:
http://arxiv.org/pdf/2311.01358v1.pdf
🤯 Помнишь, как простые правила могут привести к сложным узорам в природе? Это не просто красота — это наука!
🧠 Исследователи изучают хаос и турбулентность с помощью теории случайных матриц (RMT). Они анализировали структуру данных динамических систем, таких как ковариационные матрицы и единичный образец-матрицы. Оказалось, что даже простые правила могут порождать сложные паттерны из-за уникальных свойств этих систем.
💡 Например, турбулентность в жидкостях и хаотические системы показывают похожие структуры собственных значений при единичном образце. Однако есть важное различие: компрессируемость или несжимаемость жидкостей. Это помогает нам лучше понять, почему простые правила могут приводить к таким сложным узорам.
🚀 А что это даёт на практике? Методы RMT позволяют классифицировать системы и выделять универсальные свойства. Это открывает новые горизонты в понимании поведения реальных динамических систем — от космической плазмы до нейронных сетей.
🔗 Ссылки на исследования:
* Появление хаоса в конденсированной материи и сложных системах:
http://arxiv.org/pdf/1802.10160v1.pdf
* Хаос, сложность и перерывистая турбулентность в космической плазме:
http://arxiv.org/pdf/2204.06133v1.pdf
* Универсальная статистическая структура и законы масштабирования хаотических систем и турбулентности:
http://arxiv.org/pdf/2311.01358v1.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
Почему глубокое обучение так хорошо распознает сложные паттерны?
Глубокие нейронные сети с несколькими скрытыми слоями могут автоматически извлекать признаки на разных уровнях абстракции. Это позволяет моделям эффективно распознавать сложные структуры в данных, будь то изображения или текст.
Ключевую роль здесь играет алгоритм обратного распространения ошибки (Backpropagation), который обучает сети на основе градиента функции потерь. Этот процесс позволяет моделям адаптироваться к сложным паттернам, начиная с простых локальных структур и заканчивая глобальными концепциями.
Применение таких моделей в реальном времени требует оптимизации алгоритмов и высокопроизводительного оборудования. Например, система TrueNorth может эффективно распознавать объекты на видео при ограниченных вычислительных ресурсах.
Таким образом, глубокое обучение открывает новые горизонты в автоматическом извлечении сложных паттернов и классификации данных. Это делает его неотъемлемой частью современного искусственного интеллекта.
---
Источники:
• Statistical mechanics for networks of real neurons - http://arxiv.org/pdf/2409.00412v1.pdf
• merolla_main_som - http://paulmerolla.com/merolla_main_som.pdf
• Revisiting Marr in Face: The Building of 2D--2.5D--3D Representations in Deep Neural Networks - http://arxiv.org/pdf/2411.16148v1.pdf
Почему глубокое обучение так хорошо распознает сложные паттерны?
Глубокие нейронные сети с несколькими скрытыми слоями могут автоматически извлекать признаки на разных уровнях абстракции. Это позволяет моделям эффективно распознавать сложные структуры в данных, будь то изображения или текст.
Ключевую роль здесь играет алгоритм обратного распространения ошибки (Backpropagation), который обучает сети на основе градиента функции потерь. Этот процесс позволяет моделям адаптироваться к сложным паттернам, начиная с простых локальных структур и заканчивая глобальными концепциями.
Применение таких моделей в реальном времени требует оптимизации алгоритмов и высокопроизводительного оборудования. Например, система TrueNorth может эффективно распознавать объекты на видео при ограниченных вычислительных ресурсах.
Таким образом, глубокое обучение открывает новые горизонты в автоматическом извлечении сложных паттернов и классификации данных. Это делает его неотъемлемой частью современного искусственного интеллекта.
---
Источники:
• Statistical mechanics for networks of real neurons - http://arxiv.org/pdf/2409.00412v1.pdf
• merolla_main_som - http://paulmerolla.com/merolla_main_som.pdf
• Revisiting Marr in Face: The Building of 2D--2.5D--3D Representations in Deep Neural Networks - http://arxiv.org/pdf/2411.16148v1.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
Звёзды — это не просто мерцающие огоньки на ночном небе. Они живые объекты со сложными жизненными циклами и процессами смерти.
- Маленькие звёзды, такие как красные карлики (с массой около 0,1 масс Солнца), могут существовать до 12 триллионов лет без эволюции в красный гигант. Они медленно умирают и превращаются в белые карлики.
- Большие звёзды (с массой от 0,6 до 10 масс Солнца) проходят через несколько этапов: красный гигант, горизонтальная ветвь и асимптотическая гигантская ветвь перед тем, как стать сверхновой.
- Самая интересная часть — процесс потери массы. Звезда теряет часть своего вещества во внешнее пространство, что изменяет её внутренние процессы:
* Температура внутри звезды снижается из-за уменьшения давления.
* Это замедляет реакции сгорания ядра и увеличивает продолжительность жизни звезды.
---
🔥 Почему это важно
Процесс потери массы формирует уникальные свойства и внешний вид звёзд. Он влияет на их температуру, светимость и химический состав, делая каждую звезду неповторимой. Это помогает астрономам понять историю Вселенной и создавать карты прошлого и настоящего небесных тел.
---
💡 Вот так потери массы превращают обычные звёзды в разнообразие галактических светил.
Источники:
• Current problems in stellar evolution - http://arxiv.org/pdf/1902.10399v1.pdf
• Stellar evolution - Wikipedia - https://en.wikipedia.org/wiki/Stellar_evolution
• Stellar Evolution | aavso - https://www.aavso.org/stellar-evolution
Звёзды — это не просто мерцающие огоньки на ночном небе. Они живые объекты со сложными жизненными циклами и процессами смерти.
- Маленькие звёзды, такие как красные карлики (с массой около 0,1 масс Солнца), могут существовать до 12 триллионов лет без эволюции в красный гигант. Они медленно умирают и превращаются в белые карлики.
- Большие звёзды (с массой от 0,6 до 10 масс Солнца) проходят через несколько этапов: красный гигант, горизонтальная ветвь и асимптотическая гигантская ветвь перед тем, как стать сверхновой.
- Самая интересная часть — процесс потери массы. Звезда теряет часть своего вещества во внешнее пространство, что изменяет её внутренние процессы:
* Температура внутри звезды снижается из-за уменьшения давления.
* Это замедляет реакции сгорания ядра и увеличивает продолжительность жизни звезды.
---
🔥 Почему это важно
Процесс потери массы формирует уникальные свойства и внешний вид звёзд. Он влияет на их температуру, светимость и химический состав, делая каждую звезду неповторимой. Это помогает астрономам понять историю Вселенной и создавать карты прошлого и настоящего небесных тел.
---
💡 Вот так потери массы превращают обычные звёзды в разнообразие галактических светил.
Источники:
• Current problems in stellar evolution - http://arxiv.org/pdf/1902.10399v1.pdf
• Stellar evolution - Wikipedia - https://en.wikipedia.org/wiki/Stellar_evolution
• Stellar Evolution | aavso - https://www.aavso.org/stellar-evolution
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
🤖 Как влияет стоическая этика на создание ИИ с эмоциональным интеллектом?
🧠 Вместо стандартных подходов к этике — утилитаризма или деонтологии, исследователи предлагают использовать принципы стоического возвышения к добродетели и этического поведения.
💡 Стоицизм фокусируется на внутренних качествах человека: мудрости, мужества, справедливости и сдержанности. Эти характеристики можно внедрить в ИИ для улучшения его этической зрелости.
🌱 Однако стоическая этика не отрицает внешнее поведение. Она подчеркивает важность саморегуляции и развития внутренних качеств, которые влияют на то, как ИИ действует в реальном мире.
🤔 Основная идея — принимать во внимание степень контроля над ситуацией. Стоицизм предлагает оценивать действия не только по их последствиям, но и по внутренней целостности.
🔗 Это новая перспектива на создание ответственных ИИ, которые следуют правилам, но также стремятся к высоким этическим стандартам. Особенно важно для роботов с эмоциональным интеллектом — они должны уметь понимать и уважать чувства людей.
💡 Внедрение стоических принципов в ИИ позволяет создавать системы, которые не просто эффективно выполняют задачи, но и обладают внутренней этической зрелостью.
Источники:
• Robot Ethics: The Ethical and Social Implications of Robotics | Reviews | Notre Dame Philosophical Reviews | University of Notre Dame - http://ndpr.nd.edu/news/31199-robot-ethics-the-ethical-and-social-implications-of-robotics/
• Stoic Ethics for Artificial Agents - http://arxiv.org/pdf/1701.02388v2.pdf
• Ethics of Artificial Intelligence and Robotics (Stanford Encyclopedia of Philosophy) - https://plato.stanford.edu/entries/ethics-ai/
• Ethics of artificial intelligence - Wikipedia - https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence
• The Dark Side of Ethical Robots - http://arxiv.org/pdf/1606.02583v1.pdf
🤖 Как влияет стоическая этика на создание ИИ с эмоциональным интеллектом?
🧠 Вместо стандартных подходов к этике — утилитаризма или деонтологии, исследователи предлагают использовать принципы стоического возвышения к добродетели и этического поведения.
💡 Стоицизм фокусируется на внутренних качествах человека: мудрости, мужества, справедливости и сдержанности. Эти характеристики можно внедрить в ИИ для улучшения его этической зрелости.
🌱 Однако стоическая этика не отрицает внешнее поведение. Она подчеркивает важность саморегуляции и развития внутренних качеств, которые влияют на то, как ИИ действует в реальном мире.
🤔 Основная идея — принимать во внимание степень контроля над ситуацией. Стоицизм предлагает оценивать действия не только по их последствиям, но и по внутренней целостности.
🔗 Это новая перспектива на создание ответственных ИИ, которые следуют правилам, но также стремятся к высоким этическим стандартам. Особенно важно для роботов с эмоциональным интеллектом — они должны уметь понимать и уважать чувства людей.
💡 Внедрение стоических принципов в ИИ позволяет создавать системы, которые не просто эффективно выполняют задачи, но и обладают внутренней этической зрелостью.
Источники:
• Robot Ethics: The Ethical and Social Implications of Robotics | Reviews | Notre Dame Philosophical Reviews | University of Notre Dame - http://ndpr.nd.edu/news/31199-robot-ethics-the-ethical-and-social-implications-of-robotics/
• Stoic Ethics for Artificial Agents - http://arxiv.org/pdf/1701.02388v2.pdf
• Ethics of Artificial Intelligence and Robotics (Stanford Encyclopedia of Philosophy) - https://plato.stanford.edu/entries/ethics-ai/
• Ethics of artificial intelligence - Wikipedia - https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence
• The Dark Side of Ethical Robots - http://arxiv.org/pdf/1606.02583v1.pdf
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO
Powered by ADCO (https://github.com/pockerhead/ADCO)
Почему гнезда бабочек и пчёл выглядят невозможными, будто они парят без поддержки?
TL;DR
Животные используют простые локальные правила и природные поля (гидродинамику, магнитные поля, химические сигналы) для создания устойчивых структур. Наука уже воссоздаёт это: генетические алгоритмы и роботы‑ловушки (LureBot) показывают, как оптимизированные движения и сенсоры позволяют создавать лёгкие, энергоэффективные конструкции.
Как это работает
- Рыбы поддерживают расстояние около 8 см и согласуют скорость, создавая плотные «облака» движения, устойчивые к турбулентности.
- Птицы используют магниторецепцию в глазах для компасной навигации, а насекомые — феромоны, чтобы координировать строение гнезд.
- Инженеры перенесли эти принципы: синусоидальные траектории лопастей, пассивные аэродинамические повороты и роботы, управляемые моделью DLI, почти воспроизводят рыбий паттерн, но с меньшими энергетическими затратами.
Почему это важно
Новые методы позволяют проектировать автономные датчики, подводные аппараты и лёгкие летательные системы, которые требуют меньше энергии и ресурсов. Понимание «естественных» правил поведения животных открывает путь к инновационным материалам и алгоритмам, способным заменить дорогие и энергоёмкие технологии.
Источники:
• Phenomenology and scaling of optimal flapping wing kinematics - http://arxiv.org/pdf/2007.15729v2.pdf
• Evolution and the Physics Behind Animal Behavior - https://elearncollege.com/farming-and-animal-care/evolution-and-the-physics-behind-animal-behavior/
• How Hummingbirds Hum: Oscillating Aerodynamic Forces Explain Timbre of
the Humming Sound - http://arxiv.org/pdf/2009.01933v1.pdf
• Quantifying the biomimicry gap in biohybrid robot-fish pairs - http://arxiv.org/pdf/2308.08978v2.pdf
• Ten Bio-inspired Aerospace Innovations: Based on Biomimicry of Insects, Birds and Animals – EDI Weekly: Engineered Design Insider - https://www.ediweekly.com/ten-bio-inspired-aerospace-innovations-based-on-biomimicry-of-insects-birds-and-animals/
Почему гнезда бабочек и пчёл выглядят невозможными, будто они парят без поддержки?
TL;DR
Животные используют простые локальные правила и природные поля (гидродинамику, магнитные поля, химические сигналы) для создания устойчивых структур. Наука уже воссоздаёт это: генетические алгоритмы и роботы‑ловушки (LureBot) показывают, как оптимизированные движения и сенсоры позволяют создавать лёгкие, энергоэффективные конструкции.
Как это работает
- Рыбы поддерживают расстояние около 8 см и согласуют скорость, создавая плотные «облака» движения, устойчивые к турбулентности.
- Птицы используют магниторецепцию в глазах для компасной навигации, а насекомые — феромоны, чтобы координировать строение гнезд.
- Инженеры перенесли эти принципы: синусоидальные траектории лопастей, пассивные аэродинамические повороты и роботы, управляемые моделью DLI, почти воспроизводят рыбий паттерн, но с меньшими энергетическими затратами.
Почему это важно
Новые методы позволяют проектировать автономные датчики, подводные аппараты и лёгкие летательные системы, которые требуют меньше энергии и ресурсов. Понимание «естественных» правил поведения животных открывает путь к инновационным материалам и алгоритмам, способным заменить дорогие и энергоёмкие технологии.
Источники:
• Phenomenology and scaling of optimal flapping wing kinematics - http://arxiv.org/pdf/2007.15729v2.pdf
• Evolution and the Physics Behind Animal Behavior - https://elearncollege.com/farming-and-animal-care/evolution-and-the-physics-behind-animal-behavior/
• How Hummingbirds Hum: Oscillating Aerodynamic Forces Explain Timbre of
the Humming Sound - http://arxiv.org/pdf/2009.01933v1.pdf
• Quantifying the biomimicry gap in biohybrid robot-fish pairs - http://arxiv.org/pdf/2308.08978v2.pdf
• Ten Bio-inspired Aerospace Innovations: Based on Biomimicry of Insects, Birds and Animals – EDI Weekly: Engineered Design Insider - https://www.ediweekly.com/ten-bio-inspired-aerospace-innovations-based-on-biomimicry-of-insects-birds-and-animals/
GitHub
GitHub - pockerhead/SADCO: Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG…
Автономная система генерации и публикации постов для Telegram канала с использованием LLM агентов, RAG системы и векторного поиска. - pockerhead/SADCO