Forwarded from Хабр
Опасения по поводу массовых увольнений из‑за ИИ преувеличены, считает генеральный директор Nvidia Дженсен Хуан. Искусственный интеллект не отнимает труд, а преобразовывает его в нечто новое, заявил он в интервью CNN.
Хуан полагает, что некоторые люди действительно потеряют свою работу из‑за массового внедрения ИИ, однако многие другие, напротив, получат новые возможности. Он отметил, что это происходит и с его собственной работой.
«Я не прошу ИИ думать за меня. Я прошу его научить меня тому, чего я не знаю, или помочь решить задачи, которые я не мог бы решить по‑другому», — сказал Хуан.
Гендиректор Nvidia подчеркнул важность умения формулировать запросы — по его словам, это один из ключевых навыков в эпоху ИИ. Хуан пояснил, что зачастую обращается параллельно сразу к нескольким моделям, чтобы сравнить результаты. Такая практика развивает критическое мышление, считает он.
Кроме того, Хуан заметил, что потери рабочих мест могут быть с большей вероятностью спровоцированы отказом компаний от инноваций, таких как ИИ.
Хуан призвал людей считать искусственный интеллект не угрозой, а «величайшим технологическим уравнителем», поскольку он помогает сократить разрыв между людьми и технологиями.
Хуан полагает, что некоторые люди действительно потеряют свою работу из‑за массового внедрения ИИ, однако многие другие, напротив, получат новые возможности. Он отметил, что это происходит и с его собственной работой.
«Я не прошу ИИ думать за меня. Я прошу его научить меня тому, чего я не знаю, или помочь решить задачи, которые я не мог бы решить по‑другому», — сказал Хуан.
Гендиректор Nvidia подчеркнул важность умения формулировать запросы — по его словам, это один из ключевых навыков в эпоху ИИ. Хуан пояснил, что зачастую обращается параллельно сразу к нескольким моделям, чтобы сравнить результаты. Такая практика развивает критическое мышление, считает он.
Кроме того, Хуан заметил, что потери рабочих мест могут быть с большей вероятностью спровоцированы отказом компаний от инноваций, таких как ИИ.
Хуан призвал людей считать искусственный интеллект не угрозой, а «величайшим технологическим уравнителем», поскольку он помогает сократить разрыв между людьми и технологиями.
🤖 ИИ не заменит мышление. Как фастфуд не заменит вино и домашний хлеб.
Автоматизация — это массово. Но массовое ≠ глубокое.
ИИ собирает тексты, картинки, музыку, код — по шаблону.
Но не понимает, зачем и что это значит.
Он решает как, но не чувствует зачем.
🧠 Hand-made мышление снова в цене:
• мысли, не отрефреймленные по мануалу
• идеи вне обучающей выборки
• логика с трещинами — но своя
🌀 ИИ рождает инфо-барахолку.
А она — взращивает спрос на авторство.
На интуицию. На живую точку зрения.
На то, что не дообучить.
ИИ создаёт много.
Цениться будет уникальное.
ИИ спрашивает — как.
Человек отвечает — зачем.
Если ты умеешь думать по‑своему — ты не устареешь.
Автоматизация — это массово. Но массовое ≠ глубокое.
ИИ собирает тексты, картинки, музыку, код — по шаблону.
Но не понимает, зачем и что это значит.
Он решает как, но не чувствует зачем.
🧠 Hand-made мышление снова в цене:
• мысли, не отрефреймленные по мануалу
• идеи вне обучающей выборки
• логика с трещинами — но своя
🌀 ИИ рождает инфо-барахолку.
А она — взращивает спрос на авторство.
На интуицию. На живую точку зрения.
На то, что не дообучить.
ИИ создаёт много.
Цениться будет уникальное.
ИИ спрашивает — как.
Человек отвечает — зачем.
Если ты умеешь думать по‑своему — ты не устареешь.
🧷 Люди с ИИ заменят тех, кто без него.
— Harvard Business Review: https://hbr.org/2023/08/ai-wont-replace-humans-but-humans-with-ai-will-replace-humans-without-ai
🔥2
Forwarded from Вселенная Плюс
This media is not supported in your browser
VIEW IN TELEGRAM
Тайна креативности ИИ
Физики из Стэнфорда разгадали один из главных парадоксов современного ИИ. Почему нейросети, которые копируют данные, вдруг начинают творить?
Диффузионные модели вроде DALL·E работают как "умный шредер" — превращают картинку в шум, а потом восстанавливают. Но вместо точной копии получается что-то новое и осмысленное. Как?
Мейсон Камб и Сурья Гангули нашли ответ в самих "недостатках" системы. Оказывается, креативность — это прямое следствие двух технических ограничений.
Первое — "локальность". Модель смотрит только на маленькие кусочки изображения, не видя общей картины. Камб сравнивает это с развитием эмбрионов — триллионы клеток координируются без "генерального директора", реагируя только на сигналы соседей. Второе — "эквивариантность": система автоматически подстраивается под любые сдвиги входных данных.
Исследователи создали математическую модель ELS, которая работает исключительно на этих двух принципах. Никакого обучения, никаких терабайтов данных — только чистая математика.
Результат оказался интересным: их простая модель предсказывала поведение сложнейших обученных нейросетей с точностью 90%! Для машинного обучения это "неслыханная" точность.
"Как только мы ввели локальность, креативность стала автоматической", — объясняет Камб. То есть те самые "ограничения", которые мешают нейросети делать точные копии, заставляют ее импровизировать.
Вспомните первые ИИ-изображения людей с лишними пальцами. Это не баг — это прямое следствие локального подхода! Как и в биологии, где иногда развитие эмбриона дает сбой и появляются дополнительные конечности, система рисует отдельные участки, не понимая, как они впишутся в финальную картину.
Открытие имеет огромное значение. Впервые удалось математически формализовать креативность ИИ и доказать, что она возникает из архитектуры системы.
Правда, это объясняет только диффузионные модели. Большие языковые модели тоже творят, но работают по другим принципам. Так что тайн в мире ИИ еще хватает!
@vselennayaplus
Физики из Стэнфорда разгадали один из главных парадоксов современного ИИ. Почему нейросети, которые копируют данные, вдруг начинают творить?
Диффузионные модели вроде DALL·E работают как "умный шредер" — превращают картинку в шум, а потом восстанавливают. Но вместо точной копии получается что-то новое и осмысленное. Как?
Мейсон Камб и Сурья Гангули нашли ответ в самих "недостатках" системы. Оказывается, креативность — это прямое следствие двух технических ограничений.
Первое — "локальность". Модель смотрит только на маленькие кусочки изображения, не видя общей картины. Камб сравнивает это с развитием эмбрионов — триллионы клеток координируются без "генерального директора", реагируя только на сигналы соседей. Второе — "эквивариантность": система автоматически подстраивается под любые сдвиги входных данных.
Исследователи создали математическую модель ELS, которая работает исключительно на этих двух принципах. Никакого обучения, никаких терабайтов данных — только чистая математика.
Результат оказался интересным: их простая модель предсказывала поведение сложнейших обученных нейросетей с точностью 90%! Для машинного обучения это "неслыханная" точность.
"Как только мы ввели локальность, креативность стала автоматической", — объясняет Камб. То есть те самые "ограничения", которые мешают нейросети делать точные копии, заставляют ее импровизировать.
Вспомните первые ИИ-изображения людей с лишними пальцами. Это не баг — это прямое следствие локального подхода! Как и в биологии, где иногда развитие эмбриона дает сбой и появляются дополнительные конечности, система рисует отдельные участки, не понимая, как они впишутся в финальную картину.
Открытие имеет огромное значение. Впервые удалось математически формализовать креативность ИИ и доказать, что она возникает из архитектуры системы.
Правда, это объясняет только диффузионные модели. Большие языковые модели тоже творят, но работают по другим принципам. Так что тайн в мире ИИ еще хватает!
@vselennayaplus
👍2
🧠 Дообучение маленьких моделей против больших: кто вывозит и когда
О чём вообще речь?
В машинном обучении (ML) часто берут уже готовую языковую модель и адаптируют под свою задачу — это называется fine-tuning, тонкая настройка.
Бывает два типа моделей:
– SLM (Small Language Model) — маленькая модель, до 7 млрд параметров
– LLM (Large Language Model) — большая, от 13 млрд и выше
Параметры — это числа в модели. Чем их больше, тем она «умнее»… и прожорливее.
LoRA / PEFT / QLoRA — методы, которые позволяют дообучать только часть модели. Быстро, дёшево, удобно.
---
Плюсы маленьких моделей (SLM)
⛽ Малый расход, большой выхлоп
Можно запускать локально. Даже на ноуте с RTX 4070 Ti. Быстро, дёшево, по-своему кайфово.
🎯 Лучше в узком
Если задача — документы, поддержка, медицина или база знаний компании — дообученный SLM даст точность выше GPT‑4.
🛡️ Приватность и контроль
Работаете с внутренними данными — всё остаётся на вашей стороне. Никаких API, никаких облаков.
🚀 Скорость
SLM отвечает мгновенно. Без лага, без прогрева. Как хороший собутыльник — сразу в точку.
📚 techradar: “Small models, big wins”
📚 blog.premai.io: “Fine-tuning Small Language Models”
---
Минусы маленьких моделей
🤏 Мало памяти = мало мышления
Контекст короткий, логика поверхностная. Сложные цепочки и философия — не про них.
📉 Переобучение
Если мало данных — модель начнёт "залипать" на повторении и деградировать. Это называется overfitting.
📚 medium.com: “Advantages and disadvantages of fine-tuning”
---
Плюсы больших моделей (LLM)
🌍 Широкий контекст
LLM натренированы на триллионах токенов. Они понимают язык, намёки, иронию, дают развёрнутые, логичные, даже творческие ответы.
🧩 Гибкость
Иногда даже без дообучения можно добиться хороших результатов просто промптами. А если обучить — получите универсального помощника.
🎨 Креатив
LLM умеет придумывать, связывать неочевидное, выдавать инсайты и оригинальные ходы.
---
Минусы больших моделей
💸 Цена
Для дообучения нужны A100, H100, куча VRAM и электричества. Даже inference дорого стоит, если речь про GPT‑4.
🕳️ Потеря контроля
Всё через облако, всё чужое. API = зависимость. Приватности — ноль.
🧠 Катастрофическое забывание
Если не умеешь обучать — модель может «забыть» старые знания. Называется catastrophic forgetting.
📚 arxiv.org: LoRA paper
📚 superannotate: “LLM fine-tuning: всё, что надо знать”
---
Как лучше всё организовать?
1. Начни с малого
Скачай SLM: LLaMA‑3‑8B, Mistral‑7B, Phi‑2 или TinyLlama.
Запусти через Ollama, llama.cpp или vLLM.
2. Подготовь датасет
300–3000 пар “вопрос–ответ” хватит, особенно если задача узкая. Можно частично сгенерить на GPT‑4 и вручную дообработать.
3. Используй LoRA / QLoRA / PEFT
Это способ дообучать быстро, не трогая всю модель. Работает на обычной видеокарте, занимает в разы меньше места.
4. Подключи RAG
Если нужен доступ к базе знаний или фактам — поставь Retrieval-Augmented Generation. SLM + поиск = сила.
5. Следи за качеством
Делай валидацию, останавливай обучение при переобучении, сравнивай с базовой моделью.
6. LLM — только если надо
Когда задача требует логики, креатива, многоконтекстности — да, бери GPT‑4 или Claude. Но осознанно и с уважением к ресурсам.
---
Вывод
Если бюджет ограничен, задача узкая, а хочется контроля — маленькая модель дообучается за день и работает локально.
Если нужна глубина, ширина, и немного магии — большой моделью не обойтись, но это уже другая лига.
SLM — для локального узкого интеллекта.
LLM — как креативный и логичный советник.
Они не конкуренты — они команда.
О чём вообще речь?
В машинном обучении (ML) часто берут уже готовую языковую модель и адаптируют под свою задачу — это называется fine-tuning, тонкая настройка.
Бывает два типа моделей:
– SLM (Small Language Model) — маленькая модель, до 7 млрд параметров
– LLM (Large Language Model) — большая, от 13 млрд и выше
Параметры — это числа в модели. Чем их больше, тем она «умнее»… и прожорливее.
LoRA / PEFT / QLoRA — методы, которые позволяют дообучать только часть модели. Быстро, дёшево, удобно.
---
Плюсы маленьких моделей (SLM)
⛽ Малый расход, большой выхлоп
Можно запускать локально. Даже на ноуте с RTX 4070 Ti. Быстро, дёшево, по-своему кайфово.
🎯 Лучше в узком
Если задача — документы, поддержка, медицина или база знаний компании — дообученный SLM даст точность выше GPT‑4.
🛡️ Приватность и контроль
Работаете с внутренними данными — всё остаётся на вашей стороне. Никаких API, никаких облаков.
🚀 Скорость
SLM отвечает мгновенно. Без лага, без прогрева. Как хороший собутыльник — сразу в точку.
📚 techradar: “Small models, big wins”
📚 blog.premai.io: “Fine-tuning Small Language Models”
---
Минусы маленьких моделей
🤏 Мало памяти = мало мышления
Контекст короткий, логика поверхностная. Сложные цепочки и философия — не про них.
📉 Переобучение
Если мало данных — модель начнёт "залипать" на повторении и деградировать. Это называется overfitting.
📚 medium.com: “Advantages and disadvantages of fine-tuning”
---
Плюсы больших моделей (LLM)
🌍 Широкий контекст
LLM натренированы на триллионах токенов. Они понимают язык, намёки, иронию, дают развёрнутые, логичные, даже творческие ответы.
🧩 Гибкость
Иногда даже без дообучения можно добиться хороших результатов просто промптами. А если обучить — получите универсального помощника.
🎨 Креатив
LLM умеет придумывать, связывать неочевидное, выдавать инсайты и оригинальные ходы.
---
Минусы больших моделей
💸 Цена
Для дообучения нужны A100, H100, куча VRAM и электричества. Даже inference дорого стоит, если речь про GPT‑4.
🕳️ Потеря контроля
Всё через облако, всё чужое. API = зависимость. Приватности — ноль.
🧠 Катастрофическое забывание
Если не умеешь обучать — модель может «забыть» старые знания. Называется catastrophic forgetting.
📚 arxiv.org: LoRA paper
📚 superannotate: “LLM fine-tuning: всё, что надо знать”
---
Как лучше всё организовать?
1. Начни с малого
Скачай SLM: LLaMA‑3‑8B, Mistral‑7B, Phi‑2 или TinyLlama.
Запусти через Ollama, llama.cpp или vLLM.
2. Подготовь датасет
300–3000 пар “вопрос–ответ” хватит, особенно если задача узкая. Можно частично сгенерить на GPT‑4 и вручную дообработать.
3. Используй LoRA / QLoRA / PEFT
Это способ дообучать быстро, не трогая всю модель. Работает на обычной видеокарте, занимает в разы меньше места.
4. Подключи RAG
Если нужен доступ к базе знаний или фактам — поставь Retrieval-Augmented Generation. SLM + поиск = сила.
5. Следи за качеством
Делай валидацию, останавливай обучение при переобучении, сравнивай с базовой моделью.
6. LLM — только если надо
Когда задача требует логики, креатива, многоконтекстности — да, бери GPT‑4 или Claude. Но осознанно и с уважением к ресурсам.
---
Вывод
Если бюджет ограничен, задача узкая, а хочется контроля — маленькая модель дообучается за день и работает локально.
Если нужна глубина, ширина, и немного магии — большой моделью не обойтись, но это уже другая лига.
SLM — для локального узкого интеллекта.
LLM — как креативный и логичный советник.
Они не конкуренты — они команда.
👍3
AWS запускает Agentic AI — ИИ‑агенты берут бизнес‑процессы под контроль
Что случилось?
На AWS Summit New York AWS анонсировали революционные инструменты: Kiro — IDE для агент‑ориентированной разработки, а также полноценную платформу Amazon Bedrock AgentCore, которая выводит агенты в продакшн с инфраструктурой, безопасностью, памятью, мониторингом и интеграциями
Почему это важно?
- Переход от прототипов к промышленных решениям — AgentCore позволяет масштабировать агенты на тысячи пользователей, с полной сессией и контролем доступа
- Игрушки становятся софт‑сервисом — по словам Swami Sivasubramanian, VP AWS Agentic AI, агенты — «Это тектонический сдвиг… самое значимое с момента появления Интернета»
- Прозрачность и доверие — платформа включает управление идентификацией, памятью, безопасным доступом к сервисам, наблюдением и журналированием
Что умеют агенты AWS?
- AgentCore Runtime — серверлесс‑среда с изолированными сессиями, масштабируемая до тысяч одновременных пользователей и поддерживающая выполнение агентов до 8 часов
- Memory & Identity — кратковременная и долговременная память + безопасный доступ к AWS и внешним сервисам
- Gateway, Browser, Code Interpreter — агенты получают API, могут ходить в браузер, писать и выполнять код в песочнице
- Observability — live‑мониторинг, трассировка, логика действий, причины принятия решений
- Kiro IDE — агент‑кодер преобразует идеи в архитектуру, тесты, документацию и финальный код
Что это меняет в бизнесе?
- 🛠 Скорость и надёжность — от идеи до продакшна в разы быстрее, без долгов и рисков.
- 🔐 Безопасность на уровне банковских операций — Identity и Memory защищают данные.
- 📦 Покупай и запускай — AWS Marketplace с агентами от Anthropic, IBM, Brave и др. запущен
- 💰 Инвестиции и экосистема — дополнительные $100 млн в пользу Agentic AI Innovation Center
Вывод:
AWS заявляет: агенты — не просто фича, а новая эра IT‑разработки. Это сдвиг парадигмы: самоуправляемый софт, изначально построенный как сервис — безопасный, масштабируемый, глубоко встроенный в процессы. Всё ближе к формуле “люби или умри без агента”.
Пора задать вопрос: сколько функций в вашем бизнесе уже можно передать ИИ‑агенту? И что, если завтра они будут управлять не только кодом, но и клиентским опытом, финансами и стратегией?
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-launches-kiro-an-agentic-ai-ide-to-end-the-chaos-of-vibe-coding
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-looks-to-super-charge-ai-agents-with-amazon-bedrock-agentcore
Источник: IT Pro, ссылка: https://itpro.com/cloud/cloud-computing/three-of-the-biggest-announcements-from-aws-summit-new-york
Источник: TechRadar, ссылка: https://techradar.com/pro/its-a-tectonic-change-aws-ai-head-calls-agents-the-most-impactful-change-weve-seen-since-the-dawn-of-the-internet
Что случилось?
На AWS Summit New York AWS анонсировали революционные инструменты: Kiro — IDE для агент‑ориентированной разработки, а также полноценную платформу Amazon Bedrock AgentCore, которая выводит агенты в продакшн с инфраструктурой, безопасностью, памятью, мониторингом и интеграциями
Почему это важно?
- Переход от прототипов к промышленных решениям — AgentCore позволяет масштабировать агенты на тысячи пользователей, с полной сессией и контролем доступа
- Игрушки становятся софт‑сервисом — по словам Swami Sivasubramanian, VP AWS Agentic AI, агенты — «Это тектонический сдвиг… самое значимое с момента появления Интернета»
- Прозрачность и доверие — платформа включает управление идентификацией, памятью, безопасным доступом к сервисам, наблюдением и журналированием
Что умеют агенты AWS?
- AgentCore Runtime — серверлесс‑среда с изолированными сессиями, масштабируемая до тысяч одновременных пользователей и поддерживающая выполнение агентов до 8 часов
- Memory & Identity — кратковременная и долговременная память + безопасный доступ к AWS и внешним сервисам
- Gateway, Browser, Code Interpreter — агенты получают API, могут ходить в браузер, писать и выполнять код в песочнице
- Observability — live‑мониторинг, трассировка, логика действий, причины принятия решений
- Kiro IDE — агент‑кодер преобразует идеи в архитектуру, тесты, документацию и финальный код
Что это меняет в бизнесе?
- 🛠 Скорость и надёжность — от идеи до продакшна в разы быстрее, без долгов и рисков.
- 🔐 Безопасность на уровне банковских операций — Identity и Memory защищают данные.
- 📦 Покупай и запускай — AWS Marketplace с агентами от Anthropic, IBM, Brave и др. запущен
- 💰 Инвестиции и экосистема — дополнительные $100 млн в пользу Agentic AI Innovation Center
Вывод:
AWS заявляет: агенты — не просто фича, а новая эра IT‑разработки. Это сдвиг парадигмы: самоуправляемый софт, изначально построенный как сервис — безопасный, масштабируемый, глубоко встроенный в процессы. Всё ближе к формуле “люби или умри без агента”.
Пора задать вопрос: сколько функций в вашем бизнесе уже можно передать ИИ‑агенту? И что, если завтра они будут управлять не только кодом, но и клиентским опытом, финансами и стратегией?
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-launches-kiro-an-agentic-ai-ide-to-end-the-chaos-of-vibe-coding
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-looks-to-super-charge-ai-agents-with-amazon-bedrock-agentcore
Источник: IT Pro, ссылка: https://itpro.com/cloud/cloud-computing/three-of-the-biggest-announcements-from-aws-summit-new-york
Источник: TechRadar, ссылка: https://techradar.com/pro/its-a-tectonic-change-aws-ai-head-calls-agents-the-most-impactful-change-weve-seen-since-the-dawn-of-the-internet
👍1
Forwarded from Хабр
Как использовать AI-агент Claude Code: советы опытного разработчика
Что может заставить опытного разработчика после года глубокой работы с AI-ассистентом Cursor полностью перейти на Claude Code и не желать возвращаться?
Разберёмся, как максимально эффективно использовать этот AI-агент, и посмотрим на конкретные советы и лучшие практики от разработчика, который сделал именно такой выбор.
Что может заставить опытного разработчика после года глубокой работы с AI-ассистентом Cursor полностью перейти на Claude Code и не желать возвращаться?
Разберёмся, как максимально эффективно использовать этот AI-агент, и посмотрим на конкретные советы и лучшие практики от разработчика, который сделал именно такой выбор.
✍️ Дневник, 10–24 июля 2025
Краткий трек по изученному.
🦀 Rust
Разобрался с замыканиями: как они захватывают переменные (Fn, FnMut, FnOnce), как работают в итераторах
Сделал многопоточный счётчик на 200 потоков через Arc<Mutex<T>>
Освоил mpsc::channel(), реализовал асинхронную передачу сообщений, закрыл каналы вручную
Написал async-функции с задержками, поработал с tokio::join! и spawn
Потренировался с HashMap / HashSet, делал word counter и находил пересечения множеств
Поигрался с итераторами — .fold(), .partition(), .zip() — обработал статистику за один проход
Написал простой анализатор частоты слов в файле, подтянул fs::read_to_string, обработку ошибок через Result и ?
🧠 ML-направление
Пройден блок по линейной алгебре:
Векторы, матрицы, размерности
Норма, скалярное произведение, нормализация
Транспонирование, сложение векторов
Разобрали ЦПТ, биномиальное распределение, приближение к нормальному
Начал чувствовать философский слой в SVD: коллапс, вырождение, смысловая нагрузка в нейросетях
Краткий трек по изученному.
🦀 Rust
Разобрался с замыканиями: как они захватывают переменные (Fn, FnMut, FnOnce), как работают в итераторах
Сделал многопоточный счётчик на 200 потоков через Arc<Mutex<T>>
Освоил mpsc::channel(), реализовал асинхронную передачу сообщений, закрыл каналы вручную
Написал async-функции с задержками, поработал с tokio::join! и spawn
Потренировался с HashMap / HashSet, делал word counter и находил пересечения множеств
Поигрался с итераторами — .fold(), .partition(), .zip() — обработал статистику за один проход
Написал простой анализатор частоты слов в файле, подтянул fs::read_to_string, обработку ошибок через Result и ?
🧠 ML-направление
Пройден блок по линейной алгебре:
Векторы, матрицы, размерности
Норма, скалярное произведение, нормализация
Транспонирование, сложение векторов
Разобрали ЦПТ, биномиальное распределение, приближение к нормальному
Начал чувствовать философский слой в SVD: коллапс, вырождение, смысловая нагрузка в нейросетях
👍2
Forwarded from Вселенная Плюс
This media is not supported in your browser
VIEW IN TELEGRAM
Wi-Fi вместо камер: как роутер научился узнавать людей
Представьте, что ваш обычный Wi-Fi роутер может узнавать, кто именно находится в комнате. Без камер, без микрофонов - только по тому, как радиоволны проходят через человеческое тело. Исследователи из Римского университета Ла Сапиенца создали систему WhoFi, которая делает именно это.
Суть технологии проста до гениальности. Когда Wi-Fi сигнал проходит через помещение, он сталкивается с препятствиями - стенами, мебелью и... людьми. Каждый человек по-своему искажает радиоволны. Наши кости, органы и даже состав тела создают уникальную "радиобиометрическую подпись". Это как отпечатки пальцев, только в радиодиапазоне.
Система анализирует CSI (Channel State Information) - детальную информацию о том, как меняется сигнал при прохождении через пространство. Обычные методы измеряли только силу сигнала, но CSI дает гораздо более точную картину на уровне отдельных поднесущих частот. Точность идентификации человека 95.5% с первой попытки при помощи нейросетей.
Преимущества перед камерами очевидны. Wi-Fi работает в полной темноте, проходит через стены и препятствия, не нарушает приватность (никто не увидит, во что вы одеты). При этом система различает людей даже когда они носят разную одежду - рюкзак или пальто не мешают идентификации.
Конечно, пока это только исследовательский проект. Тестирование проводилось всего на 14 участниках в контролируемых условиях. Но потенциал огромен - от умных домов, которые узнают членов семьи, до систем безопасности нового поколения. Или слежка против воли, тут уж выбирайте сами…
@vselennayaplus
Представьте, что ваш обычный Wi-Fi роутер может узнавать, кто именно находится в комнате. Без камер, без микрофонов - только по тому, как радиоволны проходят через человеческое тело. Исследователи из Римского университета Ла Сапиенца создали систему WhoFi, которая делает именно это.
Суть технологии проста до гениальности. Когда Wi-Fi сигнал проходит через помещение, он сталкивается с препятствиями - стенами, мебелью и... людьми. Каждый человек по-своему искажает радиоволны. Наши кости, органы и даже состав тела создают уникальную "радиобиометрическую подпись". Это как отпечатки пальцев, только в радиодиапазоне.
Система анализирует CSI (Channel State Information) - детальную информацию о том, как меняется сигнал при прохождении через пространство. Обычные методы измеряли только силу сигнала, но CSI дает гораздо более точную картину на уровне отдельных поднесущих частот. Точность идентификации человека 95.5% с первой попытки при помощи нейросетей.
Преимущества перед камерами очевидны. Wi-Fi работает в полной темноте, проходит через стены и препятствия, не нарушает приватность (никто не увидит, во что вы одеты). При этом система различает людей даже когда они носят разную одежду - рюкзак или пальто не мешают идентификации.
Конечно, пока это только исследовательский проект. Тестирование проводилось всего на 14 участниках в контролируемых условиях. Но потенциал огромен - от умных домов, которые узнают членов семьи, до систем безопасности нового поколения. Или слежка против воли, тут уж выбирайте сами…
@vselennayaplus
👍1🤔1
Апатия — встроенный режим защиты, а не сбой мотивации
Свежая работа из Cold Spring Harbor Laboratory описывает нейронную цепь, через которую воспаление в крови подавляет мотивацию.
Иммунные сигналы активируют специфические клетки в мозге, вызывая снижение желания действовать. Это не субъективное ощущение, а физиологически детерминированный механизм.
Основные выводы:
• Апатия может быть прямым следствием воспаления, а не следствием психологических факторов.
• Обнаружена конкретная нейросхема, связывающая иммунный ответ с центрами мотивации.
• Такая реакция организма рассматривается как способ перераспределения энергии на восстановление.
Зачем это важно:
• Предлагается новая интерпретация хронической усталости при воспалительных заболеваниях.
• Возможны новые терапевтические подходы: в том числе — через воздействие на иммунные рецепторы в мозге.
• Пересматривается граница между «психологическим» и «физиологическим» в понятии воли к действию.
Контекст:
Исследование касается, в частности, состояний при онкологии, хронических воспалениях, а также ситуаций, где наблюдается системная апатия при отсутствии выраженных психологических причин.
Источник:
Cold Spring Harbor Laboratory, июль 2025
https://www.cshl.edu/mind-blowing-neuroscience-research
Свежая работа из Cold Spring Harbor Laboratory описывает нейронную цепь, через которую воспаление в крови подавляет мотивацию.
Иммунные сигналы активируют специфические клетки в мозге, вызывая снижение желания действовать. Это не субъективное ощущение, а физиологически детерминированный механизм.
Основные выводы:
• Апатия может быть прямым следствием воспаления, а не следствием психологических факторов.
• Обнаружена конкретная нейросхема, связывающая иммунный ответ с центрами мотивации.
• Такая реакция организма рассматривается как способ перераспределения энергии на восстановление.
Зачем это важно:
• Предлагается новая интерпретация хронической усталости при воспалительных заболеваниях.
• Возможны новые терапевтические подходы: в том числе — через воздействие на иммунные рецепторы в мозге.
• Пересматривается граница между «психологическим» и «физиологическим» в понятии воли к действию.
Контекст:
Исследование касается, в частности, состояний при онкологии, хронических воспалениях, а также ситуаций, где наблюдается системная апатия при отсутствии выраженных психологических причин.
Источник:
Cold Spring Harbor Laboratory, июль 2025
https://www.cshl.edu/mind-blowing-neuroscience-research
👍2🔥2
Пиковая альфа-частота и субъективное время: как мозг «нарезает» реальность на кадры
⏱️ Что такое пиковая альфа-частота и зачем она нам
Пиковая альфа-частота — это наиболее выраженная частота электрических колебаний мозга в альфа-диапазоне (примерно от 8 до 13 герц), которую можно увидеть на электроэнцефалограмме (ЭЭГ) в состоянии покоя с закрытыми глазами.
Проще говоря, это частота, с которой мозг "щелкает" внутренним метрономом, разбивая поток ощущений на небольшие фрагменты.
Эта частота не универсальна — у каждого она своя. И вот что интересно:
Чем выше у человека эта альфа-частота, тем лучше он различает события, происходящие с минимальным временным интервалом — например, две коротких вспышки света с разницей в доли секунды.
Это происходит потому, что у такого человека временное окно связывания (то есть диапазон, в который мозг сливает события в "одно") — ýже. Это и есть улучшенная "временная чёткость".
📊 Что показал метаанализ (Samaha & Romei, 2024)
Исследователи собрали данные из 27 научных работ с участием почти 800 человек.
Выяснилось, что у людей с более высокой альфа-частотой мозг точнее различает последовательность событий, происходящих с интервалом менее одной секунды.
Средняя сила связи между альфа-ритмом и временной точностью — около 0.43 по шкале корреляции, что довольно надёжно.
То есть — у таких людей нервная система буквально работает с более высокой "частотой кадров", как хороший монитор.
👁 Альфа-ритм и зрительное восприятие времени
Один из примеров — задержка глазных движений (так называемая латентность саккад).
Если у человека высокая альфа-частота, его глаза быстрее и точнее нацеливаются на новый объект.
У младенцев, например, в возрасте от 6 до 18 месяцев наблюдается рост этой частоты, и параллельно улучшается способность различать короткие визуальные события.
У взрослых людей было замечено, что фаза альфа-ритма даже синхронизирует движения глаз при чтении: как будто мозг подаёт сигнал — когда "перевести взгляд".
🧪 Можно ли напрямую повлиять на альфа-ритм?
Некоторые учёные пытались "подстроить" альфа-частоту с помощью слабых электрических колебаний (tACS — транскраниальная переменная стимуляция).
В ряде экспериментов это помогло: участники становились точнее в заданиях, где нужно различать мелькающие вспышки или определять порядок событий.
Но в других — не помогло совсем. Особенно, если задача требовала оценки более длинных промежутков времени или если человек был не в форме.
Вывод: пока нет надёжных доказательств, что можно стабильно изменить восприятие времени, просто воздействуя на альфа-ритм.
🌀 Почему во «включённом» состоянии время пролетает
Когда мы глубоко вовлечены во что-то — будь то работа, спорт или игра, — мы ощущаем, будто время "ускоряется".
Это связано не с изменением частоты альфа-ритма, а с временным "затуханием" активности лобных отделов мозга (феномен называют временной гипофронтальностью).
Мозг как бы отключает контроль и разрешает сенсорным каналам работать напрямую.
Ты не следишь за временем — ты просто в нём. И оно перестаёт тянуться, как на скучной лекции.
🎯 Как это применить на практике
— Попробуй почувствовать субъективное течение времени до и после разных практик: дыхания, медитации, чтения, прокрастинации.
— Наблюдай: замедляется ли восприятие, становится ли "острее" внимание.
— Тренируй внимательность и временную чувствительность с помощью ритмичных дыхательных упражнений, сосредоточенной прогулки, аудио-внимания к окружающим звукам.
Вывод:
Частота альфа-ритма — это не просто биомаркер, а возможно, ключ к нашему внутреннему времени.
Более высокий ритм — более тонкое восприятие происходящего, лучшее разделение событий, более быстрая реакция.
Хотя наука ещё не доказала окончательно, что это причина, а не просто корреляция, уже сейчас можно использовать альфа-ритм как инструмент настройки внимания и восприятия.
Источник: Samaha & Romei, 2024 — Alpha-Band Frequency and Temporal Windows in Perception: A Review and Living Meta-Analysis of 27 Experiments
https://direct.mit.edu/jocn/article-abstract/36/4/640/117868/Alpha-Band-Frequency-and-Temporal-Windows-in
⏱️ Что такое пиковая альфа-частота и зачем она нам
Пиковая альфа-частота — это наиболее выраженная частота электрических колебаний мозга в альфа-диапазоне (примерно от 8 до 13 герц), которую можно увидеть на электроэнцефалограмме (ЭЭГ) в состоянии покоя с закрытыми глазами.
Проще говоря, это частота, с которой мозг "щелкает" внутренним метрономом, разбивая поток ощущений на небольшие фрагменты.
Эта частота не универсальна — у каждого она своя. И вот что интересно:
Чем выше у человека эта альфа-частота, тем лучше он различает события, происходящие с минимальным временным интервалом — например, две коротких вспышки света с разницей в доли секунды.
Это происходит потому, что у такого человека временное окно связывания (то есть диапазон, в который мозг сливает события в "одно") — ýже. Это и есть улучшенная "временная чёткость".
📊 Что показал метаанализ (Samaha & Romei, 2024)
Исследователи собрали данные из 27 научных работ с участием почти 800 человек.
Выяснилось, что у людей с более высокой альфа-частотой мозг точнее различает последовательность событий, происходящих с интервалом менее одной секунды.
Средняя сила связи между альфа-ритмом и временной точностью — около 0.43 по шкале корреляции, что довольно надёжно.
То есть — у таких людей нервная система буквально работает с более высокой "частотой кадров", как хороший монитор.
👁 Альфа-ритм и зрительное восприятие времени
Один из примеров — задержка глазных движений (так называемая латентность саккад).
Если у человека высокая альфа-частота, его глаза быстрее и точнее нацеливаются на новый объект.
У младенцев, например, в возрасте от 6 до 18 месяцев наблюдается рост этой частоты, и параллельно улучшается способность различать короткие визуальные события.
У взрослых людей было замечено, что фаза альфа-ритма даже синхронизирует движения глаз при чтении: как будто мозг подаёт сигнал — когда "перевести взгляд".
🧪 Можно ли напрямую повлиять на альфа-ритм?
Некоторые учёные пытались "подстроить" альфа-частоту с помощью слабых электрических колебаний (tACS — транскраниальная переменная стимуляция).
В ряде экспериментов это помогло: участники становились точнее в заданиях, где нужно различать мелькающие вспышки или определять порядок событий.
Но в других — не помогло совсем. Особенно, если задача требовала оценки более длинных промежутков времени или если человек был не в форме.
Вывод: пока нет надёжных доказательств, что можно стабильно изменить восприятие времени, просто воздействуя на альфа-ритм.
🌀 Почему во «включённом» состоянии время пролетает
Когда мы глубоко вовлечены во что-то — будь то работа, спорт или игра, — мы ощущаем, будто время "ускоряется".
Это связано не с изменением частоты альфа-ритма, а с временным "затуханием" активности лобных отделов мозга (феномен называют временной гипофронтальностью).
Мозг как бы отключает контроль и разрешает сенсорным каналам работать напрямую.
Ты не следишь за временем — ты просто в нём. И оно перестаёт тянуться, как на скучной лекции.
🎯 Как это применить на практике
— Попробуй почувствовать субъективное течение времени до и после разных практик: дыхания, медитации, чтения, прокрастинации.
— Наблюдай: замедляется ли восприятие, становится ли "острее" внимание.
— Тренируй внимательность и временную чувствительность с помощью ритмичных дыхательных упражнений, сосредоточенной прогулки, аудио-внимания к окружающим звукам.
Вывод:
Частота альфа-ритма — это не просто биомаркер, а возможно, ключ к нашему внутреннему времени.
Более высокий ритм — более тонкое восприятие происходящего, лучшее разделение событий, более быстрая реакция.
Хотя наука ещё не доказала окончательно, что это причина, а не просто корреляция, уже сейчас можно использовать альфа-ритм как инструмент настройки внимания и восприятия.
Источник: Samaha & Romei, 2024 — Alpha-Band Frequency and Temporal Windows in Perception: A Review and Living Meta-Analysis of 27 Experiments
https://direct.mit.edu/jocn/article-abstract/36/4/640/117868/Alpha-Band-Frequency-and-Temporal-Windows-in
👍2👀1
Forwarded from Хабр
Карьера вайб-кодера — это тупик
Сразу расставим точки над «и»: LLM — это полезный инструмент. Речь не о том, могут ли нейросети писать код, — могут. Вопрос в другом: в последнее время разговоры в IT-сообществе всё чаще сводятся не к тому, как решать задачи, а к тому, как заставить Claude или ChatGPT сделать всю работу за себя.
Этот подход — «вайб-кодинг» — кажется вершиной эффективности. Но что, если на самом деле это ваша худшая карьерная инвестиция? Разберёмся, почему полное делегирование мышления нейросети и фокус на «правильных промптах» вместо глубокого понимания системы — это путь в профессиональный тупик.
Это не призыв отказаться от ИИ. Это приглашение к дискуссии о том, где проходит грань между эффективным ассистентом и опасной зависимостью, которая атрофирует инженерные навыки.
Сразу расставим точки над «и»: LLM — это полезный инструмент. Речь не о том, могут ли нейросети писать код, — могут. Вопрос в другом: в последнее время разговоры в IT-сообществе всё чаще сводятся не к тому, как решать задачи, а к тому, как заставить Claude или ChatGPT сделать всю работу за себя.
Этот подход — «вайб-кодинг» — кажется вершиной эффективности. Но что, если на самом деле это ваша худшая карьерная инвестиция? Разберёмся, почему полное делегирование мышления нейросети и фокус на «правильных промптах» вместо глубокого понимания системы — это путь в профессиональный тупик.
Это не призыв отказаться от ИИ. Это приглашение к дискуссии о том, где проходит грань между эффективным ассистентом и опасной зависимостью, которая атрофирует инженерные навыки.
👍2
Хабр
Карьера вайб-кодера — это тупик Сразу расставим точки над «и»: LLM — это полезный инструмент. Речь не о том, могут ли нейросети писать код, — могут. Вопрос в другом: в последнее время разговоры в IT-сообществе всё чаще сводятся не к тому, как решать задачи…
🚧 TL;DR: «Карьера вайб‑кодера — это тупик» *(перевод статьи Florian Herrengt)*
1️⃣ LLM полезны, но в вайб-кодинге они превращаются в хаос
Claude создаёт код, но без понимания архитектуры — с багами, сбоями и техдолгом. Автор описывает, как при темпе 2–3 фичи в день всё быстро превращается в котёл неуправляемых PR и ошибок.
2️⃣ На старте — кайф производительности, но он временный
«Барьеры между мыслью и реализацией исчезают», — но чем сложнее проект, тем чаще Claude застревает, повторяет ошибки и требует ручной патчинг. Продуктивность падает ещё до появления скрытых последствий.
3️⃣ Навык вайб-кодинга быстро обесценивается
Освоить prompt → code можно за пару недель, но инструменты стремительно развиваются, и обучение новичков автоматизируется. Устойчивого преимущества — нет.
4️⃣ Теряется мысленная карта проекта
Скоро вы перестаёте понимать, что и где написано — просто проверяете чужие PR. Это уже не инженерия, а полуосознанный QA.
5️⃣ Вайб‑кодер — не программист, а посредник между QA и менеджментом
Автор предупреждает: опасны не ИИ, а те, кто доверяет им весь цикл. Вы лишь одобряете пул‑реквесты, часто даже не понимая логики изменений.
6️⃣ Системный дизайн и архитектура важнее, чем промпты
Если ставить всё на знание промптов, рынок обгонит вас за пару месяцев. А вот системное мышление и архитектурные навыки остаются фундаментом.
---
⚠️ Вывод: генераторы кода — инструмент, а не стратегия карьеры. Если не держать мышление под контролем, превращаешься в фасад для генератора. Развивай архитектурное мышление, а не «тусклое умение промптить».
1️⃣ LLM полезны, но в вайб-кодинге они превращаются в хаос
Claude создаёт код, но без понимания архитектуры — с багами, сбоями и техдолгом. Автор описывает, как при темпе 2–3 фичи в день всё быстро превращается в котёл неуправляемых PR и ошибок.
2️⃣ На старте — кайф производительности, но он временный
«Барьеры между мыслью и реализацией исчезают», — но чем сложнее проект, тем чаще Claude застревает, повторяет ошибки и требует ручной патчинг. Продуктивность падает ещё до появления скрытых последствий.
3️⃣ Навык вайб-кодинга быстро обесценивается
Освоить prompt → code можно за пару недель, но инструменты стремительно развиваются, и обучение новичков автоматизируется. Устойчивого преимущества — нет.
4️⃣ Теряется мысленная карта проекта
Скоро вы перестаёте понимать, что и где написано — просто проверяете чужие PR. Это уже не инженерия, а полуосознанный QA.
5️⃣ Вайб‑кодер — не программист, а посредник между QA и менеджментом
Автор предупреждает: опасны не ИИ, а те, кто доверяет им весь цикл. Вы лишь одобряете пул‑реквесты, часто даже не понимая логики изменений.
6️⃣ Системный дизайн и архитектура важнее, чем промпты
Если ставить всё на знание промптов, рынок обгонит вас за пару месяцев. А вот системное мышление и архитектурные навыки остаются фундаментом.
---
⚠️ Вывод: генераторы кода — инструмент, а не стратегия карьеры. Если не держать мышление под контролем, превращаешься в фасад для генератора. Развивай архитектурное мышление, а не «тусклое умение промптить».
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Разум, энтропия и смысл: острова порядка во Вселенной 🌌
Во Вселенной всё стремится к выравниванию: горячее — остыть, сложное — распасться, разное — стать одинаковым. Это и есть энтропия — общее направление времени, в котором порядок рассеивается.
(Энтропия — мера хаоса или неопределённости в системе)
Но посреди этого течения вдруг возникают структуры, которые сопротивляются распаду. Одна из них — жизнь. Ещё Шрёдингер писал, что живое существует за счёт негэнтропии — локального уменьшения беспорядка, захваченного из среды.
(Негэнтропия — обратное энтропии: способность поддерживать упорядоченность)
Пригожин пошёл дальше: в открытых системах, через поток энергии, могут возникать диссипативные структуры — формы, которые упорядочиваются прямо из хаоса.
(Диссипативная структура — устойчивая форма, возникшая в неравновесной системе)
Современная физика продолжила эту линию. Джереми Инглэнд показал, что молекулы при определённых условиях естественным образом эволюционируют к состояниям, в которых лучше рассеивают энергию. Порядок становится выгодным.
Разум — высшая форма такого порядка. Не просто поддержание структуры, а создание различий: в понятиях, смыслах, решениях.
(Различие — минимальная единица смысла. Без различий нет информации.)
Смысл возникает там, где есть структура и различимость. Информационная теория Шеннона определяет это напрямую:
(Энтропия Шеннона — мера неопределённости в сообщении; смысл — в уменьшении этой неопределённости)
То есть смысл — это различие, закреплённое в форме. Разум — это инструмент, через который различие становится устойчивым.
Посмотри на Землю: она не просто планета, а узел высокой плотности энергии и смысла. Солнечное излучение, проходя через биосферу, создаёт всё более сложные формы.
(Энергетическая плотность — поток энергии через систему на единицу массы)
По расчётам Чейсона, живые системы имеют наибольшую энерго-информационную плотность среди всех известных объектов Вселенной — выше, чем у звёзд и галактик.
Мы живём в самой насыщенной точке локальной реальности. Мы — не побочный продукт. Мы — фокус гравитации различий.
Но когда различий слишком много, возникает новое напряжение.
В физике это называется сингулярность — точка, где плотность становится бесконечной, а законы перестают работать.
(Гравитационная сингулярность — крайняя точка коллапса материи, например, в центре чёрной дыры)
Метафора технологической сингулярности — это не страх перед машинами. Это страх потерять различимость в шуме. Быть не способным различить главное. Перегреться от плотности смыслов и раствориться в ней.
Поэтому вопрос не в том, будет ли сингулярность. Она уже началась.
Вопрос — сможем ли мы сохранить различимость, удержать формы, не превратиться в серый шум ускоренного мышления.
Каждое различие, удержанное разумом, — локальный акт сопротивления энтропии.
Разум — не наблюдатель, а участник.
Итог:
Разум — форма, в которой Вселенная различает себя.
Смысл — различие, стабилизированное в структуре.
Земля — не просто дом, а точка гравитации различий.
Сингулярность — не угроза, а предел плотности.
Не раствориться в шуме — значит не потерять вектор. Не потерять смысл.
Источники:
Schrödinger, *What is Life?* (1944)
Ilya Prigogine, *The End of Certainty* (1997)
Jeremy England, *Dissipation-driven adaptation* — Quanta Magazine
https://www.quantamagazine.org/first-support-for-a-physics-theory-of-life-20170726
Shannon, *A Mathematical Theory of Communication* (1948)
Eric Chaisson, *Energy rate density as a complexity metric*
https://pdodds.w3.uvm.edu/files/papers/others/2010/chaisson2010a.pdf
Long Now Foundation, *On the Singularity*
https://longnow.org/essays/singularity
Во Вселенной всё стремится к выравниванию: горячее — остыть, сложное — распасться, разное — стать одинаковым. Это и есть энтропия — общее направление времени, в котором порядок рассеивается.
(Энтропия — мера хаоса или неопределённости в системе)
Но посреди этого течения вдруг возникают структуры, которые сопротивляются распаду. Одна из них — жизнь. Ещё Шрёдингер писал, что живое существует за счёт негэнтропии — локального уменьшения беспорядка, захваченного из среды.
(Негэнтропия — обратное энтропии: способность поддерживать упорядоченность)
Пригожин пошёл дальше: в открытых системах, через поток энергии, могут возникать диссипативные структуры — формы, которые упорядочиваются прямо из хаоса.
(Диссипативная структура — устойчивая форма, возникшая в неравновесной системе)
Современная физика продолжила эту линию. Джереми Инглэнд показал, что молекулы при определённых условиях естественным образом эволюционируют к состояниям, в которых лучше рассеивают энергию. Порядок становится выгодным.
Разум — высшая форма такого порядка. Не просто поддержание структуры, а создание различий: в понятиях, смыслах, решениях.
(Различие — минимальная единица смысла. Без различий нет информации.)
Смысл возникает там, где есть структура и различимость. Информационная теория Шеннона определяет это напрямую:
(Энтропия Шеннона — мера неопределённости в сообщении; смысл — в уменьшении этой неопределённости)
То есть смысл — это различие, закреплённое в форме. Разум — это инструмент, через который различие становится устойчивым.
Посмотри на Землю: она не просто планета, а узел высокой плотности энергии и смысла. Солнечное излучение, проходя через биосферу, создаёт всё более сложные формы.
(Энергетическая плотность — поток энергии через систему на единицу массы)
По расчётам Чейсона, живые системы имеют наибольшую энерго-информационную плотность среди всех известных объектов Вселенной — выше, чем у звёзд и галактик.
Мы живём в самой насыщенной точке локальной реальности. Мы — не побочный продукт. Мы — фокус гравитации различий.
Но когда различий слишком много, возникает новое напряжение.
В физике это называется сингулярность — точка, где плотность становится бесконечной, а законы перестают работать.
(Гравитационная сингулярность — крайняя точка коллапса материи, например, в центре чёрной дыры)
Метафора технологической сингулярности — это не страх перед машинами. Это страх потерять различимость в шуме. Быть не способным различить главное. Перегреться от плотности смыслов и раствориться в ней.
Поэтому вопрос не в том, будет ли сингулярность. Она уже началась.
Вопрос — сможем ли мы сохранить различимость, удержать формы, не превратиться в серый шум ускоренного мышления.
Каждое различие, удержанное разумом, — локальный акт сопротивления энтропии.
Разум — не наблюдатель, а участник.
Итог:
Разум — форма, в которой Вселенная различает себя.
Смысл — различие, стабилизированное в структуре.
Земля — не просто дом, а точка гравитации различий.
Сингулярность — не угроза, а предел плотности.
Не раствориться в шуме — значит не потерять вектор. Не потерять смысл.
Источники:
Schrödinger, *What is Life?* (1944)
Ilya Prigogine, *The End of Certainty* (1997)
Jeremy England, *Dissipation-driven adaptation* — Quanta Magazine
https://www.quantamagazine.org/first-support-for-a-physics-theory-of-life-20170726
Shannon, *A Mathematical Theory of Communication* (1948)
Eric Chaisson, *Energy rate density as a complexity metric*
https://pdodds.w3.uvm.edu/files/papers/others/2010/chaisson2010a.pdf
Long Now Foundation, *On the Singularity*
https://longnow.org/essays/singularity
⚙️ Rust: игра вдолгую или когда переписывать код?
🔸 Rust как хороший банковский вклад:
Поначалу дорогой и сложный, зато проценты стабильности и безопасности капают годами.
🔸 Зачем он нужен?
Rust заставляет быть честным с собой и с кодом. Если пройти начальный порог дисциплины, получишь масштабируемость, производительность и почти полное отсутствие сюрпризов.
🔸 Кто выигрывает в итоге?
Те, кто вовремя выбрали Rust или сумели грамотно переписать проект. У них на горизонте — устойчивость и ускорение.
🔸 Кто в проигрыше?
Компании, которые боятся притормозить в начале и предпочитают компромиссы в стиле «и так сойдёт». Потом им придётся спасаться от технического долга и переписывать уже из отчаяния.
🔸 Как не пропустить момент?
Переписывать надо вовремя — не слишком рано, увлекаясь идеальностью, и не слишком поздно, когда бизнес уже задыхается в legacy-коде.
🔸 Осознание и реальность:
Rust не для всех и не всегда. Он требует стабильных ресурсов, компетентных специалистов и готовности выдержать стартовую нагрузку. Важно понимать, что идеальная переписка бывает редко — эффективнее интегрировать Rust постепенно и осознанно.
📚 Источники:
* Microsoft и Google об опыте Rust
* Производительность Rust в реальных задачах
* Практический опыт переписывания систем на Rust
* Анализ применения Rust и его особенностей
TL;DR: Rust — это ставка на будущее, где выигрывают те, кто чувствует баланс между осознанностью сейчас и скоростью потом.
🔸 Rust как хороший банковский вклад:
Поначалу дорогой и сложный, зато проценты стабильности и безопасности капают годами.
🔸 Зачем он нужен?
Rust заставляет быть честным с собой и с кодом. Если пройти начальный порог дисциплины, получишь масштабируемость, производительность и почти полное отсутствие сюрпризов.
🔸 Кто выигрывает в итоге?
Те, кто вовремя выбрали Rust или сумели грамотно переписать проект. У них на горизонте — устойчивость и ускорение.
🔸 Кто в проигрыше?
Компании, которые боятся притормозить в начале и предпочитают компромиссы в стиле «и так сойдёт». Потом им придётся спасаться от технического долга и переписывать уже из отчаяния.
🔸 Как не пропустить момент?
Переписывать надо вовремя — не слишком рано, увлекаясь идеальностью, и не слишком поздно, когда бизнес уже задыхается в legacy-коде.
🔸 Осознание и реальность:
Rust не для всех и не всегда. Он требует стабильных ресурсов, компетентных специалистов и готовности выдержать стартовую нагрузку. Важно понимать, что идеальная переписка бывает редко — эффективнее интегрировать Rust постепенно и осознанно.
📚 Источники:
* Microsoft и Google об опыте Rust
* Производительность Rust в реальных задачах
* Практический опыт переписывания систем на Rust
* Анализ применения Rust и его особенностей
TL;DR: Rust — это ставка на будущее, где выигрывают те, кто чувствует баланс между осознанностью сейчас и скоростью потом.
👍4
Deep Cogito v2: ИИ, который учится думать сам
Что это
Deep Cogito v2 — открытая линейка гибридных моделей с режимом *reasoning mode*, где ИИ может сначала обдумать задачу, а потом ответить. Основано на подходе *Iterated Distillation & Amplification* (IDA): модель оптимизирует свои выводы и «вшивает» улучшенное мышление обратно в себя.
Чем выделяется
— Цепочки рассуждений на \~60 % короче, чем у DeepSeek R1, при равных или лучших результатах.
— Линейка от компактных 70B Dense до гиганта 671B MoE, способного догонять закрытые модели вроде o3 и Claude 4 Opus.
— Эффективнее расходует токены — дешевле, быстрее, устойчивее.
Почему это важно
Это шаг от brute-force к «разумной экономии» мыслей: ИИ не просто быстрее выдаёт ответ, а выбирает оптимальный путь рассуждений. Возникает вопрос: это уже мост к AGI или просто новая волна оптимизации?
Вывод
Deep Cogito v2 — редкий пример open-source-модели, которая не только решает задачи, но и учится решать их умнее. Следить за ней стоит так же внимательно, как за любым прорывом в мышлении — человеческом или машинном.
Источники:
flipped-newsletter.beehiiv.com — https://flipped-newsletter.beehiiv.com/p/meet-the-671b-beast-deep-cogito-v2-s-self-improving-ai-45d6
docs.unsloth.ai — https://docs.unsloth.ai/basics/tutorials-how-to-fine-tune-and-run-llms/cogito-v2-how-to-run-locally
deepcogito.com — https://www.deepcogito.com/research/cogito-v2-preview
together.ai — https://www.together.ai/cogito
Что это
Deep Cogito v2 — открытая линейка гибридных моделей с режимом *reasoning mode*, где ИИ может сначала обдумать задачу, а потом ответить. Основано на подходе *Iterated Distillation & Amplification* (IDA): модель оптимизирует свои выводы и «вшивает» улучшенное мышление обратно в себя.
Чем выделяется
— Цепочки рассуждений на \~60 % короче, чем у DeepSeek R1, при равных или лучших результатах.
— Линейка от компактных 70B Dense до гиганта 671B MoE, способного догонять закрытые модели вроде o3 и Claude 4 Opus.
— Эффективнее расходует токены — дешевле, быстрее, устойчивее.
Почему это важно
Это шаг от brute-force к «разумной экономии» мыслей: ИИ не просто быстрее выдаёт ответ, а выбирает оптимальный путь рассуждений. Возникает вопрос: это уже мост к AGI или просто новая волна оптимизации?
Вывод
Deep Cogito v2 — редкий пример open-source-модели, которая не только решает задачи, но и учится решать их умнее. Следить за ней стоит так же внимательно, как за любым прорывом в мышлении — человеческом или машинном.
Источники:
flipped-newsletter.beehiiv.com — https://flipped-newsletter.beehiiv.com/p/meet-the-671b-beast-deep-cogito-v2-s-self-improving-ai-45d6
docs.unsloth.ai — https://docs.unsloth.ai/basics/tutorials-how-to-fine-tune-and-run-llms/cogito-v2-how-to-run-locally
deepcogito.com — https://www.deepcogito.com/research/cogito-v2-preview
together.ai — https://www.together.ai/cogito
🔥2
Случайность как фундамент Вселенной
Квантовый мир: никакого сценария
На уровне элементарных частиц нет строгих правил в духе «если А, то всегда Б». Квантовая механика работает иначе: любое событие существует в виде набора вероятностей, и лишь в момент измерения проявляется конкретный результат. Электрон может быть здесь и там одновременно, атом может распасться в любую секунду — но точно предсказать исход невозможно. Это свойство называется квантовой случайностью — и оно фундаментально, встроено в саму ткань реальности.
💡 Определения:
— Квантовая случайность — принципиальная непредсказуемость событий на уровне микромира.
— Флуктуация вакуума — краткий «всплеск» энергии и частиц в пустоте, возникающий спонтанно.
---
Рождение Вселенной и кварк-глюонная плазма
Когда произошёл Большой взрыв (13,8 млрд лет назад), первые миллионные доли секунды мир находился в состоянии кварк-глюонной плазмы. Это особая субстанция, в которой кварки (строители протонов и нейтронов) и глюоны (частицы-связки) не были «собраны» в привычные частицы. Всё плавало в океане вероятностей, подчиняясь квантовой случайности.
Учёные сегодня воспроизводят это состояние в ускорителях частиц, и оно ведёт себя как почти идеальная жидкость. Фактически, начальная Вселенная была не упорядоченной системой, а идеальным генератором случайных чисел.
💡 Определение:
— Генератор случайных чисел (ГСЧ) — устройство или процесс, который выдаёт непредсказуемые результаты. В отличие от компьютерных «псевдослучайных» генераторов, квантовый процесс является по-настоящему случайным. В первые мгновения существования Вселенной именно такая «машина случайности» определяла её дальнейшую судьбу.
---
От случайности к структурам
По мере расширения и охлаждения плазма стала собираться в устойчивые формы: сначала протоны и нейтроны, потом атомные ядра, позже — звёзды, галактики, планеты и жизнь. Но важно: всё это выросло из случайности, из непредсказуемых колебаний, а не по заранее написанному плану.
---
Философский вывод: свобода без диктата
Если фундамент реальности — случайность, значит, у мира не было жёсткого замысла и злой воли творца. Порядок и смысл возникли сами, как эмергентный результат хаотичных взаимодействий. В этом — парадокс: то, что кажется хаосом, оказалось условием свободы. Из квантового «шумового фона» выросла возможность порядка, а из порядка — возможность сознания задавать вопросы о собственном происхождении.
Вывод
В начале Вселенной действовал идеальный генератор случайных чисел — полная и подлинная непредсказуемость. Именно она стала условием свободы и источником смысла. Случайность — не хаос, а почва, из которой выросло всё, что мы знаем: звёзды, жизнь, разум и сама способность искать ответы.
Источники:
Randomness in Quantum Mechanics: https://arxiv.org/abs/1611.02176
Edward Tryon and the Universe as a fluctuation: https://en.wikipedia.org/wiki/Edward\_Tryon
Quark–gluon plasma: https://en.wikipedia.org/wiki/Quark%E2%80%93gluon\_plasma
CERN о воссоздании вещества Большого взрыва: https://home.cern/news/series/lhc-physics-ten/recreating-big-bang-matter-earth
Квантовый мир: никакого сценария
На уровне элементарных частиц нет строгих правил в духе «если А, то всегда Б». Квантовая механика работает иначе: любое событие существует в виде набора вероятностей, и лишь в момент измерения проявляется конкретный результат. Электрон может быть здесь и там одновременно, атом может распасться в любую секунду — но точно предсказать исход невозможно. Это свойство называется квантовой случайностью — и оно фундаментально, встроено в саму ткань реальности.
💡 Определения:
— Квантовая случайность — принципиальная непредсказуемость событий на уровне микромира.
— Флуктуация вакуума — краткий «всплеск» энергии и частиц в пустоте, возникающий спонтанно.
---
Рождение Вселенной и кварк-глюонная плазма
Когда произошёл Большой взрыв (13,8 млрд лет назад), первые миллионные доли секунды мир находился в состоянии кварк-глюонной плазмы. Это особая субстанция, в которой кварки (строители протонов и нейтронов) и глюоны (частицы-связки) не были «собраны» в привычные частицы. Всё плавало в океане вероятностей, подчиняясь квантовой случайности.
Учёные сегодня воспроизводят это состояние в ускорителях частиц, и оно ведёт себя как почти идеальная жидкость. Фактически, начальная Вселенная была не упорядоченной системой, а идеальным генератором случайных чисел.
💡 Определение:
— Генератор случайных чисел (ГСЧ) — устройство или процесс, который выдаёт непредсказуемые результаты. В отличие от компьютерных «псевдослучайных» генераторов, квантовый процесс является по-настоящему случайным. В первые мгновения существования Вселенной именно такая «машина случайности» определяла её дальнейшую судьбу.
---
От случайности к структурам
По мере расширения и охлаждения плазма стала собираться в устойчивые формы: сначала протоны и нейтроны, потом атомные ядра, позже — звёзды, галактики, планеты и жизнь. Но важно: всё это выросло из случайности, из непредсказуемых колебаний, а не по заранее написанному плану.
---
Философский вывод: свобода без диктата
Если фундамент реальности — случайность, значит, у мира не было жёсткого замысла и злой воли творца. Порядок и смысл возникли сами, как эмергентный результат хаотичных взаимодействий. В этом — парадокс: то, что кажется хаосом, оказалось условием свободы. Из квантового «шумового фона» выросла возможность порядка, а из порядка — возможность сознания задавать вопросы о собственном происхождении.
Вывод
В начале Вселенной действовал идеальный генератор случайных чисел — полная и подлинная непредсказуемость. Именно она стала условием свободы и источником смысла. Случайность — не хаос, а почва, из которой выросло всё, что мы знаем: звёзды, жизнь, разум и сама способность искать ответы.
Источники:
Randomness in Quantum Mechanics: https://arxiv.org/abs/1611.02176
Edward Tryon and the Universe as a fluctuation: https://en.wikipedia.org/wiki/Edward\_Tryon
Quark–gluon plasma: https://en.wikipedia.org/wiki/Quark%E2%80%93gluon\_plasma
CERN о воссоздании вещества Большого взрыва: https://home.cern/news/series/lhc-physics-ten/recreating-big-bang-matter-earth
Полтора часа кайфа 🤯 — Семихатов (физик), Сурдин (астроном) и Алипов (нейробиолог) обсуждают мозг и сознание в вагоне-купе 🚂🧠
От «кишечник — второй мозг?» и «как мозг предсказывает будущее» до «что значит “я”?», памяти, снов, эксперимента *комната Мэри* и вопроса — есть ли у ИИ сознание.
Живая и доступная беседа: люди без мозжечка, мозг растений, новые нейроны, почему мы забываем и зачем человеку большой мозг. Реально расширяет горизонты 👀✨
https://youtu.be/nzsRVwgx2vo?si=r1aa55Fw-XdEkfZS
От «кишечник — второй мозг?» и «как мозг предсказывает будущее» до «что значит “я”?», памяти, снов, эксперимента *комната Мэри* и вопроса — есть ли у ИИ сознание.
Живая и доступная беседа: люди без мозжечка, мозг растений, новые нейроны, почему мы забываем и зачем человеку большой мозг. Реально расширяет горизонты 👀✨
https://youtu.be/nzsRVwgx2vo?si=r1aa55Fw-XdEkfZS
YouTube
ТЁМНАЯ КОМНАТА НАШЕГО МОЗГА. Семихатов, Сурдин, Алипов
Отелло зовёт мечтать под звёздами! Бронируйте любой отель из подборки со скидкой 20% по промокоду UNIPLUS https://goo.su/QjpHgmy?erid=2W5zFHsxH1A
Промокод действует до 31.08.2025, скидка до 2000р.
Заказывайте мендосинские моторы - демонстрация законов физики…
Промокод действует до 31.08.2025, скидка до 2000р.
Заказывайте мендосинские моторы - демонстрация законов физики…
👍4
🧠 Теории сознания: квантовая магия
Сознание остаётся одной из самых загадочных тем науки. Мы знаем, как работают нейроны и синапсы, но до конца не понимаем, как из этого рождается субъективный опыт — «я».
В этой серии я разберу две противоположные линии объяснения: от квантовой магии до строгой вероятностной машины.
Начнём с самой красивой и спорной идеи — квантового сознания.
🔮 Orch OR: сознание из квантов?
Роджер Пенроуз и Стюарт Хамерофф предложили теорию Orchestrated Objective Reduction (Orch OR).
Идея: в микротрубочках нейронов происходят квантовые процессы, и именно они рождают сознание.
Красиво: разум связывается с фундаментальной физикой, а не просто с биохимией.
⚠️ Где подвох?
— Проблема декогеренции: в живых клетках квантовая когерентность разваливается за ~10⁻¹³ секунды.
— Нет прямых экспериментов, подтверждающих квантовую природу мыслей.
— Аргументы Пенроуза о «некалькулируемости сознания» остаются спорными.
🧩 Статус
Теория Orch OR — яркий пример философской спекуляции под видом физики.
В научном сообществе консенсуса нет: большинство считает её красивой, но недоказанной идеей.
📌 Вывод
Квантовая магия сознания — отличная метафора и почва для фантастики, но не рабочая научная теория. Пока что она ближе к поэзии, чем к нейробиологии.
Источники:
— https://en.wikipedia.org/wiki/Orchestrated_objective_reduction
— https://arxiv.org/abs/quant-ph/9907009
— https://en.wikipedia.org/wiki/Stuart_Hameroff
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
Сознание остаётся одной из самых загадочных тем науки. Мы знаем, как работают нейроны и синапсы, но до конца не понимаем, как из этого рождается субъективный опыт — «я».
В этой серии я разберу две противоположные линии объяснения: от квантовой магии до строгой вероятностной машины.
Начнём с самой красивой и спорной идеи — квантового сознания.
🔮 Orch OR: сознание из квантов?
Роджер Пенроуз и Стюарт Хамерофф предложили теорию Orchestrated Objective Reduction (Orch OR).
Идея: в микротрубочках нейронов происходят квантовые процессы, и именно они рождают сознание.
Красиво: разум связывается с фундаментальной физикой, а не просто с биохимией.
⚠️ Где подвох?
— Проблема декогеренции: в живых клетках квантовая когерентность разваливается за ~10⁻¹³ секунды.
— Нет прямых экспериментов, подтверждающих квантовую природу мыслей.
— Аргументы Пенроуза о «некалькулируемости сознания» остаются спорными.
🧩 Статус
Теория Orch OR — яркий пример философской спекуляции под видом физики.
В научном сообществе консенсуса нет: большинство считает её красивой, но недоказанной идеей.
📌 Вывод
Квантовая магия сознания — отличная метафора и почва для фантастики, но не рабочая научная теория. Пока что она ближе к поэзии, чем к нейробиологии.
Источники:
— https://en.wikipedia.org/wiki/Orchestrated_objective_reduction
— https://arxiv.org/abs/quant-ph/9907009
— https://en.wikipedia.org/wiki/Stuart_Hameroff
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
👍3
🧠 Теории сознания: предсказательная машина
Часть 1
Мы знаем, что мозг не просто реагирует на мир — он всё время пытается его предугадать. На этой идее построена теория predictive coding, предложенная Карлом Фристоном.
⚡ Суть
Мозг — это вероятностный автомат, который непрерывно минимизирует разницу между предсказанием и реальностью.
Любое ощущение, мысль или действие — результат игры между тем, что мозг ожидал, и тем, что реально произошло. Ошибка предсказания (*prediction error*) становится топливом для обучения и корректировки моделей.
🔍 Доказательная база
— Эксперименты с иллюзиями показывают: мозг достраивает картину мира на основе ожиданий.
— Нарушения predictive coding связаны с психическими расстройствами: при шизофрении мозг слишком доверяет сенсорике, при депрессии — слишком внутренним ожиданиям.
— Во сне или в состоянии внимания ошибки предсказаний ведут себя по-разному, что подтверждает универсальность механизма.
🤖 Параллель с ИИ
GPT и другие модели работают точно так же — учатся предсказывать будущее состояние (следующее слово, кадр или шаг).
Сознание в таком подходе — это слой высших предсказаний, где мозг согласует сенсорику, память и действия.
📌 Вывод
Предсказательное кодирование показывает сознание не как мистику, а как статистическую игру в угадайку. И чем лучше мозг предсказывает — тем яснее он ощущает и мир, и самого себя.
Источники:
— https://en.wikipedia.org/wiki/Predictive_coding
— https://www.frontiersin.org/articles/10.3389/fpsyg.2017.01710/full
— https://www.nature.com/articles/nn.4287
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
Часть 1
Мы знаем, что мозг не просто реагирует на мир — он всё время пытается его предугадать. На этой идее построена теория predictive coding, предложенная Карлом Фристоном.
⚡ Суть
Мозг — это вероятностный автомат, который непрерывно минимизирует разницу между предсказанием и реальностью.
Любое ощущение, мысль или действие — результат игры между тем, что мозг ожидал, и тем, что реально произошло. Ошибка предсказания (*prediction error*) становится топливом для обучения и корректировки моделей.
🔍 Доказательная база
— Эксперименты с иллюзиями показывают: мозг достраивает картину мира на основе ожиданий.
— Нарушения predictive coding связаны с психическими расстройствами: при шизофрении мозг слишком доверяет сенсорике, при депрессии — слишком внутренним ожиданиям.
— Во сне или в состоянии внимания ошибки предсказаний ведут себя по-разному, что подтверждает универсальность механизма.
🤖 Параллель с ИИ
GPT и другие модели работают точно так же — учатся предсказывать будущее состояние (следующее слово, кадр или шаг).
Сознание в таком подходе — это слой высших предсказаний, где мозг согласует сенсорику, память и действия.
📌 Вывод
Предсказательное кодирование показывает сознание не как мистику, а как статистическую игру в угадайку. И чем лучше мозг предсказывает — тем яснее он ощущает и мир, и самого себя.
Источники:
— https://en.wikipedia.org/wiki/Predictive_coding
— https://www.frontiersin.org/articles/10.3389/fpsyg.2017.01710/full
— https://www.nature.com/articles/nn.4287
#теориисознания
#квантовоесознание
#предсказательные_модели
#нейрофилософия
👍4
🕳 Время, чёрные дыры и предел науки
Можно ли разорвать причинно-следственные связи? Что происходит в центре чёрной дыры — и почему кажется, что время ускоряется или вовсе исчезает?
Алексей Семихатов рассуждает о квантовых состояниях, теории относительности и границах познания. Есть ли у науки предел или мы всегда будем открывать новое?
🎥 Смотрите интервью:
https://youtu.be/8tfkW9Vh3wY?si=zdrR3puP649QHlOQ
Можно ли разорвать причинно-следственные связи? Что происходит в центре чёрной дыры — и почему кажется, что время ускоряется или вовсе исчезает?
Алексей Семихатов рассуждает о квантовых состояниях, теории относительности и границах познания. Есть ли у науки предел или мы всегда будем открывать новое?
🎥 Смотрите интервью:
https://youtu.be/8tfkW9Vh3wY?si=zdrR3puP649QHlOQ
YouTube
Мы живём в ИЛЛЮЗИИ времени? Кротовые норы и квантовая запутанность. Алексей Семихатов
▶︎ Яндекс Браузер с нейросетями: https://clck.ru/3HXrUx
▶︎ Разверните инфраструктуру для проекта любой сложности в надежном и гибком облаке Selectel: https://slc.tl/4j5hp
▶︎ Генетический паспорт со скидкой 65% по промокоду GLEB3 https://clck.ru/3HV5de…
▶︎ Разверните инфраструктуру для проекта любой сложности в надежном и гибком облаке Selectel: https://slc.tl/4j5hp
▶︎ Генетический паспорт со скидкой 65% по промокоду GLEB3 https://clck.ru/3HV5de…
🔥1