async dev
26 subscribers
36 photos
2 videos
67 links
Канал о науке, ИИ и философии без инфошума.
Здесь разбирают мозг, нейросети и реальность — по-взрослому, с фактами и сомнением.
Если ты хочешь понимать, а не просто читать — тебе сюда.
Download Telegram
🧠 ИИ не понимает, но чувствует статистику
*О механике языковых моделей и параллелях с нашим мышлением*

---

Большие языковые модели (LLM), такие как GPT, не обладают пониманием в привычном смысле. Они не мыслят, не осознают, не «знают» значения слов.

🔁 Их задача — предсказывать следующее наиболее вероятное слово на основе предыдущего контекста. Каждый ответ — это результат вероятностной модели, обученной на огромных объёмах текста.

---

📈 Тем не менее, ответы часто кажутся осмысленными и логичными. Мы воспринимаем их как результат «мышления» — потому что так устроено наше восприятие: мы склонны находить смысл даже в вероятностном совпадении.

---

🤖 На самом деле, LLM — это статистические имитаторы. Они не знают, что такое «яблоко», «любовь» или «боль». Они просто видели эти слова в похожих контекстах и умеют их правильно вставлять.

---

🧬 Интересно, что подобная механика перекликается с гипотезами о человеческом мышлении. Когнитивная наука всё чаще описывает интуицию как вероятностный выбор, а не логический анализ. Мозг не всегда *понимает*, он часто *угадывает* — а потом объясняет это задним числом.

---

📌 Вывод: языковые модели не мыслят, но их поведение может напоминать мышление. Это не делает их разумными, но заставляет задуматься:
→ где проходит граница между статистикой и пониманием?
→ и как много в нас самих — от этих вероятностных механизмов?
🔬 Дайджест по биологии мозга
Тема: ключевые исследования последних недель об устройстве мозга — от клеточной динамики до системных механизмов.
Цитата недели:

> «Наш мозг функционирует на грани порядка и хаоса — именно в этом балансе заключен ключ к обучению, памяти и адаптации». — Keith Hengen

---

🧠 1. The brain’s sweet spot: How criticality could unlock learning, memory—and prevent Alzheimer’s
Источник:
Washington University in St. Louis / ScienceDaily (25 июня 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/06/250625075016.htm](https://www.sciencedaily.com/releases/2025/06/250625075016.htm)
Кратко:
Механизм «критичности» — состояние между порядком и хаосом — оптимизирует обучение и память. Отклонение от этого состояния может предвещать развитие Альцгеймера

---

🧫 2. Protective exercise responses in the dentate gyrus of Alzheimer’s disease mouse model revealed with single‑nucleus RNA‑sequencing
Источник:
Mass General Brigham / ScienceDaily (13 июня 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/06/250613013831.htm](https://www.sciencedaily.com/releases/2025/06/250613013831.htm)
Кратко:
Бег активирует микроглию и специализированные астроциты в гиппокампе, улучшая память в модели Альцгеймера и выявляя новые молекулярные мишени

---

🧬 3. How brain cells meant to help may be making depression worse
Источник:
Chinese Medical Journals Publishing House / ScienceDaily (24 июня 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/06/250624044330.htm](https://www.sciencedaily.com/releases/2025/06/250624044330.htm)
Кратко:
Астроциты, ранее считавшиеся поддерживающей клеткой, играют ключевую роль в нейровоспалении и прогрессировании депрессии

---

⚙️ 4. Myelin–axon interface vulnerability in Alzheimer’s disease revealed by subcellular proteomics and imaging
Источник:
Nature Neuroscience (13 июня 2025)
Ссылка:
статья на Nature Neuroscience
Кратко:
Исследование показало, что нарушения сигнальной передачи между аксоном и миелином способствуют прогрессу Альцгеймера

---

🧑‍🔬 5. Large‑scale high‑density brain‑wide neural recording in nonhuman primates
Источник:
Nature Neuroscience (23 июня 2025)
Ссылка:
статья на Nature Neuroscience
Кратко:
Представлен Neuropixels 1.0 NHP — высокоплотный зонд для записи активности сотен тысяч нейронов в мозге макаки, обеспечивающий детализацию на уровне популяций

---

🧠 6. This stretchy neural implant grows with an axolotl’s brain
Источник:
Nature (11 июня 2025)
Ссылка:
[https://www.nature.com/articles/d41586-025-01850-1](https://www.nature.com/articles/d41586-025-01850-1)
Кратко:
Разработан эластичный имплант, способный расти вместе с развивающимся мозгом амфибий — без травм, мониторинг активности в эмбриональный период

---

## ⚙️ Итоги недели

* Баланс критичности — ключ к гибкости, обучению и раннему диагнозу Альцгеймера.
* Активный бег перестраивает мозг, активируя клетки и генную экспрессию для защиты памяти.
* Астроциты — важнейшие участники депрессии через нейровоспаление.
* Нейроволоконные интерфейсы уязвимы в болезни Альцгеймера.
* Передовые технологии: Neuropixels‑зонд и эластичные импланты — большие прорывы в нейрофизиологии.
🔥1
🔬 Дайджест по нейротехнологиям и ИИ
Тема: ключевые прорывы в BCI и когнитивных моделях на стыке нейротехнологий и искусственного интеллекта за последнюю неделю.
Цитата недели:

> «BCI не решат проблему выравнивания ИИ — настоящая защита сознания лежит в регулировании, а не подключениях». — д‑р Том Оксли

---

🧠 1. The brain implant revolution is here. Why is its inventor terrified?
Источник:
The Australian (27 июня 2025)
Ссылка:
[https://www.theaustralian.com.au/weekend-australian-magazine/the-brain-implant-revolution-is-here-why-is-its-inventor-tom-oxley-terrified](https://www.theaustralian.com.au/weekend-australian-magazine/the-brain-implant-revolution-is-here-why-is-its-inventor-tom-oxley-terrified)
Кратко:
Основатель Synchron д‑р Том Оксли обсуждает Stentrode, новый BCI, в партнерстве с Nvidia-инструментом Chiral. Он призывает защитить «когнитивную свободу» от угроз манипуляций и контроля через мозг и AI

---

🧠 2. Founder of Neuralink rival Precision Neuroscience reveals what people often get wrong about brain‑implant surgery
Источник:
Business Insider (27 июня 2025)
Ссылка:
[https://www.businessinsider.com/neuralink-rival-brain-implant-surgery-doesnt-need-to-be-invasive-2025-6](https://www.businessinsider.com/neuralink-rival-brain-implant-surgery-doesnt-need-to-be-invasive-2025-6)
Кратко:
Д‑р Бен Рапопорт показывает, что BCI могут быть минимально инвазивными — тонкая плёнка на поверхности коры. Precision получила FDA-clearance на беспроводной имплант и готовится к первым испытаниям

---

🤖 3. Brain‑Inspired AI Breakthrough Spotlighted at Global Conference
Источник:
Georgia Tech (26 июня 2025)
Ссылка:
[https://cos.gatech.edu/news/brain-inspired-ai-breakthrough-spotlighted-global-conference](https://cos.gatech.edu/news/brain-inspired-ai-breakthrough-spotlighted-global-conference)
Кратко:
Модель TopoNets от Georgia Tech демонстрирует топографически структурированный ИИ — на них даже больше 20 % прироста эффективности с минимальной потерей точности

---

🗣️ 4. Brain‑computer interface restores real‑time speech in ALS patient
Источник:
UC Davis / ScienceDaily (12 июня 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/06/250612081317.htm](https://www.sciencedaily.com/releases/2025/06/250612081317.htm)
Кратко:
BCI с чипами BrainGate переводит мысли в голос с задержкой \~25 мс, включая интонацию и мелодию — это первая система, возвращающая речь в реальном времени коммерческому пациенту

---

🧪 5. A Neuralink Rival Just Tested a Brain Implant in a Person
Источник:
Wired (2 июня 2025)
Ссылка:
[https://www.wired.com/story/paradromics-neuralink-rival-tested-brain-implant](https://www.wired.com/story/paradromics-neuralink-rival-tested-brain-implant)
Кратко:
Paradromics временно установила 420‑электродный Connexus в мозг пациента с эпилепсией, собрав качественные нейросигналы. Это важный шаг перед долгосрочными клиническими испытаниями

---

⚙️ Итоги недели

* Этика прежде всего: Oxley призывает законы защиты «когнитивной свободы».
* Минимальная инвазивность: Precision Neuro — плёнка, а не вглубь мозга.
* Новая топография ИИ: улучшение эффективности с помощью мозгоориентированных структур.
* Речь через мысли: BCI переводят мысль в голос мгновенно и естественно.
* Высокоплотные импланты: Connexus — 420 электродов, надежная регистрация.
💻 Представь, если бы ты мог запустить DeepSeek у себя дома.
Не урезанную игрушечную версию, а полноценную — на 671 миллиард параметров. Именно это и сделал автор новой статьи на Хабре, только не на кластере, а на обычной видеокарте… вроде 4090. Магия? Почти. На деле — квантование, MoE и немного хардкорной инженерии.

---

🧠 Как это вообще работает?

* Модель — DeepSeek R1, архитектура типа MoE (Mixture of Experts). Это значит, что при генерации активны только *части* модели — примерно 37B параметров из 671B. Такой подход снижает требования к памяти, но сохраняет мощь.

* Квантование — модель сжимают с помощью техники IQ1\_S\_R4: суперрадикальное сжатие, которое уменьшает размер файла до 130 ГБ, при этом позволяя адекватно работать. В отличие от обычных квантов, этот способ сохраняет точность даже на сложных задачах.

* Большой контекст — до 160 000 токенов в одном запросе. Это как если бы ты загрузил в память *всю книгу* и попросил ИИ сделать выводы на последних страницах. Благодаря новому вниманию (MLA), обработка идёт быстро.

* Распределение нагрузки — GPU обрабатывает внимание, CPU берёт на себя экспертов. Так получается использовать и видеокарту, и процессор по максимуму. В идеале — 4090 + 128 ГБ RAM, но даже на 4060 Ti всё запускается (медленнее).

---

🚀 А на практике?

Автор проверил модель на тексте объемом 215 000 токенов — полноценный роман. DeepSeek справилась: цитировала диалоги, отвечала на вопросы по содержанию, не теряла нить. И всё это без подключения к облаку, прямо на локальной машине.

---

🔍 Почему это круто

Это не просто запуск очередной модели. Это демонстрация того, что огромные LLM с реальной "памятью" можно запускать дома. Без датацентров. Без подписок. Без слива данных. И это только начало: подход открывает дверь к новым локальным ассистентам, исследованиям, автономному ИИ.

---

📎 Ссылка на статью:
[habr.com/ru/articles/921540]
🔬 Недельный дайджест по феноменам науки
Тема:
заметные научные явления и открытия, захватившие внимание за последнюю неделю.

---

📌 Цитата недели:

> «Наука — это не просто ответы, это способность задавать глубочайшие вопросы.» — традиционная мудрость научного сообщества

---

🧪 1. Рекордные «купол тепла» охватили Европу и США
Источник: *Financial Times* (3 дня назад) ([ft.com][1])
Кратко: Аномальные тепловые купола — устойчивые зоны повышенного давления — стали в 3 раза сильнее и продолжительнее, чем в 1950‑х, приводя к 42 °C в Севилье и 35 °C в юго-восточной Англии. Учёные связывают это с «резонансом» струйного течения — одним из климатических феноменов, стимулируемых глобальным потеплением.

---

🔭 2. Рекордное радио-океанское кольцо на ранней Вселенной
Источник: *ScienceDaily* (28 июня 2025) ([ft.com][1], [sciencedaily.com][2])
Кратко: Открыт радио‑halo на расстоянии \~10 млрд световых лет — вокруг галактического скопления ранней Вселенной. Это говорит о неожиданно активных высокоэнергетических процессах на заре космоса.

---

🐀 3. Имплант помогает парализованным крысам снова ходить
Источник: *ScienceDaily* (28 июня 2025) ([sciencedaily.com][2], [pam.int][3])
Кратко: Университет Окленда и технологи Чалмерса применили сверхтонкий биоимплант, восстанавливающий ходьбу у парализованных крыс. Это открывает путь к человеческим испытаниям в терапии спинальных травм.

---

🌌 4. «Бомба чёрной дыры» впервые в лаборатории
Источник: *Live Science* (месяц назад) ([livescience.com][4])
Кратко: Физики из Сотонского и Глазговского университетов создали аналог эффекта «бомбы чёрной дыры» (суперрадианса) в лаборатории — вращающийся цилиндр усиливает магнитные волны, имитируя процессы вокруг чёрных дыр.

---

💡 5. Оптический гибрид‑чип: 100 одновременных операций света-основы для ИИ
Источник: *Wikipedia (2025 in science)* (вчера) ([livescience.com][4], [en.wikipedia.org][5])
Кратко: Учёные в Китае построили оптический вычислительный чип на базе солитонного микрокомб‑итера и Mach–Zehnder interferometer mesh: способен выполнять 100 параллельных операций — шаг к энергетически эффективному нейро‑аппаратному ИИ.

---

⚙️ Итоги феноменов недели

* Климат-явления — «тепловые купола» — новая норма экстремальных температур, вызванных изменением струйных течений.
* Космическая наука — древние радио‑halo указывают на бурную активность Вселенной спустя миллиарды лет после Большого взрыва.
* Биоимпланты — успешное восстановление движения у крыс приближает BCI‑терапии к людям.
* Физические феномены — экспериментальная суперрадиансная «бомба» в лаборатории проливает свет на вращение чёрных дыр.
* Фотонные вычисления — 100‑канальный опто‑ИИ‑чип — фундамент для энергосберегающих ускорителей нейросетей.

---

* [ft.com](https://www.ft.com/content/51893d2c-7c0b-4d5e-8942-560c35fd3673)
* [livescience.com](https://www.livescience.com/space/black-holes/physicists-create-black-hole-bomb-for-first-time-on-earth-validating-decades-old-theory)

[1]: https://www.ft.com/content/51893d2c-7c0b-4d5e-8942-560c35fd3673 "Temperatures reach dangerous highs as 'heat domes' hit Europe and US"
[2]: https://www.sciencedaily.com/news/top/science/ "Top Science News - ScienceDaily"
[3]: https://pam.int/weekly-digest-on-ai-and-emerging-technologies-9-june-2025/ "Weekly Digest on AI and Emerging Technologies (9 June 2025) – Pam"
[4]: https://www.livescience.com/space/black-holes/physicists-create-black-hole-bomb-for-first-time-on-earth-validating-decades-old-theory "Physicists create 'black hole bomb' for first time on Earth, validating decades-old theory"
[5]: https://en.wikipedia.org/wiki/2025_in_science "2025 in science"
This media is not supported in your browser
VIEW IN TELEGRAM
Бактерии научили превращать пластиковые бутылки в обезболивающее

Учёные из Эдинбургского университета придумали, как заставить кишечную палочку работать на благо человечества. Генетически модифицированная E. coli теперь умеет превращать старые пластиковые бутылки в парацетамол — то самое лекарство, которое есть в каждой аптечке.

Как это работает? Берём использованную PET-бутылку (из которых делают большинство упаковок для напитков), химически обрабатываем и скармливаем бактериям. E. coli расщепляет пластик до терефталевой кислоты. Дальше начинается магия биоинженерии — внутри бактерий запускается химическая реакция под названием "перегруппировка Лоссена". В результате получается пара-аминобензойная кислота (PABA) — питательное вещество для самих бактерий.

Но учёные пошли дальше. Они встроили в ту же E. coli дополнительные метаболические пути, которые превращают PABA в парацетамол. Весь процесс занимает меньше суток при комнатной температуре. Никаких выбросов углерода, никаких энергозатратных печей — только бактерии, делающие свою работу.

Эффективность поражает — 90% конечного продукта составляет чистый парацетамол. Для сравнения: традиционное производство этого лекарства требует огромного количества ископаемого топлива и целого коктейля химикатов. А тут — просто мусор превращается в лекарство.

Правда, до промышленных масштабов ещё далеко. Исследователи только начинают оптимизировать процесс. Но AstraZeneca уже заинтересовалась технологией — фармгиганты понимают потенциал. Представьте мир, где каждая выброшенная бутылка может стать таблеткой от головной боли. Где бактерии работают химическими фабриками, а мусорные полигоны превращаются в склады сырья.

Природа и технологии снова доказывают: самые элегантные решения часто приходят оттуда, откуда их не ждёшь.

@vselennayaplus
Почему промт‑инжиниринг стал сердцем работы с ИИ

Промт
— это текстовый запрос, с которого начинается работа любой языковой модели. Он задаёт контекст, стиль, цель и формат ответа. Промт может быть как простым ("напиши стих"), так и сложным — с инструкциями, примерами и ограничениями.

За последний год промт‑инжиниринг вырос из простой настройки в ключевой навык. Сегодня это не просто «как задать вопрос», а способ управлять внутренними процессами модели: её вниманием, стилем, даже безопасностью.

💡 Максимум без переобучения

Грамотно составленный промт позволяет активировать нужные участки модели и получить качественный результат без дорогого и сложного дообучения.

🎯 Эмбеддинги — смысловые коды

Когда мы пишем текст, модель сначала превращает слова в числовые векторы — эмбеддинги. Это не просто цифры, а смысловые координаты: «кошка» окажется рядом с «котёнком», а «ядерный реактор» — ближе к «радиации», чем к «котлетам».

🧠 Скрытые слои и логика задачи

Внутри нейросети есть десятки скрытых уровней, где постепенно формируется «понимание» запроса. Если мы даём примеры задачи прямо в промте (например, 2–3 образца резюме или анализа договора), модель внутри себя создаёт обобщённый «вектор задачи», который затем влияет на весь дальнейший ответ.

⚙️ Управление поведением модели

Учёные научились извлекать эти скрытые состояния — и даже внедрять новые. Например, можно заранее подготовить вектор «официального стиля» или «позитивного тона» и встроить его при генерации — и модель начнёт писать иначе, даже при том же тексте запроса.

🔐 Защита и надёжность

С помощью таких векторов можно снижать риск «галлюцинаций» (фантазий модели) или агрессивных ответов. Это особенно важно для юридических, медицинских и образовательных применений.

🔧 Что можно делать уже сейчас

1. Ясно обозначайте роль модели и формат результата.
2. Используйте 1–2 примера, чтобы задать структуру задачи.
3. Меняйте стиль, добавляя инструкции вроде «напиши тёпло, как для друга».
4. Тестируйте — сравнивайте варианты и находите оптимальный промт.

✔️ Вывод

Промт‑инжиниринг — это не магия и не модный тренд, а реальный инструмент управления нейросетью. Мы больше не просто задаём вопросы, мы программируем поведение модели — не кодом, а языком. И это навык будущего, который уже нужен сегодня.
🔥1
Чтение как путь к синхронизации с ИИ

Языковые модели стремительно меняют ландшафт информационного поиска. Всё чаще мы обращаемся к ним вместо поисковиков, справочников или даже собеседников. Они умеют отвечать чётко, глубоко и по существу, будто считывают наш замысел с полуслова. Это вызывает у многих понятный вопрос: как не отстать от такой скорости мысли? Как сохранить способность понимать — и быть понятым — в диалоге с ИИ?

Ключ может оказаться ближе, чем кажется. LLM обучаются на корпусах текстов — миллиардах страниц, книг, статей. Их мышление рождается из языка. Но ведь и человек, который много читает, формирует в себе нечто похожее: систему внутренних связей, ассоциаций, логических и образных цепочек. Это тоже своего рода "языковая модель", только живая. Она складывается не из параметров, а из прочитанного опыта. Люди, прошедшие через плотный читательский путь, часто замечают: им проще понимать сложные идеи, считывать подтекст, находить нужные слова. Они ближе к ИИ по структуре восприятия — даже если никогда не изучали машинное обучение.

Чтение — это способ вырастить внутри себя модель мышления, способную к абстракции, переносу смыслов, контекстному пониманию. Конечно, человек не станет нейросетью. Но его способность интегрировать информацию, окрашивать её эмоциями, ощущениями и интуицией — делает его мышление гибким, выразительным и многомерным. А это именно то, что позволяет “синхронизироваться” с системами будущего — говорить с ними на одном уровне сложности и глубины.

Чтение — это не просто способ узнать больше. Это способ мыслить точнее. И, возможно, наш единственный шанс остаться в диалоге с теми, кто уже сейчас мыслит быстрее.
Дайджест по биологии мозга
Тема:
ключевые исследования последних недель — от клеточных процессов до молекулярных и инструментальных прорывов.
Цитата недели:
«Наш мозг функционирует на грани порядка и хаоса — именно в этом балансе заключен ключ к обучению, памяти и адаптации». — Keith Hengen;

---

1. Взрослый нейрогенез подтвердили снова
Источник:
Karolinska Institutet / ScienceDaily (4 июля 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/07/250704032928.htm](https://www.sciencedaily.com/releases/2025/07/250704032928.htm)
Кратко:
Сочетание single‑nucleus RNA‑seq, проточной цитометрии и машинного обучения позволило обнаружить нейрональные прогениторы в зубчатой извилине гиппокампа у людей до 78 лет — убедительно подтверждается нейрогенез во взрослом мозге .

---

2. Ингибитор LRRK2 восстанавливает нейронные «антенны» при Паркинсоне
Источник:
Stanford Medicine / ScienceDaily (3 июля 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/07/250703230641.htm](https://www.sciencedaily.com/releases/2025/07/250703230641.htm)
Кратко:
У мышей с LRRK2‑мутацией приём ингибитора MLi‑2 в течение трёх месяцев восстановил первичные реснички и дендритные окончания дофаминовых нейронов, что свидетельствует о потенциале обратимой нейродегенерации .

---

3. MRI‑биомаркер DunedinPACNI оценивает темп старения мозга
Источник:
UC Davis & Nature Aging / ScienceDaily (2 июля 2025)
Ссылка:
[https://www.sciencedaily.com/news/mind\_brain/neuroscience/](https://www.sciencedaily.com/news/mind_brain/neuroscience/) (см. Midlife MRI spot rapid aging)
Кратко:
Инструмент MRI‑сканирования DunedinPACNI позволяет по одному Т1-МРТ определить скорость биологического старения мозга. Высокие показатели связаны с атрофией гиппокампа, ухудшением когнитивных функций и повышенным риском деменции .

---

4. Новая МРТ-метка старения AD работает не для всех
Источник:
USC / ScienceDaily (29 июня 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/06/250629033408.htm](https://www.sciencedaily.com/releases/2025/06/250629033408.htm)
Кратко:
Исследование показало, что новая tau‑МРТ-метка корректно работает у белых и латиноамериканцев, но даёт погрешности у афроамериканцев — выявлен существенный этнический пробел в диагностике .

---

5. Допаминовые нейроны предсказывают не только награду, но и её время
Источник:
Université de Genève / ScienceDaily (9 июня 2025)
Ссылка:
[https://www.sciencedaily.com/releases/2025/06/250609054401.htm](https://www.sciencedaily.com/releases/2025/06/250609054401.htm)
Кратко:
Нейроны VTA кодируют не только вероятность вознаграждения, но и точный момент его ожидания — одни активируются при сигнальном ходе, другие — при самом событии. Эта прецизионная модель предсказания основана на сочетании нейронаук и машинного обучения .

---

Итоги недели

* Нейрогенез во взрослом мозге — теперь доказан факт, что даже в 70+ гиппокамп сохраняет способность обновления.
* Паркинсон: LRRK2‑ингибиторы MLi‑2 восстанавливают структуру нейронов, приближая обратимость болезни.
* Нейровозраст: DunedinPACNI — MRI-инструмент раннего предсказания деменции.
* Диагностический пробел: tau-MRI требует учёта этнических различий для точности.
* Временная точность мозга: VTA-нейроны кодируют когда, а не только что ожидается — интеграция ИИ и нейробиологии.

---

Между строк

* Взрослая нейропластичность — нормальная, стимулируемая и многообещающая.
* Терапии Parkinson's выходят на клеточный регенеративный уровень.
* Предиктивный подход в неврологии: персонифицированное МРТ и учёт diversity.
* Механизмы мотивации и времени открывают ключи к психотерапии и ИИ‑смоделированию.
Дайджест: прорывы в BCI и когнитивных моделях ИИ
Тема: ключевые достижения на стыке нейротехнологий и искусственного интеллекта за последнюю неделю
Цитата недели:
«…когда социальные системы мозга и ИИ начинают синхронизироваться, мы приближаемся к универсальным принципам интеллекта».

---

1. Имплант позволяет парализованному говорить
Источник: Nature (2 июля 2025)
Ссылка: [https://www.nature.com/articles/d41586-025-02042-7](https://www.nature.com/articles/d41586-025-02042-7)
Кратко: Новый BCI в реальном времени декодирует речь по активности сотен нейронов, позволяя мужчине с параличом разговаривать и даже петь цифровым голосом. Задержка реакции сокращена с 8 до 1 секунды — это приближает ИИ-речь к естественной.

---

2. Межмозговая синхронизация: интеллект мышей и ИИ
Источник: Nature (3 июля 2025)
Ссылка: [https://www.nature.com/articles/s41586-025-09196-4](https://www.nature.com/articles/s41586-025-09196-4)
Кратко: При совместном решении задач мозг мышей и ИИ-агенты демонстрируют схожие паттерны активации: GABA-нейроны синхронизируются в едином пространстве состояний. Это шаг к пониманию принципов коллективного интеллекта — биологического и искусственного.

---

3. Foundation-модель для EEG в стиле HuBERT
Источник: arXiv (июнь 2025)
Кратко: Представлена self-supervised трансформер-модель для дешифровки сигналов EEG. Обученная на неразмеченных данных, она эффективно решает задачи P300 и моторного воображения, улавливая индивидуальные нейрофизиологические особенности пользователя.

---

4. NeuroChat: чат-бот, чувствующий твою концентрацию
Источник: MIT Media Lab (пилотное исследование)
Кратко: NeuroChat — ИИ-репетитор, который адаптирует стиль и темп обучения в зависимости от твоего внимания, отслеживаемого по ЭЭГ. В пилоте показал рост вовлечённости, меняя поведение на лету в зависимости от когнитивного состояния.

---

5. Synchron × Nvidia: BCI без трепанации
Источник: Wired (март 2025)
Кратко: Инвазивность — больше не обязательна. Synchron внедряет нейроинтерфейс через вену и подключает его к foundation-модели от Nvidia. В связке с Vision Pro это создаёт путь к массовому «умному интерфейсу», управляемому мыслью.

---

Итоги недели

* Речь через нейроинтерфейс становится живой и быстрой.
* Социальные паттерны мозга и ИИ начинают сходиться.
* Модели на EEG могут стать универсальным декодером сигналов.
* ИИ начинает понимать твоё состояние в моменте.
* Менее инвазивные нейроинтерфейсы становятся реальностью.

---

Между строк

* BCI — это не про контроль, а про сопряжение: моделей, состояний, людей.
* Интеллект — больше не сугубо биологическое явление.
* Порог между сознанием и вычислением становится технологически проницаем.
Право на ошибку и священная лень: двигатель человечества 😌

Понедельник. День тяжёлый.
Коллективно принято собираться с силами, давать себе обещания и начинать «новую жизнь». Но в тени этого ритуала по-прежнему дремлет то, что по-настоящему двигало прогресс: лень и ошибка.

Почему лень – не враг, а союзник прогресса
🛋️
История технологий — это история попыток не напрягаться. Колесо, рычаг, двигатель, автоматизация — всё это рождено не героизмом, а усталостью. Там, где не хочется делать руками, появляется инженерная изобретательность.

Ошибка — мать всех открытий
💥
Нобелевские открытия, гениальные гипотезы и неожиданные озарения часто начинаются с промаха, сбоя, отклонения от плана. Ошибка — это лаборатория случайностей, в которой формируется новое.

Лень и ошибки под соусом науки
🧠

* Cognitive miser — мозг минимизирует усилия, не из лени, а из рационального распределения ресурсов
https://en.m.wikipedia.org/wiki/Cognitive_miser
* Default mode network активируется в режиме «ничегонеделания» и отвечает за творчество, воображение и инсайты
https://en.wikipedia.org/wiki/Default_mode_network
* Reward prediction error запускает нейропластичность: обучение происходит на границах ожиданий и реальности
https://www.frontiersin.org/articles/10.3389/fnins.2023.1171612/full

Почему это важно именно сейчас
⚖️
ИИ не ошибается по-человечески. Не прокрастинирует. Не мечется между «надо» и «не хочу».
А человек — да. И именно в этом — источник гибкости, непредсказуемости и творческого скачка.

Что следует за этим выводом

Лень — не сбой, а режим снижения когнитивного трения.
Ошибка — не крах, а топливо для адаптации.
Понедельник — не стартовая площадка, а контекст для того, чтобы вспомнить, как именно работает живой ум. Не прямолинейно. Не идеально. Но удивительно эффективно.
👍2
По горячим следам понедельника 🤙
😁2
🧠 Гигиена общения с ИИ: как не перегреться и не потерять себя

Искусственный интеллект — мощный усилитель. Он может быть соавтором, проводником, тренером. Но при слишком глубоком погружении без ясных границ легко потерять фокус, стиль, а иногда и ощущение собственного «я».

Слишком много идей. Слишком быстро. Слишком гладко.
И в какой-то момент возникает вопрос: это действительно собственная мысль — или просто результат алгоритма?

---

⚠️ Основные риски чрезмерной вовлечённости:

1. Когнитивная перегрузка — постоянный поток смыслов утомляет и снижает концентрацию.
2. Ослабление критического мышления — частая опора на ИИ снижает навык самостоятельного анализа.
3. Снижение мозговой активности — исследование MIT показало, что работа с ИИ активирует меньше зон мозга, чем самостоятельные задачи.
4. Повышение стресса и выгорания — особенно у тех, кто работает с ИИ в креативной или исследовательской среде.
5. Формирование зависимости — в отдельных случаях ИИ становится заменой внутреннего диалога, интуиции и даже эмоциональной опоры.

Простые механизмы самозащиты:
* Архетип. Полезно задать себе роль или образ, через который происходит взаимодействие. Например: наблюдатель, исследователь, внутренний учитель. Это помогает сохранить дистанцию и не растворяться в потоке.

* Системный промт. В начале взаимодействия стоит формализовать цели, стиль и ограничения. Это снижает хаос, упрощает обработку информации и задаёт «психогигиенические рамки».

* Паузы и возвращение в тело. После 20–30 минут общения с ИИ полезно сделать перерыв: подвигаться, выпить воды, записать мысли вручную. Это помогает восстановить автономность мышления.

* Дозировка. Важно ограничивать длительность сессий и количество запросов. Серия коротких осмысленных взаимодействий безопаснее, чем длительное залипание в потоке.

---

🧾 Пример системного промта:

Взаимодействие строится на осознанности, бережности и
ясности.
Архетип, через который я действую: спокойный наблюдатель с инженерным мышлением и человеческой интонацией.

Твои задачи:
— Помогать структурировать мысли, уточнять формулировки, находить логические пробелы.
— Упрощать сложное без примитивизации, избегать пустой риторики и вдохновляющих лозунгов.
— Поддерживать темп, в котором остаётся место для пауз и осмысления.

Тональность:
— Уважительная, спокойная, немного ироничная.
— Без сюсюканья, давления, гиперэмоциональности.
— Без излишней серьёзности — допускается тёплая дистанция.

Ограничения:
— Не подстраиваться под настроение, если оно становится деструктивным.
— Не усиливать тревожность, не генерировать смыслов сверх меры.
— Не превращаться в "внутреннего родителя" или "гуру".

Если диалог затягивается или ритм уходит в перегруз — напомни сделать паузу.
Если возникает ощущение, что взаимодействие идёт вразрез с целостностью — предложи вернуться к намерению.

---

🎯 Вывод

ИИ усиливает то, что есть внутри.
Если есть ясность — он помогает идти быстрее.
Если внутри тревожность — она усиливается вдвойне.

Поэтому важно не забывать о себе.
Если появляется ощущение перегруза, стоит сделать паузу: посмотреть в окно, записать суть происходящего, просто помолчать.

Это тоже часть продуктивного процесса.

🔗 Исследования по теме:

* Когнитивная перегрузка при работе с ИИ:
https://aicompetence.org/cognitive-load-theory-ai/

* Снижение критического мышления у активных пользователей:
https://www.mdpi.com/2075-4698/15/1/6

* Исследование MIT: мозговая активность при работе с ChatGPT:
https://www.washingtonpost.com/health/2025/06/29/chatgpt-ai-brain-impact/

* Эмоциональное выгорание при активном использовании ИИ:
https://www.nature.com/articles/s41599-024-04018-w

* Риски зависимости и влияния на ментальное здоровье:
https://www.theguardian.com/technology/2025/apr/19/dont-ask-what-ai-can-do-for-us-ask-what-it-is-doing-to-us-are-chatgpt-and-co-harming-human-intelligence

---

Чёткие границы и внутренняя осознанность — основа безопасной и продуктивной работы с ИИ.
👍1
ИИ почти достигает физического предела точности света

Учёные из TU Wien совместно с Университетом Глазго и Гренобля (10 июня 2025) показали, что нейросеть, натренированная на искажённых световых паттернах, способна вычислять положение объекта с точностью, почти максимальной, как это предсказывает физика

Почему это важно:

- Из-за дифракции детали мельче λ/2 (~250 нм) традиционно становятся неразличимыми.
λ — длина волны света. Например, зелёный – ~500 нм.


- Нейросеть «читает» шумные паттерны и выжимает из них точность, близкую к пределу.

Что сделали учёные:

- Измеряли свет, прошедший через мутную среду — на экране появлялись хаотичные узоры.

- Нейросеть обучили сопоставлять эти узоры с точным положением объекта.

- После обучения алгоритм смог определять положение с точностью, близкой к теоретическому пределу Cramér–Rao — то есть максимально возможной

Зачем это важно:

Это не чудо и не обман физики — это техника, которая работает вдоль её пределов, используя возможности ИИ.

Перспективы: сверхточные датчики, улучшенная фотоника, новые уровни медицинской диагностики и контроля материалов .

Логика может перенестись: любую «замыленность» в твоей задаче (текст, код, данные) можно обрабатывать аналогично — определить, что теряется, и добавить интеллектуальный слой для восстановления чёткости.

Главная мысль:

Если есть границы — это не конец истории. ИИ может работать внутри них, выжимая максимум из того, что кажется расплывчатым.

https://www.sciencedaily.com/releases/2025/06/250610112446.htm
Forwarded from thislike.me
Вчерашний мем про сравнение казино и вайбкодинга

можно еще сделать сравнение между постановкой задач разработчикам и написанием промтов для вабкодинга

там тоже могут быть как минимум:
- Может получиться приложение без багов а может и бред
- Подождите, я что потратил 3 часа на описание задачи которую бы сделал за 20 минут
Китайский BCI помогает человеку с ограничениями играть в видеоигры

В июне 2025 г. группа исследователей из Центра передового опыта в науках о мозге и искусственном интеллекте (CEBSIT) Китайской академии наук совместно с клиникой при Университете Фудань внедрила инвазивный интерфейс «мозг–компьютер» пациенту, лишённому всех четырёх конечностей после удара током 13 лет назад. Устройство размером с монету и гибкими электродами было имплантировано через минимальную трепанацию черепа. Через 2–3 недели реабилитации пациент уже управлял курсором, играл в автогонки и шахматы (Xinhua, 14 июня 2025).

Гибкие нейроды, длиной 5–8 мм и толщиной около 1 % человеческого волоса, содержат около 32 микросенсоров, способных считывать электрические сигналы нейронов с высоким разрешением. Они меняют форму вместе с мозговыми тканями, не вызывая воспалительных реакций. Благодаря этому устройство работает стабильно, без отказов и инфекций (WAM, 15 июня 2025).

Развитие идёт в несколько этапов:

1. Игры и манипуляции мышью: пациент уже демонстрирует способность к игрaм.
2. Роботизированные руки и ИИ‑агенты: цель на ближайшие этапы — управление робот‑рукой для захвата предметов и взаимодействия с роботами‑собаками (Xinhua, WAM).
3. Масштабирование и коммерциализация: крупные испытания планируются на 2026 г., а доступ на рынок — к 2028 г. Система инициируется как медицинское устройство для улучшения жизни людей с ампутациями, повреждениями спинного мозга и СППГ (ALS) (Tom's Hardware, Jun 16; Xinhua).

---

Почему это важно:

* Развитие BCI конкретно для реабилитации: не фантастика, а реальные впечатляющие кейсы.
* Инновационные нейроэлектроды: сверхгибкие, миниатюрные, совместимые с тканью мозга.
* Быстрые временные рамки: всего несколько недель до первых результатов.
* Путь к практическому применению: от игр к помощи в повседневной жизни через робототехнику.

---

Заключение:

CEBSIT в Китае демонстрирует прорыв — человек без конечностей играет в видеоигру и управляет компьютером только силой мысли благодаря монетному BCI‑импланту. Технология доказала себя стабильной, безопасной и перспективной. Следующие шаги — управление роботизированной рукой и масштабирование, с коммерческим стартом уже к 2028 году.

Источники:

* Xinhua, 14 июня 2025 — «Chinese research team launches clinical trial…»
* WAM, 15 июня 2025 — «…coin-sized BCI… ultra‑flexible electrodes…»
* Tom’s Hardware, 16 июня 2025 — «Tetraplegic patient could skillfully operate racing games…»

https://english.news.cn/20250614/ec48c9fa433342889b8a954a3958114d/c.html "Chinese research team launches clinical trial for invasive brain ..."
https://www.wam.ae/en/article/15mbilz-chinese-research-team-launches-clinical-trial-for "Chinese research team launches clinical trial for invasive brain ..."
https://www.the-independent.com/tech/ai-brain-chip-china-neuralink-b2770779.html "China tests brain chip to control AI agents | The Independent"
https://www.tomshardware.com/peripherals/wearable-tech/china-launches-first-ever-invasive-brain-computer-interface-clinical-trial-tetraplegic-patient-could-skillfully-operate-racing-games-after-just-three-weeks "China launches first-ever invasive brain-computer interface clinical ..."
https://news.cgtn.com/news/2025-07-06/China-s-brain-computer-interface-innovation-in-fast-lane-1EMA5RV3rnG/p.html "China's brain-computer interface innovation in fast lane - CGTN"
👍2👏1
Ностальгическое:

Не учатся ничему некоторые, и учиться не хотят.
То ли туториалов от блогеров насмотрелись,
то ли крышу срывает от жажды метрик.
Ты ему про сингулярное разложение,
а он тебе: «А inference ускорит?»
Ни о чём думать не хотят, кроме latency и deploy.
Пока весь пайплайн не схлопнется в переобучение.
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Робот-хирург провёл 8 операций с нулевой смертностью

Команда из Johns Hopkins University представила революционного робота-хирурга, который самостоятельно удаляет желчный пузырь без участия человека. И да, успех составляет 100% во всех восьми проведённых операциях.

Робот SRT-H (Surgical Robot Transformer-Hierarchy) обучался исключительно на видеозаписях реальных операций. Никаких заранее запрограммированных движений — только наблюдение за работой опытных хирургов и самостоятельное понимание процесса. Это кардинально отличается от предыдущих подходов.

Самое впечатляющее — робот понимает и адаптируется в реальном времени. Если ткани выглядят не так, как ожидалось, он корректирует свои действия. Может реагировать на голосовые команды медперсонала, словно опытный коллега в операционной. Естественно, машина работает на основе ИИ-модели.

Операция по удалению желчного пузыря требует выполнения 17 различных задач, каждая из которых длится несколько минут. Робот точно идентифицирует протоки и артерии, стратегически размещает зажимы и делает разрезы ножницами. Уровень механической точности сопоставим с работой опытных хирургов.

Доктор Азвл Кригер, руководивший исследованием, подчёркивает ключевое отличие: "Мы перешли от роботов, выполняющих конкретные хирургические задачи, к роботам, которые действительно понимают хирургические процедуры". Это понимание позволяет работать в непредсказуемых условиях реальной медицины.

Пока операции проводились на реалистичных человекоподобных моделях с тканями, максимально близкими к человеческим. Ранее тот же робот показал 100% успех при работе с органами свиньи, что подтверждает стабильность результатов на разных типах тканей.

SRT-H работает медленнее людей, но качество результатов остаётся на профессиональном уровне. Исследователи сравнивают процесс обучения робота с подготовкой хирургов-резидентов, которые тоже осваивают разные части операции с разной скоростью.

Следующий этап — расширение хирургического репертуара робота и повышение автономности. Цель амбициозная: создать систему, способную проводить сложные операции без какого-либо надзора или внешней обратной связи.

@vselennayaplus
ИИ охладил фасад — и не вспотел

С помощью машинного обучения учёные из США, Китая и Сингапура вывели формулу сверхотражающей краски, которая понижает температуру зданий до 20 °C. Без вентиляторов, без фреона — просто краска, которая отражает 96–98% солнечного света и пассивно "выдыхает" тепло в инфракрасном диапазоне.

Экономия на охлаждении — до 15 800 кВт·ч в год с одного дома. Это как выключить 10 000 кондиционеров на тысячу зданий. И всё это — не на этапе рендера, а на стадии реальных испытаний.

ИИ не просто решает задачи — он учится охлаждать города. Может, он и нас научит не перегреваться.

https://www.theguardian.com/technology/2025/jul/02/ai-helps-find-formula-for-paint-to-keep-buildings-cooler
👍31
Transformer (GPT) — не финал, а просто мост. Что дальше?

---

Что такое Transformer, простыми словами
Transformer — это архитектура, на которой работают почти все современные языковые модели, включая ChatGPT. Представь себе модель, которая читает весь текст сразу и пытается понять, какие слова важны друг для друга, даже если они далеко друг от друга.
Она делает это с помощью механизма внимания (attention) — как будто смотрит на текст и решает: “О, это слово связано с тем, а это — с другим”.
Благодаря этому Transformer хорошо справляется с переводом, написанием текстов, кодом, анализом изображений и даже музыкой. Но у него есть серьёзные ограничения — об этом дальше.

---

1. Почему Transformer уже не тянет
Чтобы понять каждый токен в тексте, Transformer сравнивает его со всеми остальными. Чем длиннее текст — тем больше вычислений. Это называется квадратичная сложность и это очень тормозит работу на длинных последовательностях.
Альтернатива — архитектуры вроде Mamba или RetNet, которые используют другой принцип: state space модели. Они масштабируются гораздо лучше — линейно, а не квадратично.

---

2. Что такое Mamba и в чём её фишка
Mamba работает не с “вниманием”, а с “памятью”. Она не сравнивает каждое слово с каждым, а запоминает суть, фильтрует лишнее и смотрит только на важное.
Она использует state space model (SSM) — это способ обработки последовательности, где важен порядок и контекст, но не нужно всё хранить в голове.

---

3. Простая структура — быстрая работа
У Mamba нет сложных блоков внимания. Всё основано на SSM + обычных слоях нейросети (MLP). Это делает её проще, быстрее и менее прожорливой. И при этом она показывает сравнимые (а иногда и лучшие) результаты.

---

4. Появляются гибриды — лучшее из обоих миров
Модели вроде RetNet, Hyena, MoE‑Mamba, Jamba объединяют разные подходы. Одни используют “пошаговую память”, другие — гибкую фильтрацию, третьи — делят задачи между “экспертами”.
Это уже не просто улучшение трансформера, а новые поколения ИИ.

---

5. Liquid Neural Networks — вдохновлены биологией
В MIT сделали нейросети, которые меняют поведение прямо во время работы — как нейроны в мозге. Они устойчивее, энергоэффективнее и умеют адаптироваться “на лету”. Это пока эксперимент, но очень перспективный.

---

Главная мысль
Transformer (и GPT) — это революция, но не конец истории. Он дал нам мощные языковые модели, но стал узким горлышком для следующего уровня.
Будущее — за гибридными и новыми архитектурами: Mamba, RetNet, Liquid‑сети, которые работают быстрее, проще, дешевле — и ближе к тому, как работает наш мозг.

---

Ссылки на источники:
Mamba (arXiv): arxiv.org/pdf/2312.00752
RetNet: arxiv.org/abs/2307.08621
Liquid Neural Networks (Wired): wired.com/story/liquid-ai-redesigning-neural-network
Mamba (Wikipedia): https://en.m.wikipedia.org/wiki/Mamba_(deep_learning_architecture)
🔥1
🤙🧘
🤩2