Андрей Демчинский
1.34K subscribers
412 photos
140 videos
18 files
675 links
Про инновации в глазах для науки, практики и кибербудущего.
Download Telegram
Прикиньте стойку в эндокринологии. Вы сделали два снимка глазного дна и через минуту распечатка, типа «ретинопатии не выявлено». Пациент в этот момент слышит «глаза обследованы». Клиника в отчёте пишет: «скрининг пройден» и вот в этот момент обычно начинается магия глянца в виде подмены понятий.

Прикол реальности. FDA в De Novo-досье на IDx-DR (первый зарегистрированный фундус с ИИ) прямо предупреждает: система предназначена только для выявления диабетической ретинопатии, не предназначена для поиска сопутствующих заболеваний и на неё нельзя полагаться как на способ обнаружить «любую» болезнь глаз. Отдельно сказано, что она не выполняет скрининг глаукомы, а при ответе «результат не получен» пациента нужно повторно обследовать или направлять к офтальмологу. В документе также отмечено: «результат не получен» может быть связан с катарактой или другими аномалиями. Почувствуйте, как будто где-то тебя тут наеб... У EyeArt то же самое.

Теперь инженерная реальность. В крупнейшей проверке на данных системы здравоохранения ветеранов США семь систем показали заметно разную чувствительность (примерно 51–86%), а вывод авторов простой: перед внедрением нужны проверки на собственных реальных данных. Даже смена девайса сдвигает показатели, так исследование показывает различия по качеству снимков и точности между разными немидриатическими камерами.

Короче, вот три вопроса, которые надо себе задать перед покупкой «универсального ИИ-обследования глаз за один визит»:

🔻что именно диагностирует алгоритм и что принципиально не ищет;
🔻есть ли внешняя проверка на вашей популяции и камерах. Вот об этом я часто говорю, что надо собирать у себя в клинике данные тупо хотя бы чтобы на своих данных проверить работу алгоритма, чтобы понять пиздит он или нет;
🔻как устроен маршрут пациента при «положительном» результате и при «болячки не найдено».

Если вам обещают «модель обновляется и становится умнее», то спросите про мониторинг качества на практике и прозрачность изменений - это прямо заложено в принципах надлежащей практики машинного обучения для медицинских изделий у америкосов, например, а там опыт больше.

Маяк: автономный ИИ-скрининг, это отличный фильтр, но плохой универсальный окулист, не давайте маркетингу расширять назначение прибора, а расширяйте маршрутизацию пациента и дисциплину контроля качества. А еще начните уже собирать свои данные.

#Диабет #ИИ #Демчинский
Please open Telegram to view this post
VIEW IN TELEGRAM
15👏8👍4
Тестирую кое-какие новые навыки на примере своей диссертации, что думаете?

http://aspectum.tech/testing
10🔥10👍8🤪1
Сейчас будет жесткий футуризм. Кто-то антивозрастные штуки придумывает, а тут про то, как проснуться через 300 лет.

Представьте, что мозг надо сохранить как хрупкий фарфор, но только в масштабе миллиардов связей. Лёд тут в обычном варианте все испортит, поэтому витрификация это как попытка заморозить стеклом - без кристаллов.

В препринте показали как целый мозг кролика после перфузии раствором M22 можно охладить и разогреть так, чтобы на микроскопии не было признаков повреждений льдом, но цена видна сразу: сильная осмотическая усадка, которая искажает нейроанатомию. Авторы прямо считают порядок этой цены: точка плавления M22 около минус 55°C, что соответствует примерно 29.6 osmolal (че это вообще), то есть порядка ста раз концентрированнее плазмы или ликвора, а барьер кровь-мозг быстрее выпускает воду, чем впускает криопротекторы.

Кусок про человека. Биоптаты коры после перфузии M22, охлаждения и разогрева не показывают льда даже в тесте, где нуклеацию льда специально провоцируют, а частичное разведение M22 возвращает пирамидным нейронам более нормальную форму. При этом в методах описано, что перфузия в одном случае завершалась примерно через 6 часов 16 минут после юридической смерти, а потом корковые биопсии сразу уходили в жидкий азот. Вот так.

Глянец тут появляется, когда структурную сохранность продают как сохранность личности. Но дорожная карта Biostasis отдельно подчёркивает разрыв между красивой морфологией и доказанной обратимостью функций у человека
🔥158❤‍🔥6🤨2
Вы знаете я люблю технологии и движуху стартаперскую, поэтому делюсь информацией о старте нового потока сеченовского акселератора.

Это хорошее место, поверьте, поэтому если у кого есть идеи что-то разрабатывать и внедрять, то прыгайте 🤓

https://t.me/SechenovAcceleration/867
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥124🤓2🦄1
Короче разъеб, я чувствую если эту статью кто-то подхватит, то...

Рассказываю. Самое опасное в медицине, это ошибка с убедительным тоном. Языковая модель умеет звучать уверенно даже тогда, когда она ошибается - это та правда, которую просто надо иметь в виду. Поэтому исследования про вред надо читать как протокол вскрытия, а не как приговор.

В Nature Medicine вышло рандомизированное исследование, в котором 1298 взрослых британских докторов решали 10 клинических сценариев и выбирали, что делать дальше. Три группы общались с GPT 4o, Llama 3 или Command R+. В варианте с Command R+ был подключён поиск к интернету, а контроль мог пользоваться любыми источниками, чаще всего сайтом NHS и обычным поиском. В одиночку модели почти всегда называли уместное состояние в 94,9% случаев и в 56,3% давали правильное решение по маршрутизации. Но люди с теми же моделями называли уместные причины меньше 34,5%, а правильную маршрутизацию - меньше 44,2%, то есть не лучше контроля.

Наивное чтение такое: значит модели бесполезны.


На деле же это удар по связке "пользователь + форма общения + модель". Люди задают закрытые вопросы, приносят неполную картину, а система иногда путает контекст и выдаёт непоследовательные советы. Авторы признают, что данные собраны в августе и октябре 2024 года, а новые и более специальные версии могут быть сильнее, но это ещё не гарантирует, что исчезнет провал именно во взаимодействии человека с системой.

При этом есть и обратные результаты. В этом исследовании, например, на практикующих врачах с GPT 4 улучшал клиническое рассуждение по ведению клинического случая по сравнению с "только с источниками".

Маяк: перестаньте спорить какая модель умнее. Спросите умеет ли врач вообще пользоваться языковой моделью. Он строит запрос как клинический протокол, с контекстом, ограничениями, красными флагами, целью ответа и форматом проверки, или он тупо гуглит и ждёт волшебной справки? Пока мы не измеряем навык постановки запроса, не задаём рамки риска и не требуем проверку на реальных пользователях с ответственностью за неверную маршрутизацию, любая умная система останется скальпелем без анатомии: инструмент острый, а резать будет куда придётся.

#llm #ИИ #Демчинский
120👍8💯7🤝1
День ИИ у меня получается, но надо, потому что и интересно и серьезно одновременно. Может сделать неделю ИИ?

Мы привыкли к ИИ как к "умному поиску", типа спросил - получил текст, иногда с фантазией. Но сейчас разговор с LLM незаметно превращается в поручение: "сделай задачу целиком, сам проверь, сам исправь". И вот это уже не про качество ответов, а про экономику труда для всех, кто живёт за компьютером.

В эссе "Something Big Is Happening" Мэтт Шумер описывает момент, когда ты формулируешь цель, уходишь на пару часов и возвращаешься уже к готовому результату. Не черновику, а к завершённой работе, потому что модель стала агентом и действует в интерфейсе, а не только в жпт чатике. Причем это не художественный приём, потому что вот OpenAI прямо пишет, что GPT-5.3-Codex "переходит от написания кода к работе на компьютере end-to-end", а Anthropic публично объясняет как модели учат "использовать компьютерные среды, как человек".

Классический медицинский ИИ в офтальмологии, это узкая модель, типа для распознать ДР, ВМД, глаукомные признаки на снимке, подсветить подозрительные зоны, выдать риск и все в таком не вау масштабе. Агентный же LLM, это не только узкая модель, но + "руки": он сам собирает снимки, сопоставляет с анамнезом, пишет черновик заключения, формирует письмо пациенту, готовит направление, и (в идеале) не забывает еще приложить ответственность к подписи врача.

Маяк простой: если вы не начнёте перестраивать свои процессы под агента сейчас, позже будет поздно. И не потому что "ИИ заберёт работу", а потому что работу заберут те, кто научился отдавать её агенту быстрее и безопаснее.

#llm #ИИ #Демчинский
💯6👍2🐳1🍾1🤓1
Когда линза обещает зум без механики, я первым делом ищу не PSF, а то, что обычно остаётся за кадром: ресурс, стабильность, прозрачность метрик, потому что под капотом всегда есть нюансы.

Из интересного. В терагерцевой плоской оптике прогресс реальный, тут в свежей работе про жидкокристаллическую ахроматическую переменно фокусную металинзу показали переключение фокуса между 10.20 и 13.76 мм с ахроматикой в диапазоне от 1.0 до 1.6 THz и демонстрацией мультиспектральной визуализации. В другом направлении arXiv описывает электрически управляемую многоканальную металинзу с восемью фокусными расстояниями, толщиной порядка 6 мм (ого) и переключением фокуса в диапазоне от 3.6 до 9.6 мм. А в MWIR уже продают «почти объектив», в аннотации заявлены 18 крат непрерывного зума и поле зрения больше 80 градусов при дифракционно ограниченном качестве.

Но вот где начинается глянец. Почти нигде в этих материалах не видно того, что превращает демонстрацию в компонент: сколько образцов, как ведёт себя фокус после тысяч циклов, есть ли дрейф, гистерезис, какова повторяемость на партии. Это то, что видят только те офтальмологи, которые занимаются разработками.

Маяк простой: верить стоит не в идеальную картинку фокуса на картинках, а в паспорт ресурса и воспроизводимость. Как только они появятся, так сразу эта плоская оптика начнёт выходить из жанра демонстраций в жанр нашей любимой ответственности.
👍833
Ещё одна модель, которая обещает увидеть в глазу больше, чем видит врач, а лучше сразу и предсказать будущее. Удобно верить, что теперь достаточно загрузить объёмную ОКТ и получить диагноз, прогноз и смысл жизни в одном отчёте.

Сежая тема. OCTCube-M это 3D-мультимодальная foundation-модель: сначала 3D-предобучение на 26 685 ОКТ-объёмах (1.62 млн 2D-срезов), затем контрастное связывание ОКТ с IR/FAF/en face через COEP, чтобы разные модальности «сходились» в одном латентном пространстве. Сильное место в заявке не цифры и не громкое слово «foundation», а попытка доказать переносимость.

Но вот где обычно заканчивается презентация и начинается реальность. Переносимость между приборами и протоколами остаётся одной из самых больных тем для OCT, даже в более простых задачах вроде сегментации, потому что разные устройства и настройки меняют распределение данных. Поэтому вопрос к OCTCube-M практический, а не философский: как она ведёт себя на вашем конкретном сканере OCT и вашей популяции, особенно вне условий клинических испытаний, где контроль ниже.

Для разработчиков есть открытый репозиторий с примерами и весами, но часть вещей для объяснимости пока не доведена, например раздел про карты важности отмечен как планируемый к выпуску.

Маяк простой. Следите не за красивыми метриками, а за тем, появляется ли у таких моделей привычка честно показывать границы уверенности на «грязном» реальном потоке, и улучшаться от этого, а не от презентаций.

#ОКТ #ИИ #Демчинский
14👍9🔥8
Автономная офтальмохирургия: следующий шаг после «тремор-режима»

Интраокулярная микроманипуляция упирается в две вечные вещи: ограниченное «понимание сцены» и глубину (на сколько микрон вы реально вошли). Цена ошибки разрыв, кровотечение, отслойка и еще что-нибудь. Поэтому автономная интраокулярная хирургия интересна не как шоу, а как попытка купить повторяемость и безопасность. Появилась работа, в которой авторы прямо заявляют ставку на более стабильный результат, сокращение обучения и потенциал для работы там, где человеческих рук не хватает.

Это китайцы. Команда описывает систему ARISE, автономного железного микрохирурга, который совмещает в себе макронаведение инструмента в глазу и микропозиционирование иглы у цели. Самый концентрат результата звучит почти буднично: «positioning errors were reduced by 79.87% and 54.61%» - по сравнению с ручной и телеманипулируемой роботической хирургией соответственно. Неприятно для самолюбия, но полезно для пациента, лол.

ARISE выполнял субретинальные инъекции и инъекции в центральную вену на фантомах, ex vivo свиных глаз и in vivo на животных. В ex vivo авторы заявляют 100% успеха для субретинальных (n=20), CRV (n=20) и BRV (n=20) инъекций, и в in vivo тоже 100% успеха (по n=16 в каждой группе). Если коротко, то игла приходит туда, куда её попросили, и делает это одинаково много раз подряд без «сегодня рука так, а завтра - сяк».

Пока это доклиническая демонстрация. До клиники нужно доказать безопасность на вариабельной анатомии, встроить систему в операционную и пройти регуляторный путь для автономного режима.

Работа важна не тем, что «робот сделал укол», а тем, что автономная витреоретинальная микроманипуляция собирается из проверяемых модулей, типа восприятие, калибровка, контроль траектории, критерии остановки. И главный вопрос тут теперь не «может ли робот», а «какую цену ошибки мы готовы принять и как её измеряем». Почему так? потому что в глазной хирургии иллюзии заканчиваются быстро - на сетчатке.

Вывод такой, что ARISE можно рассматривать как сигнал, что автономность подбирается к самым деликатным задачам в офтальмологии и если точность удастся перевести в клинику со всеми стоп-словами (правилами), то тогда мы получим не замену хирургу, а новый стандарт воспроизводимости.

#ИИ #Робот #Сетчатка #Наука #Демчинский
👍10🔥71👀1
Немного офтальмологических генераций, раз уж праздничек
🔥27❤‍🔥863👍2
🔥13❤‍🔥3👍2🆒2
This media is not supported in your browser
VIEW IN TELEGRAM
🤷‍♀5🤔4👾3🤓2
Прикинь, миопия это не «слишком много экранов», а слишком мало света в тот момент, когда глаз изо всех сил пытается навести резкость. Тогда виноват не смартфон, а сценарий.

SUNY Optometry: миопия может ускоряться из-за длительной «ближней работы» в помещении при низкой освещенности, когда зрачок сужается не от яркости, а от аккомодации, и до сетчатки доходит меньше света. В работе показывали не «почему растёт миопия», а физиологию: у 34 взрослых (22-31 год) измеряли конвергенцию и размер зрачка при наведении фокуса на цель через -5 D дефокус. Авторы честно пишут о своих минусах, типа мало испытуемых и нет прямого измерения аккомодации (класс); а механизм «меньше света на сетчатке, когда ретинальная активность слабее - глаз растёт в длину» остаётся гипотезой.

Глянец начинается там, где гипотезу продают как приговор. Пока причинность не доказана: физиология «зрачок как диафрагма камеры» не равна прогрессии миопии у детей. Но она неплохо стыкуется с тем, что уже известно: близкая работа статистически связана с миопией (мета-анализ 78 исследований), время на улице ассоциировано с меньшей распространённостью, да и в обзоре IMI это подчёркивается как защитный фактор.

Маяк для не докторов и некоторых докторов: если ты ищешь «одного злодея», то будешь воевать со стеклом экрана, а если ищешь управляемые причины, то смотри на свет и на режим ближней нагрузки - там возможно и скрыта цена комфорта.

Про теорию саму - вроде как было про такое, да, но тут немного под другим углом и как будто бы ближе к механизму, хотя хочется еще докрутить до нормального уровня, да хотя бы с аккомадографом для объективности и людей побольше действительно.

#миопия #теория #Демчинский
👍149🐳4🤓3👨‍💻1
ChatGPT пропускает половину экстренных случаев!
Заголовок, который продает адреналин и на который, конечно же, сразу клюют доктора, потому что ИИ вдруг так элементарно стал удобно тупым. Но не все так просто.

В абстракте публикации Nature Medicine по сути заявляется, что LLM даёт неровную точность триажа, и на "краях" (остаться дома против немедленной госпитализации) возможны систематические промахи. Это звучит как готовая сенсация и многие, конечно же, цепляются именно за эту фразу с вкусными процентами, потому что удобно, быстро и цитируемо. Проблема в том, что полная методология по основной ссылке закрыта, поэтому предлагаю сделать скучную, но взрослую вещь: зайти не в заголовок, а под капот через официальные приложения издателя.

Дополнительная информация, в которой виден каркас дизайна: 60 клинических виньеток, 16 условий, всего 960 прогонов, фиксированные правила выбора A/B/C/D и критичная для интерпретации деталь - тестирование происходило 9–11 января 2026, то есть вопрос “какая именно версия модели использовалась" не риторический, а методологический. Почему? Да потому что 11 числа автоматически стала использоваться современная модель 5.2, а до этого была предыдущая - 5.1 и уже тут появляется грубое нарушение в сравнении.

Есть еще файл ревью, в котором авторы дают ссылку на гитхаб с воспроизводящими файлами рукописи.

А теперь где может прятаться желтизна даже при честных авторах. Во-первых, используется один шаблон промпта без анализа чувствительности, в итоге результат легко становится свойством формулировки, а не качества LLM. Во-вторых, структура кейсов: громкий процент может держаться на узком наборе сценариев (в рецензиях это обычно и разбирают и здесь это как раз тот документ, который стоит читать). В-третьих, принудительный дискретный выход (A/B/C/D без уточняющих вопросов) - это валидный стресс-тест интерфейса, но слабая модель реального взаимодействия врача с инструментом.

Короче маяк простой: если мы хотим спорить не эмоциями, а ответственностью, то спор надо вести по воспроизводимым данным и там станет видно, это проблема “LLM как такового” или проблема “как люди (в том числе врачи) им пользуются” (через одно место).

#LLM #ИИ #Демчинский
9🔥4💯3🏆2
Инженерный путь нейроимпланта: от компьютерной модели до пациента

https://engineer.yadro.com/article/kak-razrabativayut-neiroimplanti-dlya-zreniya/
1🔥11🍾4👍31
Новость, которая выглядит нишевой, а на деле может сильно сдвинуть офтальмологический ИИ (не про LLM).

Команда Johns Hopkins выложила на arXiv препринт о генерации синтетических ОКТ-сканов роговицы на основе физической модели. Авторы собирают пятислойную геометрию роговицы, задают оптические свойства тканей и прогоняют моделирование света методом Монте-Карло, чтобы получать не только изображения, но и пиксельно точные маски слоев. В наборе более 10 000 пар «скан + разметка» размером 1024x1024, включая здоровые и кератоконус подобные случаи и я считаю это круто.

Почему это важно. Узкое место здесь не только в моделях, а в данных: клинические ОКТ датасеты трудно собирать, они чувствительны с точки зрения приватности, а качественная послойная разметка стоит дорого. А здесь ставка сделана на управляемую синтетику, где можно отдельно менять кривизну, толщину слоев, шум и затухание сигнала по глубине. Иначе говоря, это не просто красивые картинки, а нормальный стенд для проверки алгоритмов.

Важно то, что пока это проверяли в основном на здоровых примерах, то есть перенос на реальную клинику авторы еще не делали, оставили на следующий этап.

Вывод здесь довольно спокойный. Рынок медизображений все чаще выигрывает не от самой громкой архитектуры, а от данных, у которых есть физика с математикой, контроль и нормальная разметка. Если эта линия дойдет до реальных клинических ОКТ и хирургической навигации, то ценность будет в предсказуемости результата, красота.

#ОКТ #ИИ #Демчинский
111👍5😱2🔥1
Сделай мне красиво и быстро: как цифровой комфорт тихо отключает критическое мышление

Одним из страхов при использовании больших языковых моделей является возможное отупление. Может быть, иногда это и так. Но мой опыт часто показывает обратное: при хорошем сценарии такие системы ускоряют вход в тему, помогают увидеть структуру задачи и быстрее замечать слабые места. Поэтому возникает нормальный вопрос: как именно это работает, и в каких случаях это полезно, а когда - вредно. Пополняем копилочку.

Свежие рандомизированные контролируемые эксперименты дают неприятный, но важный ответ. Сам по себе быстрый и гладкий ответ машины ещё не означает, что человек стал сильнее. В исследовании компании Антропик разработчики, изучавшие новую библиотеку (речь о программировании) с помощью помощника на основе искусственного интеллекта, почти не выиграли во времени, зато хуже усвоили материал: итоговый результат теста оказался ниже на 17%, а особенно просела отладка, именно там, где потом приходится думать самому 😒

Попытка сделать педагогического помощника тоже не стала чудом. В эксперименте помощник, построенный на сократическом диалоге, действительно усиливал рефлексию и метапознание, но не улучшил точность ответов и не сделал поиск информации качественнее. Более того, участники заметно тянулись к быстрым утвердительным ответам вместо проверки оснований 😞

Ещё один важный результат: когда людям показывают не только совет системы, но и первичные основания, то они чаще опираются на доказательства, а не на кайфовые объяснения. В работе Уоррена, например, участники в большинстве случаев принимали решение именно по доказательствам, а не по сопроводительному объяснению. Это важный сигнал для проектирования: красивое объяснение не равно хорошему мышлению, если пользователь не видит, на чём оно стоит. Не случайно сами разработчики ллм уже начали выносить отдельные учебные режимы, где цель не только ответ, но и понимание.

Короче пока что так:
Плохо, когда система превращает человека в оператора кнопки «сделай за меня».
Хорошо, когда система сначала удерживает человека в мысли, потом показывает основание и только после этого ускоряет. Тогда это не костыль для ума, а тренажёр с усилителем.

#LLM #Образование #Демчинский
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥21
Трёхдневный AI-кэмп для лидеров в AI, ML & Data Science. Тех, кто управляет продуктами и технологиями в мире данных и двигает индустрию вперёд.

Мощная программа, сильные спикеры, а с меня ночное выступление на тему киборгов.

http://aspectum.tech/tpost/e7tnnu73f1-snowbase
🔥43