This media is not supported in your browser
VIEW IN TELEGRAM
С днем науки, друзья, она интересна и творит чудеса
👏24❤21👍11🎉4🔥2
Представьте: вы ведёте взглядом машину и мир в глазах начинает ехать. Обычно это объясняют так: мозг обязан вычесть эту рябь, иначе всё поплывёт, но команда из Рочестера показывает неприятную для учебников мысль, типа эта рябь может быть не мусором, а подскааазкой.
В статье Flexible computation четатам… авторы формализуют две геометрии наблюдения:
🔻 когда глаз в основном вращается - классика вычитания)
🔻 когда к вращению добавляется перемещение - появляется паралакс.
Их тезис такой: по структуре оптического потока мозг может угадать какая геометрия сейчас, и поэтому по-разному комбинирует сигналы ретинального движения и скорости взгляда, то есть не только минусует.
Плюс работы в том, что авторы ловят систематические ошибки (сегодня учебники по офтальмологии надо прям переделывать). В VR-задачах люди давали предсказуемые смещения в оценке направления движения и глубины. При этом эти смещения совпали с моделью «инференса геометрии по оптическому потоку», без обучения и обратной связи (надеюсь я сам правильно понял).
Есть нюансики, вот это вот «раньше считали шумом» - звучит как вау революция. Но «вычитание» и эфферентная копия давно описывают реальные иллюзии во время плавного слежения, а короллярный разряд как механизм стабильности это не декорация, а рабочая часть системы. Тогда как глубина из параллакса и отношения ретинального движения к следящему сигналу тоже какбэ классика.
Авторы аккуратно кивают в сторону VR, мол если картинка в шлеме не учитывает движение глаз, то мозг может получать «не тот» нейрональный поток. Но но так называемая кибер болезнь (когда в виаре штырит), это чаще про конфликт сенсорных каналов в целом, а не одна кнопка в настройках.
Мораль заключается в том, что ставка в другом - мозг, похоже, не просто чистит сигнал, а оценивает причны движения в поле зрения. Типа чем сложнее будут наши дисплеи и симуляции, тем дороже станет ошибка в этой причинности.
#VR #физиология #демчинский
В статье Flexible computation четатам… авторы формализуют две геометрии наблюдения:
Их тезис такой: по структуре оптического потока мозг может угадать какая геометрия сейчас, и поэтому по-разному комбинирует сигналы ретинального движения и скорости взгляда, то есть не только минусует.
Плюс работы в том, что авторы ловят систематические ошибки (сегодня учебники по офтальмологии надо прям переделывать). В VR-задачах люди давали предсказуемые смещения в оценке направления движения и глубины. При этом эти смещения совпали с моделью «инференса геометрии по оптическому потоку», без обучения и обратной связи (надеюсь я сам правильно понял).
Есть нюансики, вот это вот «раньше считали шумом» - звучит как вау революция. Но «вычитание» и эфферентная копия давно описывают реальные иллюзии во время плавного слежения, а короллярный разряд как механизм стабильности это не декорация, а рабочая часть системы. Тогда как глубина из параллакса и отношения ретинального движения к следящему сигналу тоже какбэ классика.
Авторы аккуратно кивают в сторону VR, мол если картинка в шлеме не учитывает движение глаз, то мозг может получать «не тот» нейрональный поток. Но но так называемая кибер болезнь (когда в виаре штырит), это чаще про конфликт сенсорных каналов в целом, а не одна кнопка в настройках.
Мораль заключается в том, что ставка в другом - мозг, похоже, не просто чистит сигнал, а оценивает причны движения в поле зрения. Типа чем сложнее будут наши дисплеи и симуляции, тем дороже станет ошибка в этой причинности.
#VR #физиология #демчинский
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🙏5🍾4❤1👀1
Forwarded from ASPECTUM
Ассоциация врачей и разработчиков технологий "Aspectum" приглашает вас принять участие во втором Хакатоне, посвященном использованию больших языковых моделей (LLM) в медицине «Медицина будущего 2.0. Неделя больших языковых моделей».
Даты: 13-19 апреля.
Формат: Онлайн.
Хакатон объединяет врачей, разработчиков и промпт-инженеров для создания прототипов решений на основе LLM, которые могут быть внедрены в клиническую практику:
— автоматизация документооборота,
— поддержка принятия решений,
— интерпретация исследований,
— снижение рутинной нагрузки на врачей.
Что будет:
— Работа в междисциплинарных командах (2–5 человек).
— Онлайн-лекции и мастер-классы от экспертов.
— Менторская поддержка.
— Финальный питчинг проектов 19 апреля.
Для участия:
— Подайте заявку до 6 апреля на сайте Хакатона.
— Можно прийти с командой или найти её в чате участников (доступен для участников, заявки которых прошли модерацию).
— Обязательное условие - наличие врача в команде.
Победители получат призы и возможность развивать свои решения совместно с партнёрскими медицинскими и технологическими организациями.
@aspectum_tech
Даты: 13-19 апреля.
Формат: Онлайн.
Хакатон объединяет врачей, разработчиков и промпт-инженеров для создания прототипов решений на основе LLM, которые могут быть внедрены в клиническую практику:
— автоматизация документооборота,
— поддержка принятия решений,
— интерпретация исследований,
— снижение рутинной нагрузки на врачей.
Что будет:
— Работа в междисциплинарных командах (2–5 человек).
— Онлайн-лекции и мастер-классы от экспертов.
— Менторская поддержка.
— Финальный питчинг проектов 19 апреля.
Для участия:
— Подайте заявку до 6 апреля на сайте Хакатона.
— Можно прийти с командой или найти её в чате участников (доступен для участников, заявки которых прошли модерацию).
— Обязательное условие - наличие врача в команде.
Победители получат призы и возможность развивать свои решения совместно с партнёрскими медицинскими и технологическими организациями.
@aspectum_tech
⚡9❤7👏5
Прикиньте стойку в эндокринологии. Вы сделали два снимка глазного дна и через минуту распечатка, типа «ретинопатии не выявлено». Пациент в этот момент слышит «глаза обследованы». Клиника в отчёте пишет: «скрининг пройден» и вот в этот момент обычно начинается магия глянца в виде подмены понятий.
Прикол реальности. FDA в De Novo-досье на IDx-DR (первый зарегистрированный фундус с ИИ) прямо предупреждает: система предназначена только для выявления диабетической ретинопатии, не предназначена для поиска сопутствующих заболеваний и на неё нельзя полагаться как на способ обнаружить «любую» болезнь глаз. Отдельно сказано, что она не выполняет скрининг глаукомы, а при ответе «результат не получен» пациента нужно повторно обследовать или направлять к офтальмологу. В документе также отмечено: «результат не получен» может быть связан с катарактой или другими аномалиями. Почувствуйте, как будто где-то тебя тут наеб... У EyeArt то же самое.
Теперь инженерная реальность. В крупнейшей проверке на данных системы здравоохранения ветеранов США семь систем показали заметно разную чувствительность (примерно 51–86%), а вывод авторов простой: перед внедрением нужны проверки на собственных реальных данных. Даже смена девайса сдвигает показатели, так исследование показывает различия по качеству снимков и точности между разными немидриатическими камерами.
Короче, вот три вопроса, которые надо себе задать перед покупкой «универсального ИИ-обследования глаз за один визит»:
🔻 что именно диагностирует алгоритм и что принципиально не ищет;
🔻 есть ли внешняя проверка на вашей популяции и камерах. Вот об этом я часто говорю, что надо собирать у себя в клинике данные тупо хотя бы чтобы на своих данных проверить работу алгоритма, чтобы понять пиздит он или нет;
🔻 как устроен маршрут пациента при «положительном» результате и при «болячки не найдено».
Если вам обещают «модель обновляется и становится умнее», то спросите про мониторинг качества на практике и прозрачность изменений - это прямо заложено в принципах надлежащей практики машинного обучения для медицинских изделий у америкосов, например, а там опыт больше.
Маяк: автономный ИИ-скрининг, это отличный фильтр, но плохой универсальный окулист, не давайте маркетингу расширять назначение прибора, а расширяйте маршрутизацию пациента и дисциплину контроля качества. А еще начните уже собирать свои данные.
#Диабет #ИИ #Демчинский
Прикол реальности. FDA в De Novo-досье на IDx-DR (первый зарегистрированный фундус с ИИ) прямо предупреждает: система предназначена только для выявления диабетической ретинопатии, не предназначена для поиска сопутствующих заболеваний и на неё нельзя полагаться как на способ обнаружить «любую» болезнь глаз. Отдельно сказано, что она не выполняет скрининг глаукомы, а при ответе «результат не получен» пациента нужно повторно обследовать или направлять к офтальмологу. В документе также отмечено: «результат не получен» может быть связан с катарактой или другими аномалиями. Почувствуйте, как будто где-то тебя тут наеб... У EyeArt то же самое.
Теперь инженерная реальность. В крупнейшей проверке на данных системы здравоохранения ветеранов США семь систем показали заметно разную чувствительность (примерно 51–86%), а вывод авторов простой: перед внедрением нужны проверки на собственных реальных данных. Даже смена девайса сдвигает показатели, так исследование показывает различия по качеству снимков и точности между разными немидриатическими камерами.
Короче, вот три вопроса, которые надо себе задать перед покупкой «универсального ИИ-обследования глаз за один визит»:
Если вам обещают «модель обновляется и становится умнее», то спросите про мониторинг качества на практике и прозрачность изменений - это прямо заложено в принципах надлежащей практики машинного обучения для медицинских изделий у америкосов, например, а там опыт больше.
Маяк: автономный ИИ-скрининг, это отличный фильтр, но плохой универсальный окулист, не давайте маркетингу расширять назначение прибора, а расширяйте маршрутизацию пациента и дисциплину контроля качества. А еще начните уже собирать свои данные.
#Диабет #ИИ #Демчинский
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👏8👍4
Тестирую кое-какие новые навыки на примере своей диссертации, что думаете?
http://aspectum.tech/testing
http://aspectum.tech/testing
❤10🔥10👍8🤪1
Сейчас будет жесткий футуризм. Кто-то антивозрастные штуки придумывает, а тут про то, как проснуться через 300 лет.
Представьте, что мозг надо сохранить как хрупкий фарфор, но только в масштабе миллиардов связей. Лёд тут в обычном варианте все испортит, поэтому витрификация это как попытка заморозить стеклом - без кристаллов.
В препринте показали как целый мозг кролика после перфузии раствором M22 можно охладить и разогреть так, чтобы на микроскопии не было признаков повреждений льдом, но цена видна сразу: сильная осмотическая усадка, которая искажает нейроанатомию. Авторы прямо считают порядок этой цены: точка плавления M22 около минус 55°C, что соответствует примерно 29.6 osmolal (че это вообще), то есть порядка ста раз концентрированнее плазмы или ликвора, а барьер кровь-мозг быстрее выпускает воду, чем впускает криопротекторы.
Кусок про человека. Биоптаты коры после перфузии M22, охлаждения и разогрева не показывают льда даже в тесте, где нуклеацию льда специально провоцируют, а частичное разведение M22 возвращает пирамидным нейронам более нормальную форму. При этом в методах описано, что перфузия в одном случае завершалась примерно через 6 часов 16 минут после юридической смерти, а потом корковые биопсии сразу уходили в жидкий азот. Вот так.
Глянец тут появляется, когда структурную сохранность продают как сохранность личности. Но дорожная карта Biostasis отдельно подчёркивает разрыв между красивой морфологией и доказанной обратимостью функций у человека
Представьте, что мозг надо сохранить как хрупкий фарфор, но только в масштабе миллиардов связей. Лёд тут в обычном варианте все испортит, поэтому витрификация это как попытка заморозить стеклом - без кристаллов.
В препринте показали как целый мозг кролика после перфузии раствором M22 можно охладить и разогреть так, чтобы на микроскопии не было признаков повреждений льдом, но цена видна сразу: сильная осмотическая усадка, которая искажает нейроанатомию. Авторы прямо считают порядок этой цены: точка плавления M22 около минус 55°C, что соответствует примерно 29.6 osmolal (че это вообще), то есть порядка ста раз концентрированнее плазмы или ликвора, а барьер кровь-мозг быстрее выпускает воду, чем впускает криопротекторы.
Кусок про человека. Биоптаты коры после перфузии M22, охлаждения и разогрева не показывают льда даже в тесте, где нуклеацию льда специально провоцируют, а частичное разведение M22 возвращает пирамидным нейронам более нормальную форму. При этом в методах описано, что перфузия в одном случае завершалась примерно через 6 часов 16 минут после юридической смерти, а потом корковые биопсии сразу уходили в жидкий азот. Вот так.
Глянец тут появляется, когда структурную сохранность продают как сохранность личности. Но дорожная карта Biostasis отдельно подчёркивает разрыв между красивой морфологией и доказанной обратимостью функций у человека
🔥15❤8❤🔥6🤨2
Вы знаете я люблю технологии и движуху стартаперскую, поэтому делюсь информацией о старте нового потока сеченовского акселератора.
Это хорошее место, поверьте, поэтому если у кого есть идеи что-то разрабатывать и внедрять, то прыгайте🤓
https://t.me/SechenovAcceleration/867
Это хорошее место, поверьте, поэтому если у кого есть идеи что-то разрабатывать и внедрять, то прыгайте
https://t.me/SechenovAcceleration/867
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
SechenovTech / EcoSystem
Сеченовский университет открыл набор в 9 сезон акселератора SechenovTech
Первый МГМУ им. И. М. Сеченова объявляет старт набора в 9 сезон акселерационной программы SechenovTech — единственного в России сетевого акселератора для биомедицинских технологических…
Первый МГМУ им. И. М. Сеченова объявляет старт набора в 9 сезон акселерационной программы SechenovTech — единственного в России сетевого акселератора для биомедицинских технологических…
🔥12❤4🤓2🦄1
Короче разъеб, я чувствую если эту статью кто-то подхватит, то...
Рассказываю. Самое опасное в медицине, это ошибка с убедительным тоном. Языковая модель умеет звучать уверенно даже тогда, когда она ошибается - это та правда, которую просто надо иметь в виду. Поэтому исследования про вред надо читать как протокол вскрытия, а не как приговор.
В Nature Medicine вышло рандомизированное исследование, в котором 1298 взрослых британских докторов решали 10 клинических сценариев и выбирали, что делать дальше. Три группы общались с GPT 4o, Llama 3 или Command R+. В варианте с Command R+ был подключён поиск к интернету, а контроль мог пользоваться любыми источниками, чаще всего сайтом NHS и обычным поиском. В одиночку модели почти всегда называли уместное состояние в 94,9% случаев и в 56,3% давали правильное решение по маршрутизации. Но люди с теми же моделями называли уместные причины меньше 34,5%, а правильную маршрутизацию - меньше 44,2%, то есть не лучше контроля.
На деле же это удар по связке "пользователь + форма общения + модель". Люди задают закрытые вопросы, приносят неполную картину, а система иногда путает контекст и выдаёт непоследовательные советы. Авторы признают, что данные собраны в августе и октябре 2024 года, а новые и более специальные версии могут быть сильнее, но это ещё не гарантирует, что исчезнет провал именно во взаимодействии человека с системой.
При этом есть и обратные результаты. В этом исследовании, например, на практикующих врачах с GPT 4 улучшал клиническое рассуждение по ведению клинического случая по сравнению с "только с источниками".
Маяк: перестаньте спорить какая модель умнее. Спросите умеет ли врач вообще пользоваться языковой моделью. Он строит запрос как клинический протокол, с контекстом, ограничениями, красными флагами, целью ответа и форматом проверки, или он тупо гуглит и ждёт волшебной справки? Пока мы не измеряем навык постановки запроса, не задаём рамки риска и не требуем проверку на реальных пользователях с ответственностью за неверную маршрутизацию, любая умная система останется скальпелем без анатомии: инструмент острый, а резать будет куда придётся.
#llm #ИИ #Демчинский
Рассказываю. Самое опасное в медицине, это ошибка с убедительным тоном. Языковая модель умеет звучать уверенно даже тогда, когда она ошибается - это та правда, которую просто надо иметь в виду. Поэтому исследования про вред надо читать как протокол вскрытия, а не как приговор.
В Nature Medicine вышло рандомизированное исследование, в котором 1298 взрослых британских докторов решали 10 клинических сценариев и выбирали, что делать дальше. Три группы общались с GPT 4o, Llama 3 или Command R+. В варианте с Command R+ был подключён поиск к интернету, а контроль мог пользоваться любыми источниками, чаще всего сайтом NHS и обычным поиском. В одиночку модели почти всегда называли уместное состояние в 94,9% случаев и в 56,3% давали правильное решение по маршрутизации. Но люди с теми же моделями называли уместные причины меньше 34,5%, а правильную маршрутизацию - меньше 44,2%, то есть не лучше контроля.
Наивное чтение такое: значит модели бесполезны.
На деле же это удар по связке "пользователь + форма общения + модель". Люди задают закрытые вопросы, приносят неполную картину, а система иногда путает контекст и выдаёт непоследовательные советы. Авторы признают, что данные собраны в августе и октябре 2024 года, а новые и более специальные версии могут быть сильнее, но это ещё не гарантирует, что исчезнет провал именно во взаимодействии человека с системой.
При этом есть и обратные результаты. В этом исследовании, например, на практикующих врачах с GPT 4 улучшал клиническое рассуждение по ведению клинического случая по сравнению с "только с источниками".
Маяк: перестаньте спорить какая модель умнее. Спросите умеет ли врач вообще пользоваться языковой моделью. Он строит запрос как клинический протокол, с контекстом, ограничениями, красными флагами, целью ответа и форматом проверки, или он тупо гуглит и ждёт волшебной справки? Пока мы не измеряем навык постановки запроса, не задаём рамки риска и не требуем проверку на реальных пользователях с ответственностью за неверную маршрутизацию, любая умная система останется скальпелем без анатомии: инструмент острый, а резать будет куда придётся.
#llm #ИИ #Демчинский
1❤20👍8💯7🤝1
День ИИ у меня получается, но надо, потому что и интересно и серьезно одновременно. Может сделать неделю ИИ?
Мы привыкли к ИИ как к "умному поиску", типа спросил - получил текст, иногда с фантазией. Но сейчас разговор с LLM незаметно превращается в поручение: "сделай задачу целиком, сам проверь, сам исправь". И вот это уже не про качество ответов, а про экономику труда для всех, кто живёт за компьютером.
В эссе "Something Big Is Happening" Мэтт Шумер описывает момент, когда ты формулируешь цель, уходишь на пару часов и возвращаешься уже к готовому результату. Не черновику, а к завершённой работе, потому что модель стала агентом и действует в интерфейсе, а не только в жпт чатике. Причем это не художественный приём, потому что вот OpenAI прямо пишет, что GPT-5.3-Codex "переходит от написания кода к работе на компьютере end-to-end", а Anthropic публично объясняет как модели учат "использовать компьютерные среды, как человек".
Классический медицинский ИИ в офтальмологии, это узкая модель, типа для распознать ДР, ВМД, глаукомные признаки на снимке, подсветить подозрительные зоны, выдать риск и все в таком не вау масштабе. Агентный же LLM, это не только узкая модель, но + "руки": он сам собирает снимки, сопоставляет с анамнезом, пишет черновик заключения, формирует письмо пациенту, готовит направление, и (в идеале) не забывает еще приложить ответственность к подписи врача.
Маяк простой: если вы не начнёте перестраивать свои процессы под агента сейчас, позже будет поздно. И не потому что "ИИ заберёт работу", а потому что работу заберут те, кто научился отдавать её агенту быстрее и безопаснее.
#llm #ИИ #Демчинский
Мы привыкли к ИИ как к "умному поиску", типа спросил - получил текст, иногда с фантазией. Но сейчас разговор с LLM незаметно превращается в поручение: "сделай задачу целиком, сам проверь, сам исправь". И вот это уже не про качество ответов, а про экономику труда для всех, кто живёт за компьютером.
В эссе "Something Big Is Happening" Мэтт Шумер описывает момент, когда ты формулируешь цель, уходишь на пару часов и возвращаешься уже к готовому результату. Не черновику, а к завершённой работе, потому что модель стала агентом и действует в интерфейсе, а не только в жпт чатике. Причем это не художественный приём, потому что вот OpenAI прямо пишет, что GPT-5.3-Codex "переходит от написания кода к работе на компьютере end-to-end", а Anthropic публично объясняет как модели учат "использовать компьютерные среды, как человек".
Классический медицинский ИИ в офтальмологии, это узкая модель, типа для распознать ДР, ВМД, глаукомные признаки на снимке, подсветить подозрительные зоны, выдать риск и все в таком не вау масштабе. Агентный же LLM, это не только узкая модель, но + "руки": он сам собирает снимки, сопоставляет с анамнезом, пишет черновик заключения, формирует письмо пациенту, готовит направление, и (в идеале) не забывает еще приложить ответственность к подписи врача.
Маяк простой: если вы не начнёте перестраивать свои процессы под агента сейчас, позже будет поздно. И не потому что "ИИ заберёт работу", а потому что работу заберут те, кто научился отдавать её агенту быстрее и безопаснее.
#llm #ИИ #Демчинский
💯6👍2🐳1🍾1🤓1
Когда линза обещает зум без механики, я первым делом ищу не PSF, а то, что обычно остаётся за кадром: ресурс, стабильность, прозрачность метрик, потому что под капотом всегда есть нюансы.
Из интересного. В терагерцевой плоской оптике прогресс реальный, тут в свежей работе про жидкокристаллическую ахроматическую переменно фокусную металинзу показали переключение фокуса между 10.20 и 13.76 мм с ахроматикой в диапазоне от 1.0 до 1.6 THz и демонстрацией мультиспектральной визуализации. В другом направлении arXiv описывает электрически управляемую многоканальную металинзу с восемью фокусными расстояниями, толщиной порядка 6 мм (ого) и переключением фокуса в диапазоне от 3.6 до 9.6 мм. А в MWIR уже продают «почти объектив», в аннотации заявлены 18 крат непрерывного зума и поле зрения больше 80 градусов при дифракционно ограниченном качестве.
Но вот где начинается глянец. Почти нигде в этих материалах не видно того, что превращает демонстрацию в компонент: сколько образцов, как ведёт себя фокус после тысяч циклов, есть ли дрейф, гистерезис, какова повторяемость на партии. Это то, что видят только те офтальмологи, которые занимаются разработками.
Маяк простой: верить стоит не в идеальную картинку фокуса на картинках, а в паспорт ресурса и воспроизводимость. Как только они появятся, так сразу эта плоская оптика начнёт выходить из жанра демонстраций в жанр нашей любимой ответственности.
Из интересного. В терагерцевой плоской оптике прогресс реальный, тут в свежей работе про жидкокристаллическую ахроматическую переменно фокусную металинзу показали переключение фокуса между 10.20 и 13.76 мм с ахроматикой в диапазоне от 1.0 до 1.6 THz и демонстрацией мультиспектральной визуализации. В другом направлении arXiv описывает электрически управляемую многоканальную металинзу с восемью фокусными расстояниями, толщиной порядка 6 мм (ого) и переключением фокуса в диапазоне от 3.6 до 9.6 мм. А в MWIR уже продают «почти объектив», в аннотации заявлены 18 крат непрерывного зума и поле зрения больше 80 градусов при дифракционно ограниченном качестве.
Но вот где начинается глянец. Почти нигде в этих материалах не видно того, что превращает демонстрацию в компонент: сколько образцов, как ведёт себя фокус после тысяч циклов, есть ли дрейф, гистерезис, какова повторяемость на партии. Это то, что видят только те офтальмологи, которые занимаются разработками.
Маяк простой: верить стоит не в идеальную картинку фокуса на картинках, а в паспорт ресурса и воспроизводимость. Как только они появятся, так сразу эта плоская оптика начнёт выходить из жанра демонстраций в жанр нашей любимой ответственности.
👍8⚡3❤3
Ещё одна модель, которая обещает увидеть в глазу больше, чем видит врач, а лучше сразу и предсказать будущее. Удобно верить, что теперь достаточно загрузить объёмную ОКТ и получить диагноз, прогноз и смысл жизни в одном отчёте.
Сежая тема. OCTCube-M это 3D-мультимодальная foundation-модель: сначала 3D-предобучение на 26 685 ОКТ-объёмах (1.62 млн 2D-срезов), затем контрастное связывание ОКТ с IR/FAF/en face через COEP, чтобы разные модальности «сходились» в одном латентном пространстве. Сильное место в заявке не цифры и не громкое слово «foundation», а попытка доказать переносимость.
Но вот где обычно заканчивается презентация и начинается реальность. Переносимость между приборами и протоколами остаётся одной из самых больных тем для OCT, даже в более простых задачах вроде сегментации, потому что разные устройства и настройки меняют распределение данных. Поэтому вопрос к OCTCube-M практический, а не философский: как она ведёт себя на вашем конкретном сканере OCT и вашей популяции, особенно вне условий клинических испытаний, где контроль ниже.
Для разработчиков есть открытый репозиторий с примерами и весами, но часть вещей для объяснимости пока не доведена, например раздел про карты важности отмечен как планируемый к выпуску.
Маяк простой. Следите не за красивыми метриками, а за тем, появляется ли у таких моделей привычка честно показывать границы уверенности на «грязном» реальном потоке, и улучшаться от этого, а не от презентаций.
#ОКТ #ИИ #Демчинский
Сежая тема. OCTCube-M это 3D-мультимодальная foundation-модель: сначала 3D-предобучение на 26 685 ОКТ-объёмах (1.62 млн 2D-срезов), затем контрастное связывание ОКТ с IR/FAF/en face через COEP, чтобы разные модальности «сходились» в одном латентном пространстве. Сильное место в заявке не цифры и не громкое слово «foundation», а попытка доказать переносимость.
Но вот где обычно заканчивается презентация и начинается реальность. Переносимость между приборами и протоколами остаётся одной из самых больных тем для OCT, даже в более простых задачах вроде сегментации, потому что разные устройства и настройки меняют распределение данных. Поэтому вопрос к OCTCube-M практический, а не философский: как она ведёт себя на вашем конкретном сканере OCT и вашей популяции, особенно вне условий клинических испытаний, где контроль ниже.
Для разработчиков есть открытый репозиторий с примерами и весами, но часть вещей для объяснимости пока не доведена, например раздел про карты важности отмечен как планируемый к выпуску.
Маяк простой. Следите не за красивыми метриками, а за тем, появляется ли у таких моделей привычка честно показывать границы уверенности на «грязном» реальном потоке, и улучшаться от этого, а не от презентаций.
#ОКТ #ИИ #Демчинский
❤14👍9🔥8
Автономная офтальмохирургия: следующий шаг после «тремор-режима»
Интраокулярная микроманипуляция упирается в две вечные вещи: ограниченное «понимание сцены» и глубину (на сколько микрон вы реально вошли). Цена ошибки разрыв, кровотечение, отслойка и еще что-нибудь. Поэтому автономная интраокулярная хирургия интересна не как шоу, а как попытка купить повторяемость и безопасность. Появилась работа, в которой авторы прямо заявляют ставку на более стабильный результат, сокращение обучения и потенциал для работы там, где человеческих рук не хватает.
Это китайцы. Команда описывает систему ARISE, автономного железного микрохирурга, который совмещает в себе макронаведение инструмента в глазу и микропозиционирование иглы у цели. Самый концентрат результата звучит почти буднично: «positioning errors were reduced by 79.87% and 54.61%» - по сравнению с ручной и телеманипулируемой роботической хирургией соответственно. Неприятно для самолюбия, но полезно для пациента, лол.
ARISE выполнял субретинальные инъекции и инъекции в центральную вену на фантомах, ex vivo свиных глаз и in vivo на животных. В ex vivo авторы заявляют 100% успеха для субретинальных (n=20), CRV (n=20) и BRV (n=20) инъекций, и в in vivo тоже 100% успеха (по n=16 в каждой группе). Если коротко, то игла приходит туда, куда её попросили, и делает это одинаково много раз подряд без «сегодня рука так, а завтра - сяк».
Пока это доклиническая демонстрация. До клиники нужно доказать безопасность на вариабельной анатомии, встроить систему в операционную и пройти регуляторный путь для автономного режима.
Работа важна не тем, что «робот сделал укол», а тем, что автономная витреоретинальная микроманипуляция собирается из проверяемых модулей, типа восприятие, калибровка, контроль траектории, критерии остановки. И главный вопрос тут теперь не «может ли робот», а «какую цену ошибки мы готовы принять и как её измеряем». Почему так? потому что в глазной хирургии иллюзии заканчиваются быстро - на сетчатке.
Вывод такой, что ARISE можно рассматривать как сигнал, что автономность подбирается к самым деликатным задачам в офтальмологии и если точность удастся перевести в клинику со всеми стоп-словами (правилами), то тогда мы получим не замену хирургу, а новый стандарт воспроизводимости.
#ИИ #Робот #Сетчатка #Наука #Демчинский
Интраокулярная микроманипуляция упирается в две вечные вещи: ограниченное «понимание сцены» и глубину (на сколько микрон вы реально вошли). Цена ошибки разрыв, кровотечение, отслойка и еще что-нибудь. Поэтому автономная интраокулярная хирургия интересна не как шоу, а как попытка купить повторяемость и безопасность. Появилась работа, в которой авторы прямо заявляют ставку на более стабильный результат, сокращение обучения и потенциал для работы там, где человеческих рук не хватает.
Это китайцы. Команда описывает систему ARISE, автономного железного микрохирурга, который совмещает в себе макронаведение инструмента в глазу и микропозиционирование иглы у цели. Самый концентрат результата звучит почти буднично: «positioning errors were reduced by 79.87% and 54.61%» - по сравнению с ручной и телеманипулируемой роботической хирургией соответственно. Неприятно для самолюбия, но полезно для пациента, лол.
ARISE выполнял субретинальные инъекции и инъекции в центральную вену на фантомах, ex vivo свиных глаз и in vivo на животных. В ex vivo авторы заявляют 100% успеха для субретинальных (n=20), CRV (n=20) и BRV (n=20) инъекций, и в in vivo тоже 100% успеха (по n=16 в каждой группе). Если коротко, то игла приходит туда, куда её попросили, и делает это одинаково много раз подряд без «сегодня рука так, а завтра - сяк».
Пока это доклиническая демонстрация. До клиники нужно доказать безопасность на вариабельной анатомии, встроить систему в операционную и пройти регуляторный путь для автономного режима.
Работа важна не тем, что «робот сделал укол», а тем, что автономная витреоретинальная микроманипуляция собирается из проверяемых модулей, типа восприятие, калибровка, контроль траектории, критерии остановки. И главный вопрос тут теперь не «может ли робот», а «какую цену ошибки мы готовы принять и как её измеряем». Почему так? потому что в глазной хирургии иллюзии заканчиваются быстро - на сетчатке.
Вывод такой, что ARISE можно рассматривать как сигнал, что автономность подбирается к самым деликатным задачам в офтальмологии и если точность удастся перевести в клинику со всеми стоп-словами (правилами), то тогда мы получим не замену хирургу, а новый стандарт воспроизводимости.
#ИИ #Робот #Сетчатка #Наука #Демчинский
👍10🔥7❤1👀1
Немного офтальмологических генераций, раз уж праздничек
🔥25❤🔥8❤6⚡3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🤷♀5🤔4👾3🤓2
Прикинь, миопия это не «слишком много экранов», а слишком мало света в тот момент, когда глаз изо всех сил пытается навести резкость. Тогда виноват не смартфон, а сценарий.
SUNY Optometry: миопия может ускоряться из-за длительной «ближней работы» в помещении при низкой освещенности, когда зрачок сужается не от яркости, а от аккомодации, и до сетчатки доходит меньше света. В работе показывали не «почему растёт миопия», а физиологию: у 34 взрослых (22-31 год) измеряли конвергенцию и размер зрачка при наведении фокуса на цель через -5 D дефокус. Авторы честно пишут о своих минусах, типа мало испытуемых и нет прямого измерения аккомодации (класс); а механизм «меньше света на сетчатке, когда ретинальная активность слабее - глаз растёт в длину» остаётся гипотезой.
Глянец начинается там, где гипотезу продают как приговор. Пока причинность не доказана: физиология «зрачок как диафрагма камеры» не равна прогрессии миопии у детей. Но она неплохо стыкуется с тем, что уже известно: близкая работа статистически связана с миопией (мета-анализ 78 исследований), время на улице ассоциировано с меньшей распространённостью, да и в обзоре IMI это подчёркивается как защитный фактор.
Маяк для не докторов и некоторых докторов: если ты ищешь «одного злодея», то будешь воевать со стеклом экрана, а если ищешь управляемые причины, то смотри на свет и на режим ближней нагрузки - там возможно и скрыта цена комфорта.
Про теорию саму - вроде как было про такое, да, но тут немного под другим углом и как будто бы ближе к механизму, хотя хочется еще докрутить до нормального уровня, да хотя бы с аккомадографом для объективности и людей побольше действительно.
#миопия #теория #Демчинский
SUNY Optometry: миопия может ускоряться из-за длительной «ближней работы» в помещении при низкой освещенности, когда зрачок сужается не от яркости, а от аккомодации, и до сетчатки доходит меньше света. В работе показывали не «почему растёт миопия», а физиологию: у 34 взрослых (22-31 год) измеряли конвергенцию и размер зрачка при наведении фокуса на цель через -5 D дефокус. Авторы честно пишут о своих минусах, типа мало испытуемых и нет прямого измерения аккомодации (класс); а механизм «меньше света на сетчатке, когда ретинальная активность слабее - глаз растёт в длину» остаётся гипотезой.
Глянец начинается там, где гипотезу продают как приговор. Пока причинность не доказана: физиология «зрачок как диафрагма камеры» не равна прогрессии миопии у детей. Но она неплохо стыкуется с тем, что уже известно: близкая работа статистически связана с миопией (мета-анализ 78 исследований), время на улице ассоциировано с меньшей распространённостью, да и в обзоре IMI это подчёркивается как защитный фактор.
Маяк для не докторов и некоторых докторов: если ты ищешь «одного злодея», то будешь воевать со стеклом экрана, а если ищешь управляемые причины, то смотри на свет и на режим ближней нагрузки - там возможно и скрыта цена комфорта.
Про теорию саму - вроде как было про такое, да, но тут немного под другим углом и как будто бы ближе к механизму, хотя хочется еще докрутить до нормального уровня, да хотя бы с аккомадографом для объективности и людей побольше действительно.
#миопия #теория #Демчинский
👍14❤9🐳4🤓3👨💻1
ChatGPT пропускает половину экстренных случаев!
Заголовок, который продает адреналин и на который, конечно же, сразу клюют доктора, потому что ИИ вдруг так элементарно стал удобно тупым. Но не все так просто.
В абстракте публикации Nature Medicine по сути заявляется, что LLM даёт неровную точность триажа, и на "краях" (остаться дома против немедленной госпитализации) возможны систематические промахи. Это звучит как готовая сенсация и многие, конечно же, цепляются именно за эту фразу с вкусными процентами, потому что удобно, быстро и цитируемо. Проблема в том, что полная методология по основной ссылке закрыта, поэтому предлагаю сделать скучную, но взрослую вещь: зайти не в заголовок, а под капот через официальные приложения издателя.
Дополнительная информация, в которой виден каркас дизайна: 60 клинических виньеток, 16 условий, всего 960 прогонов, фиксированные правила выбора A/B/C/D и критичная для интерпретации деталь - тестирование происходило 9–11 января 2026, то есть вопрос “какая именно версия модели использовалась" не риторический, а методологический. Почему? Да потому что 11 числа автоматически стала использоваться современная модель 5.2, а до этого была предыдущая - 5.1 и уже тут появляется грубое нарушение в сравнении.
Есть еще файл ревью, в котором авторы дают ссылку на гитхаб с воспроизводящими файлами рукописи.
А теперь где может прятаться желтизна даже при честных авторах. Во-первых, используется один шаблон промпта без анализа чувствительности, в итоге результат легко становится свойством формулировки, а не качества LLM. Во-вторых, структура кейсов: громкий процент может держаться на узком наборе сценариев (в рецензиях это обычно и разбирают и здесь это как раз тот документ, который стоит читать). В-третьих, принудительный дискретный выход (A/B/C/D без уточняющих вопросов) - это валидный стресс-тест интерфейса, но слабая модель реального взаимодействия врача с инструментом.
Короче маяк простой: если мы хотим спорить не эмоциями, а ответственностью, то спор надо вести по воспроизводимым данным и там станет видно, это проблема “LLM как такового” или проблема “как люди (в том числе врачи) им пользуются” (через одно место).
#LLM #ИИ #Демчинский
Заголовок, который продает адреналин и на который, конечно же, сразу клюют доктора, потому что ИИ вдруг так элементарно стал удобно тупым. Но не все так просто.
В абстракте публикации Nature Medicine по сути заявляется, что LLM даёт неровную точность триажа, и на "краях" (остаться дома против немедленной госпитализации) возможны систематические промахи. Это звучит как готовая сенсация и многие, конечно же, цепляются именно за эту фразу с вкусными процентами, потому что удобно, быстро и цитируемо. Проблема в том, что полная методология по основной ссылке закрыта, поэтому предлагаю сделать скучную, но взрослую вещь: зайти не в заголовок, а под капот через официальные приложения издателя.
Дополнительная информация, в которой виден каркас дизайна: 60 клинических виньеток, 16 условий, всего 960 прогонов, фиксированные правила выбора A/B/C/D и критичная для интерпретации деталь - тестирование происходило 9–11 января 2026, то есть вопрос “какая именно версия модели использовалась" не риторический, а методологический. Почему? Да потому что 11 числа автоматически стала использоваться современная модель 5.2, а до этого была предыдущая - 5.1 и уже тут появляется грубое нарушение в сравнении.
Есть еще файл ревью, в котором авторы дают ссылку на гитхаб с воспроизводящими файлами рукописи.
А теперь где может прятаться желтизна даже при честных авторах. Во-первых, используется один шаблон промпта без анализа чувствительности, в итоге результат легко становится свойством формулировки, а не качества LLM. Во-вторых, структура кейсов: громкий процент может держаться на узком наборе сценариев (в рецензиях это обычно и разбирают и здесь это как раз тот документ, который стоит читать). В-третьих, принудительный дискретный выход (A/B/C/D без уточняющих вопросов) - это валидный стресс-тест интерфейса, но слабая модель реального взаимодействия врача с инструментом.
Короче маяк простой: если мы хотим спорить не эмоциями, а ответственностью, то спор надо вести по воспроизводимым данным и там станет видно, это проблема “LLM как такового” или проблема “как люди (в том числе врачи) им пользуются” (через одно место).
#LLM #ИИ #Демчинский
❤9🔥4💯3🏆2
Инженерный путь нейроимпланта: от компьютерной модели до пациента
https://engineer.yadro.com/article/kak-razrabativayut-neiroimplanti-dlya-zreniya/
https://engineer.yadro.com/article/kak-razrabativayut-neiroimplanti-dlya-zreniya/
1🔥11🍾4👍3❤1