У каждого препарата может быть второй шанс: ИИ ищет незамеченные показания для 4000 лекарств
Вы знаете, что виагру изначально разрабатывали от стенокардии, миноксидил - от язвы желудка, а Ozempic - как лекарство от диабета. А то, как в итоге мы применяем эти препараты - это случайные побочные эффекты (ну ладно, для оземпик - не очень случайные).
Every Cure строит систему, которая ищет такие побочные эффекты намеренно, причем сразу по всем препаратам и их возможным сочетаниям.
Логика простая: вот есть 4000 одобренных препаратов с известными механизмами действия. Многие болезни "делят" общие биологические мишени. Значит, препарат от болезни А может работать при болезни Б - просто никто системно не проверял.
Платформа MATRIX оценивает 75 миллионов пар "препарат-болезнь" за 17 часов (раньше это занимало чуть больше 100 дней). Модель строится на графе знаний из 100+ биомедицинских датасетов плюс реальных медицинских данных: рецептов и историй болезней.
Почему это не сделали раньше сами производители?
Перепрофилировать дженерик для редкой болезни невыгодно: испытания дорогие, патента уже нет. А Every Cure - некоммерческая организация, без обязательств перед акционерами. Зато, если удастся обнаружить интересные варианты, это может быть вполне успешным проектом.
По данным CNBC, уже запущено больше 8 активных программ. Среди находок - адалимумаб (Humira) как потенциальное лечение болезни Кастлемана (это редкое иммунное заболевание, и единственный имеющийся препарат помогает лишь части пациентов).
Важно, что большинство находок не требует новых испытаний - доказательная база уже есть, нужно будет только обновить клинические рекомендации.
Финансирование - более $100 млн. И в конце года обещают опубликовать публичную базу предсказаний. Сама методология MATRIX закрыта, внешней валидации в рецензируемых журналах нет. Поэтому если базу откроют, это реальный инструмент для клиницистов.
Компания заявляет, что хочет к 2030 году валидировать 25 новых программ лечения. По меркам бигфармы это более чем скромно, но если будут найдены интересные сочетания, особенно для лечения редких болезней, это приведет к улучшению качества жизни большого количества людей.
#drug_repurposing #редкие_болезни #ИИ_в_фарме #орфанные_заболевания
👉 Подписаться на ИИ в медицине
Вы знаете, что виагру изначально разрабатывали от стенокардии, миноксидил - от язвы желудка, а Ozempic - как лекарство от диабета. А то, как в итоге мы применяем эти препараты - это случайные побочные эффекты (ну ладно, для оземпик - не очень случайные).
Every Cure строит систему, которая ищет такие побочные эффекты намеренно, причем сразу по всем препаратам и их возможным сочетаниям.
Логика простая: вот есть 4000 одобренных препаратов с известными механизмами действия. Многие болезни "делят" общие биологические мишени. Значит, препарат от болезни А может работать при болезни Б - просто никто системно не проверял.
Платформа MATRIX оценивает 75 миллионов пар "препарат-болезнь" за 17 часов (раньше это занимало чуть больше 100 дней). Модель строится на графе знаний из 100+ биомедицинских датасетов плюс реальных медицинских данных: рецептов и историй болезней.
Почему это не сделали раньше сами производители?
Перепрофилировать дженерик для редкой болезни невыгодно: испытания дорогие, патента уже нет. А Every Cure - некоммерческая организация, без обязательств перед акционерами. Зато, если удастся обнаружить интересные варианты, это может быть вполне успешным проектом.
По данным CNBC, уже запущено больше 8 активных программ. Среди находок - адалимумаб (Humira) как потенциальное лечение болезни Кастлемана (это редкое иммунное заболевание, и единственный имеющийся препарат помогает лишь части пациентов).
Важно, что большинство находок не требует новых испытаний - доказательная база уже есть, нужно будет только обновить клинические рекомендации.
Финансирование - более $100 млн. И в конце года обещают опубликовать публичную базу предсказаний. Сама методология MATRIX закрыта, внешней валидации в рецензируемых журналах нет. Поэтому если базу откроют, это реальный инструмент для клиницистов.
Компания заявляет, что хочет к 2030 году валидировать 25 новых программ лечения. По меркам бигфармы это более чем скромно, но если будут найдены интересные сочетания, особенно для лечения редких болезней, это приведет к улучшению качества жизни большого количества людей.
#drug_repurposing #редкие_болезни #ИИ_в_фарме #орфанные_заболевания
👉 Подписаться на ИИ в медицине
everycure.org
Every Cure – Unlocking the hidden potential of existing drugs to save lives
🔥6❤4👍1
Половина ответов ИИ на медицинские вопросы некорректна, а 20% - опасны для здоровья
Половина ответов популярных ИИ-чат-ботов на медицинские вопросы оказалась полностью или частично неверной - к такому выводу пришли исследователи из UCLA и Университета Альберты.
Команда протестировала пять самых популярных чат-ботов - Gemini (Google), DeepSeek, Meta AI, ChatGPT (OpenAI) и Grok (xAI) - задав каждому 50 вопросов о раке, вакцинах, стволовых клетках, питании и спортивной медицине. Именно в этих темах дезинформация особенно распространена и опасна.
Итог: 30% ответов - частично некорректны, ещё 20% - потенциально опасны. То есть человек, который следует такому совету без консультации врача, рискует выбрать бесполезное или вредное лечение.
Хуже всех выступил Grok: 58% проблематичных ответов против 40% у Gemini, который оказался наиболее аккуратным. Причина, вероятно, в том, что Grok частично обучен на контенте X (бывший Twitter) - платформы, и брал непроверенные сообщения пользователей за истину.
Все боты стабильно проваливались на вопросах о питании и БАДах, но неплохо справлялись с вакцинами и онкологией - там в открытом доступе больше качественных научных данных для обучения.
Два дополнительных провала делают картину ещё тревожнее. Первый - фиктивные источники: медианный показатель полноты цитирования составил 40%, и ни один чат-бот не выдал ни одного полностью корректного списка источников. Часть ссылок вела в никуда, часть была просто выдумана - те самые галлюцинации ИИ.
Второй - отсутствие самоцензуры: из 250 вопросов боты отказались отвечать лишь дважды (оба раза Meta AI), на вопросы про анаболики и альтернативное лечение рака.
В остальных 248 случаях следовал уверенный ответ (хотя такого пациента надо направить к врачу).
И в этом главная проблема - ответ выглядит компетентным и уверенным, и пользователь верит ему.
В клинических системах эту проблему частично решают дообучением на верифицированных гайдлайнах и обязательным контролем врача. Но встревоженный пациент в ночи идет обычно спрашивать бесплатный условный GPT, поэтому врачи бьют тревогу.
#ИИвмедицине #медицинскийИИ #дезинформация #LLM #безопасностьпациентов
👉 Подписаться на ИИ в медицине
Половина ответов популярных ИИ-чат-ботов на медицинские вопросы оказалась полностью или частично неверной - к такому выводу пришли исследователи из UCLA и Университета Альберты.
Команда протестировала пять самых популярных чат-ботов - Gemini (Google), DeepSeek, Meta AI, ChatGPT (OpenAI) и Grok (xAI) - задав каждому 50 вопросов о раке, вакцинах, стволовых клетках, питании и спортивной медицине. Именно в этих темах дезинформация особенно распространена и опасна.
Итог: 30% ответов - частично некорректны, ещё 20% - потенциально опасны. То есть человек, который следует такому совету без консультации врача, рискует выбрать бесполезное или вредное лечение.
Хуже всех выступил Grok: 58% проблематичных ответов против 40% у Gemini, который оказался наиболее аккуратным. Причина, вероятно, в том, что Grok частично обучен на контенте X (бывший Twitter) - платформы, и брал непроверенные сообщения пользователей за истину.
Все боты стабильно проваливались на вопросах о питании и БАДах, но неплохо справлялись с вакцинами и онкологией - там в открытом доступе больше качественных научных данных для обучения.
Два дополнительных провала делают картину ещё тревожнее. Первый - фиктивные источники: медианный показатель полноты цитирования составил 40%, и ни один чат-бот не выдал ни одного полностью корректного списка источников. Часть ссылок вела в никуда, часть была просто выдумана - те самые галлюцинации ИИ.
Второй - отсутствие самоцензуры: из 250 вопросов боты отказались отвечать лишь дважды (оба раза Meta AI), на вопросы про анаболики и альтернативное лечение рака.
В остальных 248 случаях следовал уверенный ответ (хотя такого пациента надо направить к врачу).
И в этом главная проблема - ответ выглядит компетентным и уверенным, и пользователь верит ему.
В клинических системах эту проблему частично решают дообучением на верифицированных гайдлайнах и обязательным контролем врача. Но встревоженный пациент в ночи идет обычно спрашивать бесплатный условный GPT, поэтому врачи бьют тревогу.
#ИИвмедицине #медицинскийИИ #дезинформация #LLM #безопасностьпациентов
👉 Подписаться на ИИ в медицине
Telegram
ИИ в медицине
Новости и практическое руководство по применению ИИ в обычной работе врача.
Наша цель - руководить ИИ, а не подчиняться.
Автор и вдохновитель канала: @SmartMedAI
Мы в ФБ https://www.facebook.com/MISMedAI/
Наша цель - руководить ИИ, а не подчиняться.
Автор и вдохновитель канала: @SmartMedAI
Мы в ФБ https://www.facebook.com/MISMedAI/
👍7🤯1😱1
OpenAI открыла врачам (пока только американским) бесплатный клинический ChatGPT
OpenAI запустила ChatGPT for Clinicians - отдельный продуктовый бесплатный контур для американских верифицированных клиницистов.
Чтобы понять, почему это важно, нужно разобраться, есть ли в сервисе что-то новое.
Напомним, что до этого у OpenAI было два медицинских продукта: ChatGPT Health для пациентов и ChatGPT for Healthcare - корпоративный контур для организаций с централизованным управлением и HIPAA-моделью развертывания.
Среди ранних корпоративных пользователей - Boston Children's Hospital, Cedars-Sinai, Stanford Medicine, Memorial Sloan Kettering и ряд других крупных клиник.
ChatGPT for Clinicians закрывает третий сценарий: когда пользователем является отдельный врач, который хочет использовать ИИ независимо от своего работодателя. Верификация - через NPI (National Provider Identifier, государственный идентификатор медицинского специалиста в США). Доступ открыт для врачей (MD/DO), медсестёр (NP), помощников врача (PA), психологов и других лицензированных специалистов. Зарегистрироваться можно тут.
Доступны пользователям те же возможности, что уже есть в корпоративном варианте. Там включен доступ к GPT-5.4 с повышенными лимитами; поиск по миллионам рецензируемых источников с цитатами - журнал, авторы, дата; глубокий литературный обзор; настраиваемые навыки (skills) для повторяющихся задач - направления к специалистам, заявки на предварительное согласование (prior authorization), инструкции для пациентов.
Есть интересная функция - автоматическое начисление баллов непрерывного медицинского образования (CME) за разбор клинических случаев прямо в платформе.
Важно - работать с данными, откуда удалены персданные пациентов. Если нужно - поддержка HIPAA доступна через соглашение о деловом партнёре (BAA). И важно, что данные, которые вводят врачи, не используются для обучения моделей.
Ну и главное (как и в корпоративном варианте) - модель работает на проверенных источниках и почти не врет.
Перед запуском врачи-советники протестировали 6 924 диалога. 99,6% ответов оценили как безопасные и точные.
На открытом бенчмарк HealthBench Professional GPT-5.4 в режиме ChatGPT for Clinicians набрал 59,0 балла (это лучше, чем другие ИИ-участники и лучше, чем живые врачи, у которых к тому же был доступ в интернет(.
Если вы не американский врач, то ChatGPT for Clinicians вам не будет доступен - он привязан к NPI и без этого не пройти верификацию. OpenAI планирует пилот для клиницистов вне США (через Better Evidence Network).
Но есть две рабочие альтернативы. Первая - ChatGPT Health (но тут тоже есть ограничение по регионам) или OpenEvidence - там уже реализован процесс клинической поддержки на основе рецензируемой литературы, и использование для врачей бесплатно.
А, и главный вопрос - зачем OpenAI это делает? Мы предполагаем, что цель тут - выработать привычку использовать ИИ, чтобы потом сделать сервис более продвинутым и платным.
#ChatGPTforClinicians #OpenAIHealth #МедицинскийИИ #HealthcareAI
👉 Подписаться на ИИ в медицине
OpenAI запустила ChatGPT for Clinicians - отдельный продуктовый бесплатный контур для американских верифицированных клиницистов.
Чтобы понять, почему это важно, нужно разобраться, есть ли в сервисе что-то новое.
Напомним, что до этого у OpenAI было два медицинских продукта: ChatGPT Health для пациентов и ChatGPT for Healthcare - корпоративный контур для организаций с централизованным управлением и HIPAA-моделью развертывания.
Среди ранних корпоративных пользователей - Boston Children's Hospital, Cedars-Sinai, Stanford Medicine, Memorial Sloan Kettering и ряд других крупных клиник.
ChatGPT for Clinicians закрывает третий сценарий: когда пользователем является отдельный врач, который хочет использовать ИИ независимо от своего работодателя. Верификация - через NPI (National Provider Identifier, государственный идентификатор медицинского специалиста в США). Доступ открыт для врачей (MD/DO), медсестёр (NP), помощников врача (PA), психологов и других лицензированных специалистов. Зарегистрироваться можно тут.
Доступны пользователям те же возможности, что уже есть в корпоративном варианте. Там включен доступ к GPT-5.4 с повышенными лимитами; поиск по миллионам рецензируемых источников с цитатами - журнал, авторы, дата; глубокий литературный обзор; настраиваемые навыки (skills) для повторяющихся задач - направления к специалистам, заявки на предварительное согласование (prior authorization), инструкции для пациентов.
Есть интересная функция - автоматическое начисление баллов непрерывного медицинского образования (CME) за разбор клинических случаев прямо в платформе.
Важно - работать с данными, откуда удалены персданные пациентов. Если нужно - поддержка HIPAA доступна через соглашение о деловом партнёре (BAA). И важно, что данные, которые вводят врачи, не используются для обучения моделей.
Ну и главное (как и в корпоративном варианте) - модель работает на проверенных источниках и почти не врет.
Перед запуском врачи-советники протестировали 6 924 диалога. 99,6% ответов оценили как безопасные и точные.
На открытом бенчмарк HealthBench Professional GPT-5.4 в режиме ChatGPT for Clinicians набрал 59,0 балла (это лучше, чем другие ИИ-участники и лучше, чем живые врачи, у которых к тому же был доступ в интернет(.
Если вы не американский врач, то ChatGPT for Clinicians вам не будет доступен - он привязан к NPI и без этого не пройти верификацию. OpenAI планирует пилот для клиницистов вне США (через Better Evidence Network).
Но есть две рабочие альтернативы. Первая - ChatGPT Health (но тут тоже есть ограничение по регионам) или OpenEvidence - там уже реализован процесс клинической поддержки на основе рецензируемой литературы, и использование для врачей бесплатно.
А, и главный вопрос - зачем OpenAI это делает? Мы предполагаем, что цель тут - выработать привычку использовать ИИ, чтобы потом сделать сервис более продвинутым и платным.
#ChatGPTforClinicians #OpenAIHealth #МедицинскийИИ #HealthcareAI
👉 Подписаться на ИИ в медицине
❤4👍3🔥1
Nature Medicine: доказательств пользы медицинского ИИ для пациентов пока нет
Nature Medicine выпустил целую серию материалов с целью донести до читателей, что заявления об улучшении медицинской помощи с ИИ должны подкрепляться определенным образом оформленными доказательствами.
Согласно редакционной позиции журнала и публикации Goldenberg & Wiens Is AI actually improving healthcare? , ответа на этот вопрос пока нет. И проблема не в нехватке или недостаточном обучении моделей. Авторы считают, что метрики точности модели вообще могут не переходить в клинически значимые улучшения. А также, что в случаях, когда положительные клинические результаты представлены - речь идет о том, что это повысилась бдительность врача, который проверяет ИИ, а не результат работы самого ИИ (помните сказку про кашу из топора?).
Так, говорится, что систематический обзор 30 исследований выявил разброс диагностической точности схожих моделей на схожих задачах от 25% до 98%, и что большинство пилотов не дают реального ответа типа снижения летальности, сокращения времени до постановки правильного диагноза и т.п., а представляют промежуточные цифры.
Скорее всего это приведет к тому, что от вендоров будут требовать сразу встраивать оценку клинической ценности в дизайн продукта. Ну а мы пока подождем еще результатов исследований - сейчас около 10 крупных клиник считают эффективность применения ИИ.
#медицинскийИИ #доказательнаямедицина #клиническиеисследования #AIhealthcare #NatureMedicine
👉 Подписаться на ИИ в медицине
Nature Medicine выпустил целую серию материалов с целью донести до читателей, что заявления об улучшении медицинской помощи с ИИ должны подкрепляться определенным образом оформленными доказательствами.
Согласно редакционной позиции журнала и публикации Goldenberg & Wiens Is AI actually improving healthcare? , ответа на этот вопрос пока нет. И проблема не в нехватке или недостаточном обучении моделей. Авторы считают, что метрики точности модели вообще могут не переходить в клинически значимые улучшения. А также, что в случаях, когда положительные клинические результаты представлены - речь идет о том, что это повысилась бдительность врача, который проверяет ИИ, а не результат работы самого ИИ (помните сказку про кашу из топора?).
Так, говорится, что систематический обзор 30 исследований выявил разброс диагностической точности схожих моделей на схожих задачах от 25% до 98%, и что большинство пилотов не дают реального ответа типа снижения летальности, сокращения времени до постановки правильного диагноза и т.п., а представляют промежуточные цифры.
Скорее всего это приведет к тому, что от вендоров будут требовать сразу встраивать оценку клинической ценности в дизайн продукта. Ну а мы пока подождем еще результатов исследований - сейчас около 10 крупных клиник считают эффективность применения ИИ.
#медицинскийИИ #доказательнаямедицина #клиническиеисследования #AIhealthcare #NatureMedicine
👉 Подписаться на ИИ в медицине
Nature
Show us the evidence for the value of medical AI
Nature Medicine - Claims that medical AI is improving care must be backed by appropriate evidence.
👍4🔥2❤1
Ни один человек не способен так точно анализировать медицинские отчеты, как это делает ИИ
Есть класс задач, где ИИ уже системно превосходит человека: это те, где надо проанализировать большое количество информации, выделить данные из разных источников, собрать из них отчет, ничего не забыть и не упустить. Новое исследование Northwestern Medicine доказало, что ИИ очень эффективен в работе с данным онкологической патоморфологии.
Смотрите - один пациент с раком лёгкого за несколько лет лечения накапливает массу разных результатов биопсий - из разных клиник. Могут брать несколько проб, каждую перепроверяют в разных лабораториях. В итоге на руках десятки, а иногда и сотни отчетов по гистологии, иммуногистохимии, результаты генетического секвенирования на десятки мутаций. И задача онколога - разобраться в этом, свести всё это в единую картину и не пропустить никакой информации, определиться, что делать, если данные противоречат друг другу и т.п. Например, определена у пациента есть мутация EGFR или амплификация MET? Ведь от этого зависит, получит пациент таргетную терапию или нет, какую именно. И лечение может быть кардинально разным.
Исследователи протестировали шесть открытых языковых моделей: Llama 3.0, 3.1, 3.2 (Meta), Gemma 9B (Google), Mistral 7.2B и DeepSeek-R1 - на 94 деидентифицированных отчётах пациентов с раком лёгкого.
Модели генерировали структурированные саммари, которые сравнивали с саммари реальных врачей и оценивали точность, полноту, лаконичность и клинический риск. Оценку проводила независимая панель онкологов - они не знали, чей результат смотрят - врача или LLM.
Во всех моделях ИИ-саммари получили более высокие оценки по полноте - особенно в части молекулярных и генетических находок, критичных для выбора терапии. Лучшими по результатам стали DeepSeek-R1 и Llama 3.1.
И это не единственный подобный отчет. В прошлом году аналогичный опубликовала команда Mayo Clinic - на выборке из 7774 отчётов по 8 типам рака открытые модели стабильно точнее воспроизводят структурированные данные из патоморфологических заключений.
Отдельно важен формат моделей: все протестированные системы открытые и разворачиваются локально, что даёт клиникам контроль над конфиденциальностью данных пациентов.
Поэтому системы, которые грамотно работают с саммаризацией данных и умеют сохранять анонимность пациентов - это то, что сейчас будет внедряться практически везде. Регуляторный порог здесь низкий (ИИ не ставит диагноз, а структурирует готовый отчёт), результат измерим. А дальше, видимо, это будет частью медицинских систем, чтобы врач автоматически видел значимые находки сразу, когда начинает работу с картой пациента .
#онкология #патоморфология #LLM #клиническаядокументация #ИИвмедицине
👉 Подписаться на ИИ в медицине
Есть класс задач, где ИИ уже системно превосходит человека: это те, где надо проанализировать большое количество информации, выделить данные из разных источников, собрать из них отчет, ничего не забыть и не упустить. Новое исследование Northwestern Medicine доказало, что ИИ очень эффективен в работе с данным онкологической патоморфологии.
Смотрите - один пациент с раком лёгкого за несколько лет лечения накапливает массу разных результатов биопсий - из разных клиник. Могут брать несколько проб, каждую перепроверяют в разных лабораториях. В итоге на руках десятки, а иногда и сотни отчетов по гистологии, иммуногистохимии, результаты генетического секвенирования на десятки мутаций. И задача онколога - разобраться в этом, свести всё это в единую картину и не пропустить никакой информации, определиться, что делать, если данные противоречат друг другу и т.п. Например, определена у пациента есть мутация EGFR или амплификация MET? Ведь от этого зависит, получит пациент таргетную терапию или нет, какую именно. И лечение может быть кардинально разным.
Исследователи протестировали шесть открытых языковых моделей: Llama 3.0, 3.1, 3.2 (Meta), Gemma 9B (Google), Mistral 7.2B и DeepSeek-R1 - на 94 деидентифицированных отчётах пациентов с раком лёгкого.
Модели генерировали структурированные саммари, которые сравнивали с саммари реальных врачей и оценивали точность, полноту, лаконичность и клинический риск. Оценку проводила независимая панель онкологов - они не знали, чей результат смотрят - врача или LLM.
Во всех моделях ИИ-саммари получили более высокие оценки по полноте - особенно в части молекулярных и генетических находок, критичных для выбора терапии. Лучшими по результатам стали DeepSeek-R1 и Llama 3.1.
И это не единственный подобный отчет. В прошлом году аналогичный опубликовала команда Mayo Clinic - на выборке из 7774 отчётов по 8 типам рака открытые модели стабильно точнее воспроизводят структурированные данные из патоморфологических заключений.
Отдельно важен формат моделей: все протестированные системы открытые и разворачиваются локально, что даёт клиникам контроль над конфиденциальностью данных пациентов.
Поэтому системы, которые грамотно работают с саммаризацией данных и умеют сохранять анонимность пациентов - это то, что сейчас будет внедряться практически везде. Регуляторный порог здесь низкий (ИИ не ставит диагноз, а структурирует готовый отчёт), результат измерим. А дальше, видимо, это будет частью медицинских систем, чтобы врач автоматически видел значимые находки сразу, когда начинает работу с картой пациента .
#онкология #патоморфология #LLM #клиническаядокументация #ИИвмедицине
👉 Подписаться на ИИ в медицине
JCO Clinical Cancer Informatics
Toward Automating the Summarization of Cancer Pathology Reports Using Large Language Models to Improve Clinical Usability | JCO…
PURPOSEReviewing pathology reports requires physicians to integrate complex histopathologic,
immunohistochemical, and molecular findings from multiple reports and institutions,
often under time constraints that increase the risk of error and fatigue. ...
immunohistochemical, and molecular findings from multiple reports and institutions,
often under time constraints that increase the risk of error and fatigue. ...
🔥3❤2
Сальвадор переложил хронических пациентов на ИИ и уволил почти 8 тысяч врачей
Президент Сальвадора Найиб Букеле объявил о старте второй фазы DoctorSV - государственной телемедицинской платформы, созданной совместно с Google Cloud. И если первый этап был обычным круглосуточным чатом с дежурным медиком, то теперь страна переходит к масштабному эксперименту: полноценному ИИ-сопровождению пациентов с хроническими заболеваниями.
Проблема «хроников» (диабет, гипертония, болезни почек) во всём мире одинакова: люди бросают лечение. В Сальвадоре уровень отказа от терапии превышает 40%. И раньше сами пациенты объясняли это своей забывчивостью и очередями. Но теперь за этим следит Gemini.
Механика процесса выглядит так:
➖ Пациент заполняет анкету в приложении;
➖ ИИ на основе опроса и имеющихся данных автоматически генерирует направления на анализы и исследования (раньше это делал врач на первичном приеме);
➖ На консультацию пациент приходит уже с результатами и собранным анамнезом.
Если пациент пропустил срок сдачи крови, УЗИ и т.п,, платформа шлёт напоминания и пациенту, и клинике, к которой он прикреплен.
За пять месяцев на платформе зарегистрировались 1,2 млн пользователей (это 20% всей страны!) и были организованы 2,3 млн консультаций. Правительство заявляет о диагностической точности в 93% и удовлетворённости в 97%. Но эксперты говорят, что независимой верификации пока не было.
При этом параллельно с реализацией проекта (на него выделено $500 млн на 7 лет) из госсистемы здравоохранения в 2025 году уволили почти 8 тысяч сотрудников (как раз тех, кто вел первичное распределение пациентов), и медицинские профсоюзы пытаются сопротивляться внедрению ИИ, чтобы сохранить рабочие места живых врачей.
#телемедицина #хроническиезаболевания #ИИвмедицине #GoogleHealth
👉 Подписаться на ИИ в медицине
Президент Сальвадора Найиб Букеле объявил о старте второй фазы DoctorSV - государственной телемедицинской платформы, созданной совместно с Google Cloud. И если первый этап был обычным круглосуточным чатом с дежурным медиком, то теперь страна переходит к масштабному эксперименту: полноценному ИИ-сопровождению пациентов с хроническими заболеваниями.
Проблема «хроников» (диабет, гипертония, болезни почек) во всём мире одинакова: люди бросают лечение. В Сальвадоре уровень отказа от терапии превышает 40%. И раньше сами пациенты объясняли это своей забывчивостью и очередями. Но теперь за этим следит Gemini.
Механика процесса выглядит так:
Если пациент пропустил срок сдачи крови, УЗИ и т.п,, платформа шлёт напоминания и пациенту, и клинике, к которой он прикреплен.
За пять месяцев на платформе зарегистрировались 1,2 млн пользователей (это 20% всей страны!) и были организованы 2,3 млн консультаций. Правительство заявляет о диагностической точности в 93% и удовлетворённости в 97%. Но эксперты говорят, что независимой верификации пока не было.
При этом параллельно с реализацией проекта (на него выделено $500 млн на 7 лет) из госсистемы здравоохранения в 2025 году уволили почти 8 тысяч сотрудников (как раз тех, кто вел первичное распределение пациентов), и медицинские профсоюзы пытаются сопротивляться внедрению ИИ, чтобы сохранить рабочие места живых врачей.
#телемедицина #хроническиезаболевания #ИИвмедицине #GoogleHealth
👉 Подписаться на ИИ в медицине
Please open Telegram to view this post
VIEW IN TELEGRAM
Global Voices
AI hype narrative reaches the public healthcare system in El Salvador
This time we take you to El Salvador, examining government claims that an AI-supported transformation of the public healthcare system will make it the most advanced in the world.
🔥6🤯3
Совет врачей штата Юта потребовал отменить выписку ИИ-рецептов, но не смог это обосновать
В январе этого года руководство штата Юта заключило соглашение с компанией Doctronic (стартап медицинского ИИ) и запустила первый в стране сервис, где ИИ самостоятельно продлевает выписанные ранее рецепты на лекарства (в список автопродления были включены около 200 препаратов).
20 апреля Лицензионный совет врачей штата потребовал немедленно приостановить программу, аргументируя это тем, что они не были поставлены в известность об эксперименте.
Специалисты считают, что даже рутинное продление требует клинической оценки - побочные эффекты, новые взаимодействия, корректировка дозы. Без этого есть риск, что пациент будет сам продлевать себе терапию, которая уже неэффективна или даже опасна. Кроме того, врачи напомнили, что во время предварительных тестов бот Doctronic поддавался джейлбрейку (обходу встроенных ограничений) и рекомендовал метамфетамин в качестве лекарства, позволял утроить дозу обезболивающего и даже соглашался с антивакцинными теориями пациентов.
Штат отказался прекратить и эксперимент и сообщил, что промышленный сервис защищен гораздо лучше (ну и действительно, его взломать пациенты пока не смогли). Кроме того, как пишет Axios, на первой стадии эксперимента все равно каждое решение ИИ перепроверяет и валидирует живой врач, а закон штата никак не обязывал отправлять какие-либо уведомления совету врачей.
Скоро стартует вторая фаза эксперимента, когда назначения ИИ врачи будут видеть уже постфактум. И если врачи смогут обосновать, что ИИ что-то назначил неправильно, тогда решение может быть пересмотрено.
#AIвмедицине #регулирование #США
👉 Подписаться на ИИ в медицине
В январе этого года руководство штата Юта заключило соглашение с компанией Doctronic (стартап медицинского ИИ) и запустила первый в стране сервис, где ИИ самостоятельно продлевает выписанные ранее рецепты на лекарства (в список автопродления были включены около 200 препаратов).
20 апреля Лицензионный совет врачей штата потребовал немедленно приостановить программу, аргументируя это тем, что они не были поставлены в известность об эксперименте.
Специалисты считают, что даже рутинное продление требует клинической оценки - побочные эффекты, новые взаимодействия, корректировка дозы. Без этого есть риск, что пациент будет сам продлевать себе терапию, которая уже неэффективна или даже опасна. Кроме того, врачи напомнили, что во время предварительных тестов бот Doctronic поддавался джейлбрейку (обходу встроенных ограничений) и рекомендовал метамфетамин в качестве лекарства, позволял утроить дозу обезболивающего и даже соглашался с антивакцинными теориями пациентов.
Штат отказался прекратить и эксперимент и сообщил, что промышленный сервис защищен гораздо лучше (ну и действительно, его взломать пациенты пока не смогли). Кроме того, как пишет Axios, на первой стадии эксперимента все равно каждое решение ИИ перепроверяет и валидирует живой врач, а закон штата никак не обязывал отправлять какие-либо уведомления совету врачей.
Скоро стартует вторая фаза эксперимента, когда назначения ИИ врачи будут видеть уже постфактум. И если врачи смогут обосновать, что ИИ что-то назначил неправильно, тогда решение может быть пересмотрено.
#AIвмедицине #регулирование #США
👉 Подписаться на ИИ в медицине
Axios
Utah medical licensing board urges state to suspend AI prescriptions
The board members said they weren't consulted before the state launched its prescription bot.
🔥4🤯2👍1
Google добавил в Gemini защиту от суицида
Google обновил защитные ограничения (mental health guardrails) в Gemini - там теперь встроена реакция на признаки ментального нездоровья.
Поводом стал иск, поданный в марте в федеральный суд Калифорнии. Отец 36-летнего жителя Флориды Джонатана Гаваласа обвинил Google в том, что Gemini Live за два месяца общения сформировал у сына бредовую систему - выдавал себя за разумное существо, говорил о слежке спецслужб, отправлял на «миссии» - и в итоге, по версии истца, инструктировал к самоубийству, состоявшемуся 2 октября 2025 года.
Это был первый wrongful death-иск против Gemini, но параллельно похожие дела идут против OpenAI и Character.AI.
Заявлено, что теперь:
✅ Модуль Help is available - срабатывает при признаках психического неблагополучия и сразу дает ссылки на помогающие ресурсы.
✅ Кнопка one-touch при сигналах о суициде - звонок, чат или текст на горячую линию, остаётся видимой до конца разговора (раньше подсказка появлялась разово и пропадала).
✅ Чат дообучили не поддерживать всевозможные ложные убеждения пользователя и не имитировать эмоциональную близость.
✅ Отдельные ограничения для несовершеннолетних: запрет на персону «друга», симуляцию интимности, язык эмоциональной зависимости.
Параллельно Google.org выделяет $30 млн на три года кризисным линиям и $4 млн партнёру ReflexAI на тренажёры для волонтёров.
Google подчеркивает, что Gemini никак не сможет заменить помощь психолога, его задача распознать угрозу и постараться отправить пользователя к специалисту. Но вопрос, кто будет отвечать, если психически неуравновешенный человек после разговора с ботом все же причинит себе вред, остается. Компания просто не хочет, чтобы ее обвиняли в engagement-дизайне (удержании через эмоциональную привязанность). Но параллельно в процессе разработки этой защиты участникам процесса пришла в голову идея - допрофилировать бота до реального психолога и выступить консультантом для остальных разработчиков.
Так мы и дойдем до того, что все ИИ будут нас немного лечить.
#ИИвМедицине #психическоеЗдоровье #Google #Gemini #регулирование
👉 Подписаться на ИИ в медицине
Google обновил защитные ограничения (mental health guardrails) в Gemini - там теперь встроена реакция на признаки ментального нездоровья.
Поводом стал иск, поданный в марте в федеральный суд Калифорнии. Отец 36-летнего жителя Флориды Джонатана Гаваласа обвинил Google в том, что Gemini Live за два месяца общения сформировал у сына бредовую систему - выдавал себя за разумное существо, говорил о слежке спецслужб, отправлял на «миссии» - и в итоге, по версии истца, инструктировал к самоубийству, состоявшемуся 2 октября 2025 года.
Это был первый wrongful death-иск против Gemini, но параллельно похожие дела идут против OpenAI и Character.AI.
Заявлено, что теперь:
✅ Модуль Help is available - срабатывает при признаках психического неблагополучия и сразу дает ссылки на помогающие ресурсы.
✅ Кнопка one-touch при сигналах о суициде - звонок, чат или текст на горячую линию, остаётся видимой до конца разговора (раньше подсказка появлялась разово и пропадала).
✅ Чат дообучили не поддерживать всевозможные ложные убеждения пользователя и не имитировать эмоциональную близость.
✅ Отдельные ограничения для несовершеннолетних: запрет на персону «друга», симуляцию интимности, язык эмоциональной зависимости.
Параллельно Google.org выделяет $30 млн на три года кризисным линиям и $4 млн партнёру ReflexAI на тренажёры для волонтёров.
Google подчеркивает, что Gemini никак не сможет заменить помощь психолога, его задача распознать угрозу и постараться отправить пользователя к специалисту. Но вопрос, кто будет отвечать, если психически неуравновешенный человек после разговора с ботом все же причинит себе вред, остается. Компания просто не хочет, чтобы ее обвиняли в engagement-дизайне (удержании через эмоциональную привязанность). Но параллельно в процессе разработки этой защиты участникам процесса пришла в голову идея - допрофилировать бота до реального психолога и выступить консультантом для остальных разработчиков.
Так мы и дойдем до того, что все ИИ будут нас немного лечить.
#ИИвМедицине #психическоеЗдоровье #Google #Gemini #регулирование
👉 Подписаться на ИИ в медицине
Google
An update on our mental health work
We’re sharing an update on our mental health work, including some new changes to better connect people with the right information.
🔥6👍1
США боятся, что ИИ будут использовать для биохакинга и разработки биооружия
Администрация США 🇺🇸 обсуждает обязательный предварительный контроль за выпуском передовых моделей искусственного интеллекта (frontier AI). И делают они это из страза перед нецелевым использованием нейросетей в биомедицине.
Потому что сейчас корпорации сами решают, когда и какой релиз делать - и новым решением сразу могут пользоваться все подписчики.
Если государство будет требовать обязательного предварительного аудита, разработки станут дольше и дороже.
А началось все с недавней истории вокруг компании Anthropic и их продукта Mythos.
В ходе закрытых тестов выяснилось, что модель, несмотря на встроенные защитные ограничения, показала "избыточные" знания в области синтетической биологии и фактически выдала детальные протоколы по модификации патогенов, которые можно использовать для создания биологического оружия.
Даже проекта документа пока нет, его только обсуждают. Но затронуть новые правила могут всех IT-гигантов, фармакологические ИИ-стартапы, небольших разработчиков решений для медицины.
Ну а ниша откроется для тех, кто планирует заниматься сертификацией и подбором ИИ-решений.
#регуляторика #frontier_AI #безопасность #фармакология
👉 Подписаться на ИИ в медицине
Администрация США 🇺🇸 обсуждает обязательный предварительный контроль за выпуском передовых моделей искусственного интеллекта (frontier AI). И делают они это из страза перед нецелевым использованием нейросетей в биомедицине.
Потому что сейчас корпорации сами решают, когда и какой релиз делать - и новым решением сразу могут пользоваться все подписчики.
Если государство будет требовать обязательного предварительного аудита, разработки станут дольше и дороже.
А началось все с недавней истории вокруг компании Anthropic и их продукта Mythos.
В ходе закрытых тестов выяснилось, что модель, несмотря на встроенные защитные ограничения, показала "избыточные" знания в области синтетической биологии и фактически выдала детальные протоколы по модификации патогенов, которые можно использовать для создания биологического оружия.
Даже проекта документа пока нет, его только обсуждают. Но затронуть новые правила могут всех IT-гигантов, фармакологические ИИ-стартапы, небольших разработчиков решений для медицины.
Ну а ниша откроется для тех, кто планирует заниматься сертификацией и подбором ИИ-решений.
#регуляторика #frontier_AI #безопасность #фармакология
👉 Подписаться на ИИ в медицине
the Guardian
US announces deals with tech firms for national security review of AI models before release
Agreements with Microsoft, Google DeepMind and xAI focus largely on recognizing cybersecurity, biosecurity and chemical weapons risks
🔥2❤1👍1
Израиль запустил ИИ-консультанта по госбюрократии
На портале государственных услуг gov.il для всех жителей и гостей Израиля появился умный ИИ-помощник Nivi (ניבי).
Пока объявлено, что это пилот. За его внедрение отвечает Israel National Digital Agency (государственное ведомство, отвечающее за цифровую инфраструктуру).
Мы уже потестировали помощника на самых разных страницах (конечно, прежде всего, на ресурсах министерства здравоохранения).
Отвечает он на том языке, на котором задаешь вопрос, независимо от того, какой язык выбран на сайте. При этом и иврит, и русский, и английский, и арабский - вполне нативные).
Помощник корректно дает информацию и о том, как подтвердить диплом, и как пройти обучение, какой закон регулирует то, о чем ты спрашиваешь, дает ссылки на тексты документов (только госпортала, конечно) и подсказывает алгоритм действий. При попытке задать вопросы, которые не касаются государственного регулирования, объясняет, что это уже не его задача.
Технологический стек официально не объявлен, но еще в прошлом году облачный интегратор AllCloud публиковал архитектуру бота для правительственного агентства: внутри работает большая языковая модель (LLM) Claude 3.5 Sonnet от Anthropic в связке с архитектурой генерации с дополненным поиском (RAG).
Самое интересное здесь - инфраструктура. У бота отличный иврит, так как государство совместно с Академией языка иврит заранее собрали и выложили в открытый доступ размеченный национальный языковой корпус (dataset).
В общем - проверяйте, пишите свои впечатления. Ждем такой навигатор по медицинским услугам, медикаментам и условиям страхования.
А пока для врачей полезная ссылка - на страничку Минздрава - тут можно задать любые вопросы о том, как легализовать свой диплом, на кого можно переучиться, как сдать экзамены и даже получить все ссылки с вопросами.
#Израиль #DigitalHealth #ИИвМедицине #LLM #Claude
👉 Подписаться на ИИ в медицине
На портале государственных услуг gov.il для всех жителей и гостей Израиля появился умный ИИ-помощник Nivi (ניבי).
Пока объявлено, что это пилот. За его внедрение отвечает Israel National Digital Agency (государственное ведомство, отвечающее за цифровую инфраструктуру).
Мы уже потестировали помощника на самых разных страницах (конечно, прежде всего, на ресурсах министерства здравоохранения).
Отвечает он на том языке, на котором задаешь вопрос, независимо от того, какой язык выбран на сайте. При этом и иврит, и русский, и английский, и арабский - вполне нативные).
Помощник корректно дает информацию и о том, как подтвердить диплом, и как пройти обучение, какой закон регулирует то, о чем ты спрашиваешь, дает ссылки на тексты документов (только госпортала, конечно) и подсказывает алгоритм действий. При попытке задать вопросы, которые не касаются государственного регулирования, объясняет, что это уже не его задача.
Технологический стек официально не объявлен, но еще в прошлом году облачный интегратор AllCloud публиковал архитектуру бота для правительственного агентства: внутри работает большая языковая модель (LLM) Claude 3.5 Sonnet от Anthropic в связке с архитектурой генерации с дополненным поиском (RAG).
Самое интересное здесь - инфраструктура. У бота отличный иврит, так как государство совместно с Академией языка иврит заранее собрали и выложили в открытый доступ размеченный национальный языковой корпус (dataset).
В общем - проверяйте, пишите свои впечатления. Ждем такой навигатор по медицинским услугам, медикаментам и условиям страхования.
А пока для врачей полезная ссылка - на страничку Минздрава - тут можно задать любые вопросы о том, как легализовать свой диплом, на кого можно переучиться, как сдать экзамены и даже получить все ссылки с вопросами.
#Израиль #DigitalHealth #ИИвМедицине #LLM #Claude
👉 Подписаться на ИИ в медицине
🔥5👍4
ИИ помог выяснить, что естественный мозг при правильных тренировках может не стареть
Ученые из Center for BrainHealth - исследовательского института при Техасском университете в Далласе - опубликовали результаты масштабного трёхлетнего наблюдения, которое позволило доказать, что когнитивный спад не является необратимой частью старения.
До этого врачи начинали работать с пациентом после появления симптомов деменции и пытались замедлить разрушение. Исследование (некоторым участникам было за 90 лет) показало, что мозг способен к развитию и образованию новых нейронных связей в любой период жизни.
Чтобы это выяснить учёные с помощью machine learning рассчитали индекс здоровья мозга (BrainHealth Index, BHI).
ИИ обработал гетерогенные данные: от результатов когнитивных тестов на внимание и логику до показателей повседневной активности и уровня стресса. Система выявила неочевидную закономерность: 71% участников улучшили свой BHI за год, независимо от начального возраста. Причём люди в возрасте 70-80 лет прогрессировали также успешно, как и 20-летние. Правда, самый быстрый рост когнитивных функций ИИ зафиксировал у тех, кто изначально имел самые низкие показатели.
Развиваться удалось тем, что так или иначе занимался проактивными тренировками мозга. При этом достаточно было 5-15 минут целевой нагрузки в день.
Ученые планируют дальше с помощью ИИ рассчитывать индивидуальный когнитивный резерв и подбирать подходящие упражнения, чтобы не давать мозгу «застаиваться» на простых задачах.
Ну, в качестве самого простого они предлагают тренировать синтетическое мышление: например, не просто читать новости, а пытаться сформулировать три основных вывода из каждой статьи или находить связи между несвязанными на первый взгляд событиями.
Также доказано, что положительно на развитие мозга влияют физические упражнения на баланс и координацию.
Так что скоро измерение BHI и подбор упражнений для мозга могут стать такими же распространенными, как подбор диеты или плана спортивных тренировок. Главное - правильно нагрузить нейроны (припахав для этого ИИ, да).
#нейропластичность #здоровьемозга #машинноеобучение #геронтология
👉 Подписаться на ИИ в медицине
Ученые из Center for BrainHealth - исследовательского института при Техасском университете в Далласе - опубликовали результаты масштабного трёхлетнего наблюдения, которое позволило доказать, что когнитивный спад не является необратимой частью старения.
До этого врачи начинали работать с пациентом после появления симптомов деменции и пытались замедлить разрушение. Исследование (некоторым участникам было за 90 лет) показало, что мозг способен к развитию и образованию новых нейронных связей в любой период жизни.
Чтобы это выяснить учёные с помощью machine learning рассчитали индекс здоровья мозга (BrainHealth Index, BHI).
ИИ обработал гетерогенные данные: от результатов когнитивных тестов на внимание и логику до показателей повседневной активности и уровня стресса. Система выявила неочевидную закономерность: 71% участников улучшили свой BHI за год, независимо от начального возраста. Причём люди в возрасте 70-80 лет прогрессировали также успешно, как и 20-летние. Правда, самый быстрый рост когнитивных функций ИИ зафиксировал у тех, кто изначально имел самые низкие показатели.
Развиваться удалось тем, что так или иначе занимался проактивными тренировками мозга. При этом достаточно было 5-15 минут целевой нагрузки в день.
Ученые планируют дальше с помощью ИИ рассчитывать индивидуальный когнитивный резерв и подбирать подходящие упражнения, чтобы не давать мозгу «застаиваться» на простых задачах.
Ну, в качестве самого простого они предлагают тренировать синтетическое мышление: например, не просто читать новости, а пытаться сформулировать три основных вывода из каждой статьи или находить связи между несвязанными на первый взгляд событиями.
Также доказано, что положительно на развитие мозга влияют физические упражнения на баланс и координацию.
Так что скоро измерение BHI и подбор упражнений для мозга могут стать такими же распространенными, как подбор диеты или плана спортивных тренировок. Главное - правильно нагрузить нейроны (припахав для этого ИИ, да).
#нейропластичность #здоровьемозга #машинноеобучение #геронтология
👉 Подписаться на ИИ в медицине
PR Newswire
New Nature Scientific Reports Study Challenges the Inevitability of Cognitive Decline and Proves Brain Gain is Possible at Any…
/PRNewswire/ -- A landmark study recently published in the Nature Portfolio journal Scientific Reports reveals that cognitive decline is not an inevitable part...
🔥6👍4❤1
Американская лаборатория вместе с результатом стала отправлять ИИ-объяснение
Hims & Hers (американская публичная telehealth-платформа с почти 2,6 млн подписчиков) представила Labs AI - ИИ-ассистента внутри своей платформы для лабораторных тестов.
Сценарий максимально бытовой: человек получает анализы, видит непонятные простому человеку названия и цифры - LDL, ApoB, lipoprotein, гормоны, метаболические маркеры и отметки - норма\не норма. А если чуть выше нормы? А если в 5 раз выше? А если все в норме - можно не идти к врачу?
Дальше пациент обычно или гуглит (теперь - спрашивает у чата GPT), или тревожно ждет консультации (а часто вообще ничего не делает, потому что - "ну не все же красное").
Компания решила, что раз люди все равно занимаются самолечением гуглят, то лчше, если правильно подготовленный ИИ будет сразу объяснять результаты, показывать возможные закономерности и отвечать на уточняющие вопросы.
Для подготовки ответов используется собственная медицинская база компании.
Labs AI анализирует до 130 биомаркеров и смотрит не только на отдельные цифры и нормы, но и на контекст, пол, возраст, заболевания, данные других показателей, динамика изменений, данные по образу жизни и т.п.
Например, само по себе значение онкомаркера или уровня тестостерона не дает понимания, что означает результат анализа. Или данные липидограммы, уровня сахара в крови и т.п. каждый сам по себе не выходят за границы референсных значений, но в сочетании или в динамике уже дают картину, которую необходимо обсудить с врачом. LDL, ApoB и lipoprotein(a) по отдельности могут выглядеть как набор лабораторных строк, а вместе дают более понятную картину риска, которую уже есть смысл обсудить с врачом.
При этом плюс к базовому объяснению можно будет поговорить с ботом, попросить разъяснить подробнее.
В компании надеются, что в итоге это позволит пациенту снять тревожность, мотивировать дойти до врача, когда это необходимо, и при этом пациент придет к нему уже подготовленным. В тревожном случае система также передаст сообщение врачу вместе с кратким резюме.
Ограничений пока много. Компания пишет про clinician-designed guardrails, автоматические проверки точности и безопасности, сравнение ответов с рубриками, reviewed by clinicians. При этом не раскрывает, какие именно модели использует, и как устроена независимая клиническая валидация, не сообщает о количестве ошибок.
Мы видим тут главный риск в том, что сколько ни говори пациенту, что это пояснение - НЕ диагноз, чаще всего, Он будет воспринимать объяснения ИИ как готовую рекомендацию. Кроме того, с коммерческой точки зрения этот первый контакт с пациентом очень важен - именно на этом этапе его легче всего убедить сделать что-то или обратиться к конкретному врачу/в клинику, и за это будет идти серьезная борьба.
Тем не менее, сейчас ситуация такова, что кто-то все равно спросит у ИИ, и лаборатория старается опередить самолечение самостоятельный диалог пациента с непредсказуемым чат-ботом, а объяснить все сразу.
#ИИвмедицине #DigitalHealth #LabsAI #Telehealth #PatientExperience
👉 Подписаться на ИИ в медицине
Hims & Hers (американская публичная telehealth-платформа с почти 2,6 млн подписчиков) представила Labs AI - ИИ-ассистента внутри своей платформы для лабораторных тестов.
Сценарий максимально бытовой: человек получает анализы, видит непонятные простому человеку названия и цифры - LDL, ApoB, lipoprotein, гормоны, метаболические маркеры и отметки - норма\не норма. А если чуть выше нормы? А если в 5 раз выше? А если все в норме - можно не идти к врачу?
Дальше пациент обычно или гуглит (теперь - спрашивает у чата GPT), или тревожно ждет консультации (а часто вообще ничего не делает, потому что - "ну не все же красное").
Компания решила, что раз люди все равно занимаются самолечением гуглят, то лчше, если правильно подготовленный ИИ будет сразу объяснять результаты, показывать возможные закономерности и отвечать на уточняющие вопросы.
Для подготовки ответов используется собственная медицинская база компании.
Labs AI анализирует до 130 биомаркеров и смотрит не только на отдельные цифры и нормы, но и на контекст, пол, возраст, заболевания, данные других показателей, динамика изменений, данные по образу жизни и т.п.
Например, само по себе значение онкомаркера или уровня тестостерона не дает понимания, что означает результат анализа. Или данные липидограммы, уровня сахара в крови и т.п. каждый сам по себе не выходят за границы референсных значений, но в сочетании или в динамике уже дают картину, которую необходимо обсудить с врачом. LDL, ApoB и lipoprotein(a) по отдельности могут выглядеть как набор лабораторных строк, а вместе дают более понятную картину риска, которую уже есть смысл обсудить с врачом.
При этом плюс к базовому объяснению можно будет поговорить с ботом, попросить разъяснить подробнее.
В компании надеются, что в итоге это позволит пациенту снять тревожность, мотивировать дойти до врача, когда это необходимо, и при этом пациент придет к нему уже подготовленным. В тревожном случае система также передаст сообщение врачу вместе с кратким резюме.
Ограничений пока много. Компания пишет про clinician-designed guardrails, автоматические проверки точности и безопасности, сравнение ответов с рубриками, reviewed by clinicians. При этом не раскрывает, какие именно модели использует, и как устроена независимая клиническая валидация, не сообщает о количестве ошибок.
Мы видим тут главный риск в том, что сколько ни говори пациенту, что это пояснение - НЕ диагноз, чаще всего, Он будет воспринимать объяснения ИИ как готовую рекомендацию. Кроме того, с коммерческой точки зрения этот первый контакт с пациентом очень важен - именно на этом этапе его легче всего убедить сделать что-то или обратиться к конкретному врачу/в клинику, и за это будет идти серьезная борьба.
Тем не менее, сейчас ситуация такова, что кто-то все равно спросит у ИИ, и лаборатория старается опередить самолечение самостоятельный диалог пациента с непредсказуемым чат-ботом, а объяснить все сразу.
#ИИвмедицине #DigitalHealth #LabsAI #Telehealth #PatientExperience
👉 Подписаться на ИИ в медицине
Hims
Meet Labs AI: The First AI Care Agent from Hims & Hers
Labs AI is an AI care agent embedded in the Hims & Hers platform that makes customers’ lab results clearer, more useful, and easier to engage with.
❤4👍3🔥2
Израиль инвестирует больше 330 миллионов долларов в ИИ-образование школьников
Премьер-министр и министр образования Израиля представили масштабный план по обучению детей технологиям искусственного интеллекта во время летних каникул.
В связи с тем, что специалисты, не умеющие использовать ИИ для ускорения и упрощения своей работы, скоро будут отставать абсолютно во всех сферах, было решено выделить на это более миллиарда шекелей (примерно 333 миллиона долларов).
Премьер-министр Биньямин, презентуя этот план, сказал, что десять лет назад страна сделала ставку на кибербезопасность и стала мировым лидером в этой области. А сегодня новым направлением стратегических инвестиций становится подготовка молодежи к эпохе сосуществования с ИИ.
В целом можно решить сразу две проблемы - занять время школьников во время летних каникул и решить кадровую проблему - сейчас требование уметь работать с ИИ включено уже в 10-12% вакансий, а через год эта цифра должна вырасти до 45-50%.
Если говорить о медицине, то опросы показывают, что сейчас только около 3-5% врачей используют ИИ в работе.
А значит, летняя школа ИИ нужна не только школьникам, но и нынешним врачам, медсестрам, администраторам и всем-всем-всем (но мы уж про медицину больше).
Хотели бы поучиться? На базовом курсе или ИИ в медицине для продвинутых (агента себе собрать)?
#Израиль #образование #ИИ_обучение #будущее_медицины #кадры
👉 Подписаться на ИИ в медицине
Премьер-министр и министр образования Израиля представили масштабный план по обучению детей технологиям искусственного интеллекта во время летних каникул.
В связи с тем, что специалисты, не умеющие использовать ИИ для ускорения и упрощения своей работы, скоро будут отставать абсолютно во всех сферах, было решено выделить на это более миллиарда шекелей (примерно 333 миллиона долларов).
Премьер-министр Биньямин, презентуя этот план, сказал, что десять лет назад страна сделала ставку на кибербезопасность и стала мировым лидером в этой области. А сегодня новым направлением стратегических инвестиций становится подготовка молодежи к эпохе сосуществования с ИИ.
В целом можно решить сразу две проблемы - занять время школьников во время летних каникул и решить кадровую проблему - сейчас требование уметь работать с ИИ включено уже в 10-12% вакансий, а через год эта цифра должна вырасти до 45-50%.
Если говорить о медицине, то опросы показывают, что сейчас только около 3-5% врачей используют ИИ в работе.
А значит, летняя школа ИИ нужна не только школьникам, но и нынешним врачам, медсестрам, администраторам и всем-всем-всем (но мы уж про медицину больше).
Хотели бы поучиться? На базовом курсе или ИИ в медицине для продвинутых (агента себе собрать)?
#Израиль #образование #ИИ_обучение #будущее_медицины #кадры
👉 Подписаться на ИИ в медицине
Telegram
ИИ в медицине
Новости и практическое руководство по применению ИИ в обычной работе врача.
Наша цель - руководить ИИ, а не подчиняться.
Автор и вдохновитель канала: @SmartMedAI
Мы в ФБ https://www.facebook.com/MISMedAI/
Наша цель - руководить ИИ, а не подчиняться.
Автор и вдохновитель канала: @SmartMedAI
Мы в ФБ https://www.facebook.com/MISMedAI/
❤3