😞 Почему стоит относиться с осторожностью к рекомендациям ChatGPT-4 в области медицины



Исследование, проводимое Колумбийским университетом, показало, что такие крупные языковые модели, как ChatGPT-4, не способны надежно извлекать информацию из медицинских записей.



В статье, опубликованной в JAMA Network Open, анализировалась способность ChatGPT-4 определить, пользовались ли пациенты шлемами во время аварий на скутерах и велосипедах.



В рамках исследования, охватывающего 54,569 обращений в отделения неотложной помощи с 2019 по 2022 годы, ChatGPT-4 не смог адекватно заменить традиционные методы поиска текстовой информации о шлемах.



Модель демонстрировала удовлетворительные результаты лишь в случае наличия всех текстов, задействованных в поиске, и испытывала трудности с интерпретацией отрицательных конструкций, например «без шлема».



Несмотря на потенциал LLM в анализе медицинских записей, текущий уровень технологии ограничивает их надежность.



Исследователи подчеркивают, что ChatGPT-4 пока не может стабильно справляться с этой задачей, вызывая потребность в более эффективных инструментах для извлечения данных из клинических записей.



@sip_ai | @sip_ai_bot