Поддержать команду Зеркала
Беларусы на войне
  1. Как связано то, что мы едим, и появление гастрита? Врачи объясняют, какие продукты наиболее опасны и как не довести все до осложнения
  2. По всей стране действует «секретная» сеть «банкоматов», о которых вы могли не знать. Рассказываем подробности
  3. «После заключения у меня еще год не было секса». Экс-политзаключенная — о том, как колония влияет на психику даже после освобождения
  4. Госсекретарь США назвал условие встречи Трампа с Путиным
  5. «Где-то, наверное, нам на пользу, где-то вряд ли». Лукашенко опасается, что восстановление связей США и РФ может навредить Беларуси
  6. Эксперты: Кремль, возможно, готовится объявить о «победе» над Украиной и НАТО
  7. Душил, насиловал и убивал, срезая с жертв нижнее белье. Рассказываем о маньяке из Гродно, которого упустили в Беларуси
  8. Лукашенко подписал указ, разрешающий чиновникам «активно вовлекать граждан и организации в наведение порядка в стране»
  9. СМИ: США потребовали от Украины отозвать резолюцию в ООН с осуждением российского вторжения


Группа ученых оценила потенциал чат-бота ChatGPT как инструмента самодиагностики распространенных ортопедических заболеваний. Исследование было опубликовано в Journal of Medical Internet Research.

Изображение используется в качестве иллюстрации. Фото: Pixabay.com
Изображение используется в качестве иллюстрации. Фото: Pixabay.com

Авторы исследования в течение пяти дней задавали ChatGPT одни и те же вопросы, которые касаются пяти популярных ортопедических заболеваний: синдром запястного канала, шейная миелопатия, стеноз поясничного отдела позвоночника, остеоартрит коленного сустава и остеоартрит тазобедренного сустава. И на основе некоторых данных об этих заболеваниях просили поставить диагноз и дать рекомендации.

Ученые отметили, что точность ChatGPT для самостоятельной диагностики пяти распространенных ортопедических заболеваний была непостоянной. К примеру, синдром запястного канала чат-бот верно диагностировал в 100% случаев, а вот шейную миелопатию только один раз из 25. В 80% случаев ИИ рекомендовал пользователям обратиться к врачу и часто давал неточные рекомендации относительно госпитализации пациентов.

«Учитывая риск вреда при самостоятельной диагностике без медицинского наблюдения, было бы разумно, чтобы ИИ предупреждал пациентов о необходимости обратиться за экспертным медицинским мнением», — подытожили исследователи.