ChatGPT n'est pas fiable comme outil pour les requêtes en urologie, selon une nouvelle recherche

Blog

MaisonMaison / Blog / ChatGPT n'est pas fiable comme outil pour les requêtes en urologie, selon une nouvelle recherche

Aug 10, 2023

ChatGPT n'est pas fiable comme outil pour les requêtes en urologie, selon une nouvelle recherche

Bien que de nouvelles études continuent de vanter les succès de l'intelligence artificielle dans l'interprétation des données médicales et la fourniture de conseils, il semble qu'il lui manque au moins une catégorie médicale importante pour

Bien que de nouvelles études continuent de vanter les succès de l'intelligence artificielle dans l'interprétation des données médicales et la fourniture de conseils, il semble qu'il lui manque au moins une catégorie médicale importante pour les personnes âgées : l'urologie.

Lorsqu'on lui pose des questions médicales courantes, les patients peuvent interroger un médecin sur des complications urinaires, le chatbot populaire ChatGPT est loin de répondre aux normes cliniques et, dans de nombreux cas, les informations qu'il fournit n'étaient pas du tout exactes.

C'est la première fois que ChatGPT est évalué spécifiquement pour l'urologie, affirment les chercheurs.

Mais la possibilité pour l’IA de fournir des informations de santé inexactes ou biaisées constitue une préoccupation majeure depuis l’explosion de l’utilisation de cette technologie au début de cette année.

C’est peut-être pour cette raison que les patients restent également préoccupés par les utilisations cliniques de l’IA.

Certaines des affections les plus courantes chez les personnes âgées qui entraînent des complications urinaires comprennent une hypertrophie de la prostate (les symptômes sont présents chez environ la moitié des hommes âgés de 75 ans et plus) et la démence. Les infections des voies urinaires elles-mêmes peuvent également entraîner d’autres complications chez les personnes âgées, comme le délire ou une fréquence cardiaque anormale.

Dans l'étude d'urologie, menée au département d'urologie de l'Université de Floride, à Gainesville, ChatGPT a non seulement souvent fourni des informations inexactes, telles que des recommandations de traitement incorrectes, mais il l'a fait avec « confiance », ont déclaré les chercheurs.

D’autres résultats étaient tout aussi accablants : le chatbot n’a proposé des réponses que les chercheurs considéraient comme « appropriées » que 60 % du temps.

"ChatGPT interprète mal les directives de soins cliniques, rejette des informations contextuelles importantes, dissimule ses sources et fournit des références inappropriées", ont conclu les chercheurs.