Une nouvelle étude menée par des chercheurs de l’UVA Health révèle que ChatGPT Plus, un modèle de langage avancé, a obtenu une précision diagnostique supérieure à celle des médecins travaillant seuls dans certains cas complexes.
L’étude a mobilisé 50 médecins spécialisés en médecine familiale, interne et d’urgence, répartis en deux groupes. La moitié des participants a utilisé ChatGPT Plus pour diagnostiquer des cas cliniques complexes, tandis que l’autre moitié s’est appuyée sur des méthodes conventionnelles, comme les sites de référence médicale ou Google.
Les résultats montrent une précision similaire entre les deux groupes lorsqu’ils ont travaillé seuls. Cependant, lorsque ChatGPT a fonctionné indépendamment des médecins, il a surpassé les deux groupes.
« Notre étude démontre que l’IA seule peut être un outil puissant et efficace pour poser des diagnostics », explique Andrew S. Parsons, professeur de médecine à l’Université de Virginie et co-directeur du Clinical Reasoning Research Collaborative. « Nous avons été surpris de constater que l’ajout d’un médecin réduisait la précision diagnostique, bien que cela améliorait l’efficacité. Cela souligne la nécessité d’une formation formelle pour intégrer l’IA dans la pratique clinique ».
With many hospitals already using AI for patient care, a new study found that using Chat GPT Plus does not significantly improve doctors’ diagnoses. #MedX 🔎 https://t.co/YRzZcrywv3 pic.twitter.com/m0AfoDBXhb
— UVA Health (@uvahealthnews) November 13, 2024
Des résultats impressionnants pour ChatGPT Plus
Lors des tests, ChatGPT Plus a atteint une précision diagnostique médiane de plus de 92 % lorsqu’il fonctionnait seul. Dans le cadre de la comparaison entre médecins :
- Le groupe utilisant ChatGPT Plus a obtenu une précision médiane de 76,3 %, contre 73,7 % pour ceux utilisant des approches classiques.
- Les diagnostics basés sur ChatGPT Plus ont été posés plus rapidement : en moyenne 519 secondes, contre 565 secondes pour le groupe conventionnel.
Ces résultats proviennent d’un essai contrôlé randomisé mené dans trois grands hôpitaux : UVA Health, Stanford, et le Beth Israel Deaconess Medical Center de Harvard. Les participants ont travaillé sur des vignettes cliniques basées sur des cas réels, intégrant l’historique du patient, les examens physiques et les résultats de laboratoire.
Les limites et l’avenir de l’IA en médecine
Cependant, les chercheurs soulignent que la performance exceptionnelle de ChatGPT Plus peut être liée aux prompts spécifiques utilisés dans l’étude. En conditions réelles, où les facteurs contextuels et le raisonnement clinique jouent un rôle crucial, les performances pourraient différer.
« Alors que l’IA s’intègre davantage dans le système de santé, il est essentiel de comprendre comment tirer parti de ces outils pour améliorer les soins aux patients et l’expérience des médecins », précise Parsons.
L’étude met en lumière un point clé : les médecins devront apprendre à maîtriser l’utilisation des IA comme ChatGPT, notamment en optimisant les prompts pour en tirer le meilleur parti.
Un avenir prometteur, mais encore incertain
Bien que ces résultats soient prometteurs, ils soulignent également que l’optimisation de la collaboration entre médecins et IA reste un défi. Cette étude constitue une étape importante dans l’évaluation de l’impact des outils d’IA sur la médecine moderne, mais appelle à davantage de recherche et de formation pour maximiser leur potentiel dans les environnements cliniques réels.
Avec l’évolution rapide des technologies d’IA, des ajustements seront nécessaires pour s’assurer qu’elles complètent efficacement l’expertise humaine, tout en maintenant un niveau élevé de sécurité et de soin pour les patients.