Une récente étude a montré que le modèle linguistique de l’IA, ChatGPT, surpasse les médecins humains en termes de qualité et d’empathie de leurs conseils écrits, rapporte The Guardian.
Cette étude suggère que les assistants d’IA ont le potentiel de jouer un rôle important dans la médecine et qu’ils pourraient contribuer à améliorer la communication des médecins avec leurs patients.
L’étude, publiée dans la revue JAMA Internal Medicine, a examiné les données de la communauté AskDocs de Reddit, où des professionnels de santé vérifiés répondent aux questions médicales des internautes.
Les chercheurs ont pris un échantillon aléatoire de 195 échanges AskDocs dans lesquels un médecin vérifié répondait à une question publique. Les questions originales ont ensuite été posées à ChatGPT, qui a été chargé d’y répondre.
Un comité de trois professionnels de la santé agréés, qui ne savaient pas si la réponse provenait d’un véritable médecin ou de ChatGPT, a évalué la qualité et l’empathie des réponses.
En fait, les chercheurs ont tenté de réaliser un test de Turing équivalent à celui d’un chatbot d’IA dans le domaine médical.
Des résultats incroyables pour ChatGPT
Avant d’examiner les résultats, il convient de noter que le ChatGPT d’OpenAI a déjà fait l’objet d’évaluations analogues. En janvier, ChatGPT a attiré l’attention sur sa capacité à obtenir une note de B/B à un examen de MBA. En février, ChatGPT a réalisé des progrès significatifs en matière d’intelligence artificielle en passant avec succès les premières étapes de l’entretien d’embauche pour un poste d’ingénieur logiciel de niveau L3.
Il s’agit d’une réalisation importante, car le poste L3 est généralement occupé par de nouveaux diplômés de l’enseignement supérieur qui cherchent à commencer leur carrière dans le développement.
Le même mois, une nouvelle étude a révélé que ChatGPT d’OpenAI a obtenu près de 60 % du seuil de réussite à l’examen d’aptitude médicale des États-Unis (USMLE), démontrant ainsi sa capacité à presque réussir l’examen.
Pour en revenir au test de qualité et d’empathie, The Guardian nous apprend que le jury a préféré les réponses du ChatGPT à celles d’un médecin humain dans 79 % des cas.
Les réponses de ChatGPT ont également été jugées de bonne ou très bonne qualité, 79 % du temps, contre 22 % des réponses des médecins, et 45 % des réponses du ChatGPT ont été jugées empathiques ou très empathiques, contre seulement 5 % des réponses des médecins.
ChatGPT promet des améliorations dans le domaine de la santé
John Ayers, de l’Université de Californie à San Diego, l’un des auteurs de l’étude, a déclaré que les résultats mettaient en évidence le potentiel des assistants d’IA pour améliorer le secteur de la santé. « Les possibilités d’améliorer les soins de santé grâce à l’IA sont énormes », a-t-il déclaré.
Le Dr Christopher Longhurst, de l’UC San Diego Health, a également commenté les résultats, affirmant que l’étude suggère que des outils tels que ChatGPT peuvent efficacement rédiger des conseils médicaux personnalisés de haute qualité qui seront examinés par les cliniciens. Il a ajouté que le processus d’utilisation de ChatGPT avait déjà commencé à l’UCSD Health.