ChatGPT, et d’autres projets d’IA analogues, pourraient bien façonner notre destin. Après tout, l’IA a maintenant prouvé qu’elle pouvait construire les processeurs d’autres machines, et ce de manière très efficace. Nous devons nous méfier de cette technologie et l’utiliser comme un outil à manier, pour nous aider, plutôt que comme un ennemi insidieux à qui nous donnons les bonnes armes pour qu’il les utilise contre nous quand il sera prêt. À la base, ChatGPT est un chatbot très avancé, et il semble que ses capacités dans ce domaine puissent nous aider à vivre plus longtemps et en meilleure santé.
Les professionnels de la santé seront toujours les premiers à être appelés en cas de problème, mais il est difficile de les contacter pour chaque petite plainte. C’est pourquoi des services de triage et autres sont mis en place. Apparemment, ChatGPT peut également être une source utile d’informations sur les soins de santé : Il peut étonnamment bien donner des conseils en matière de santé.
Voici les conclusions d’une étude réalisée en juin 2023 sur le sujet, et la manière dont l’IA pourrait collaborer avec les professionnels de la santé à l’avenir pour simplifier le processus pour eux et leurs patients.
Le chat médical des chatbots
L’article d’Oded Nov, Nina Singh et Devin Mann intitulé « Putting ChatGPT’s Medical Advice to the (Turing) Test: Survey Study » est paru dans JMIR Medical Education Volume 9. L’étude visait à déterminer dans quelle mesure des chatbots sophistiqués peuvent répondre aux préoccupations des patients et si ces derniers tiennent compte de leurs réponses.
Pour ce faire, une série de 10 questions médicales légitimes ont été choisies dans les archives en janvier 2023 et adaptées pour garantir l’anonymat. ChatGPT, qui a reçu les questions, a été invité à donner sa propre réponse et, pour faciliter la comparaison, à conserver sa réponse aussi longtemps que celle du professionnel de la santé. À partir de là, les répondants devaient répondre à deux questions importantes : Pouvaient-ils dire quelles réponses avaient été écrites par le chatbot, et acceptaient-ils celles qui l’avaient été ?
Les résultats de près de 400 participants ont été compilés et se sont révélés intéressants. Les chercheurs notent dans l’étude que « en moyenne, les réponses du chatbot ont été identifiées correctement dans 65,5 % (1284/1960) des cas, et les réponses du prestataire humain ont été identifiées correctement dans 65,1 % (1276/1960) des cas ». Cela représente un peu moins de deux tiers des cas, dans l’ensemble, et il semble également qu’il y ait une limite au type de support en matière de soins de santé que les participants attendaient de ChatGP : « la confiance était plus faible à mesure que la complexité de la tâche liée à la santé dans les questions augmentait. Les questions d’ordre logistique (par exemple, la prise de rendez-vous et les questions relatives à l’assurance) ont obtenu le taux de confiance le plus élevé », indique l’étude.
Dr ChatGPT ? Pas tout à fait
Bien que la taille de l’échantillon de l’étude soit limitée, les conclusions que l’on peut en tirer sont intrigantes. Le fait qu’un chatbot puisse répondre aux questions des patients « aussi bien » que les professionnels est remarquable en soi, mais ce n’est pas tout. L’étude semble suggérer que le ChatGPT tel que nous le connaissons actuellement est plus efficace dans le domaine de la logistique. C’est le rôle que les personnes interrogées sont le plus à l’aise pour confier à un tel système, plutôt que des choses plus personnelles, plus complexes, plus liées à la santé. Pour ces questions, c’est un avis professionnel et humain que les patients recherchent.
L’accès rapide à une assistance ciblée que les chatbots pourraient fournir, s’il est cultivé de la bonne manière, pourrait s’avérer important pour résoudre les déserts médicaux à l’avenir. S’ils sont capables de créer d’excellentes listes de lecture Spotify, qui sait de quoi ils seront capables à l’avenir ?