OpenAI a fait l’objet d’une nouvelle plainte, après que le groupe de défense NOYB l’a accusée de ne pas avoir corrigé les informations inexactes diffusées par son chatbot d’IA ChatGPT, ce qui pourrait constituer une violation des règles de l’UE en matière de protection de la vie privée.
Selon Reuters, NOYB a indiqué que le plaignant dans son cas, une personnalité publique, avait demandé sa date d’anniversaire par l’intermédiaire de ChatGPT, mais qu’il avait reçu des informations incorrectes à plusieurs reprises au lieu d’être informé par le chatbot qu’il ne disposait pas des données nécessaires.
Le groupe a également déclaré que l’entreprise soutenue par Microsoft a refusé les demandes du plaignant de corriger ou de supprimer les données, affirmant que la correction des données n’était pas possible, et n’a pas fourni de détails concernant les données traitées, leurs sources ou leurs destinataires.
NOYB a déclaré avoir déposé une plainte auprès de l’autorité autrichienne de protection des données, demandant une enquête sur les pratiques d’OpenAI en matière de traitement des données et sur les mesures prises pour garantir la précision des données personnelles gérées par les modèles linguistiques étendus de l’entreprise.
Maartje de Graaf, avocate de NOYB spécialisée dans la protection des données, a déclaré dans un communiqué : « Il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots comme ChatGPT soient conformes à la législation de l’UE, lorsqu’ils traitent des données concernant des individus ». « Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des personnes. La technologie doit suivre les exigences légales, et non l’inverse », a-t-elle déclaré.
Les « hallucinations » de ChatGPT peuvent affecter les règles du RGPD
Par le passé, OpenAI a reconnu que ChatGPT « écrivait parfois des réponses plausibles mais incorrectes ou absurdes ». Elle a toutefois indiqué qu’elle s’efforçait de résoudre ce problème « difficile ».
Certains des premiers cas d’« hallucination » des chatbots ont été signalés en avril 2023. Ce phénomène se produit lorsque les chatbots et/ou les personnes voient ce qui n’est pas là. Cependant, cela place également la technologie sur une trajectoire de potentielle collision avec le règlement général sur la protection des données (RGPD) de l’UE, qui réglemente le traitement des données personnelles pour les utilisateurs dans la région.
En cas de violation particulièrement grave, les entreprises peuvent se voir infliger une amende pouvant aller jusqu’à 20 millions d’euros ou jusqu’à 4 % de leur chiffre d’affaires mondial total de l’exercice précédent, le montant le plus élevé étant retenu. Les autorités chargées de la protection des données ont également le pouvoir d’imposer des changements dans la manière dont les informations sont traitées, ce qui signifie que le RGPD pourrait revoir la manière dont l’IA générative fonctionne au sein de l’UE.
En janvier, ChatGPT d’OpenAI a également été accusé d’enfreindre les règles de protection de la vie privée par une autorité de régulation italienne, dans le prolongement d’une enquête menée l’année dernière qui avait abouti à une interdiction de courte durée de l’application.