fermer
Intelligence Artificielle

GitHub Copilot : l’assistant d’IA de Microsoft devient un piège pour les développeurs

20210630182435 Screenshot 2021 0 jpeg
GitHub Copilot : l'assistant d'IA de Microsoft devient un piège pour les développeurs

Avec l’introduction de GitHub Copilot, Microsoft voulait en fait faciliter la vie des développeurs sur sa plateforme de programmation. Mais aujourd’hui, c’est plutôt la crainte d’être confronté à des plaintes pour violation de droits d’auteur après avoir utilisé cet outil qui prévaut.

L’idée semble bonne : Microsoft a étendu la fonction de complétion de code à un composant d’intelligence artificielle. Celle-ci pouvait faire des propositions nettement plus poussées pour compléter le code et prendre ainsi en charge davantage de tâches quotidiennes fastidieuses. L’IA est entraînée à l’aide d’une grande quantité de codes sources librement accessibles, que l’on trouve aussi bien sur GitHub que sur d’autres sites Internet.

Mais ce qui n’a pas été suffisamment pris en compte : les sources des logiciels open source sont également protégées par le droit d’auteur. Après l’apparition de cas dans lesquels l’IA a complété le code de développeurs par des passages qu’elle a simplement copiés chez d’autres développeurs, les premiers avocats ont déjà été saisis de tels cas, comme le montre un rapport du magazine britannique The Register.

Matthew Butterick, qui est lui-même à la fois développeur et avocat, examine par exemple une plainte. Il semblerait que celui-ci examine actuellement deux lignes d’attaque : GitHub a-t-il entraîné Copilot de manière illicite sur du code open source qui n’était pas autorisé pour cela ? Et l’outil intègre-t-il illégalement dans le nouveau code des travaux protégés par des droits d’auteur d’autres personnes — qui ont été tirés des données d’entraînement ?

Butterick a critiqué Copilot dès le lancement de la fonctionnalité. En juin, il a publié un article dans lequel il argumentait que « tout code généré par Copilot peut cacher des violations de licence ou de droits d’auteur ». Il recommandait déjà de ne pas utiliser cette fonction.

Et, l’organisation Software Freedom Conservancy (SFC) avait déjà annoncé à l’époque qu’elle cesserait d’utiliser GitHub afin de ne pas se rendre vulnérable.

De réelles interrogations

Entre-temps, il s’est avéré que les craintes étaient justifiées. Tim Davis, professeur d’informatique et d’ingénierie à la Texas A & M University, s’est ainsi exprimé. Il avait constaté que Copilot reproduisait son code protégé par les droits d’auteur pour la transposition d’une matrice de sparse. Il a toutefois décidé dans un premier temps de prendre lui-même contact avec Microsoft.

Interrogés à ce sujet, Microsoft et GitHub n’ont pas réagi. Toutefois, le géant de la technologie est bien conscient des problèmes. La documentation GitHub avertit en effet que la sortie de code peut contenir des « modèles indésirables » et fait porter la responsabilité de la violation de la propriété intellectuelle à l’utilisateur de Copilot.

Tags : GitHubGitHub CopilotIAMicrosoft
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.