Selon des sources internes et des documents d’entreprise examinés par le Wall Street Journal, Apple a limité l’utilisation par ses employés de ChatGPT et d’outils de codage de l’IA tels que GitHub Copilot, de peur de divulguer des données confidentielles à des sources extérieures. Par ailleurs, Apple serait également en train de développer une technologie d’IA analogue.
ChatGPT est un modèle conversationnel de grand langage (LLM) développé par OpenAI, soutenu par Microsoft, qui est capable d’effectuer des tâches allant de la réponse à des questions à la rédaction d’essais, en passant par l’aide à la programmation. Actuellement, le modèle d’IA ChatGPT ne fonctionne que sur les serveurs d’OpenAI ou de Microsoft et est accessible par l’internet.
La décision d’Apple de limiter l’utilisation d’outils d’IA externes s’explique par la crainte que des données confidentielles ne soient exposées en raison de la nature de ces modèles d’IA, qui renvoient les données des utilisateurs aux développeurs pour qu’ils les traitent dans le cloud et les aident à améliorer les modèles d’IA à l’avenir.
OpenAI a déjà été confrontée à des problèmes de confidentialité avec ChatGPT lorsqu’un bug a permis à certains utilisateurs d’accéder à des informations provenant de l’historique des conversations d’autres utilisateurs. En réponse aux critiques de l’Italie, OpenAI a mis en place une option permettant aux utilisateurs de désactiver leur historique de chat, ce qui empêche également OpenAI d’entraîner de futurs modèles d’IA à l’aide de leurs données d’historique de chat.
Une tendance persistante
Apple est bien connu pour ses mesures de sécurité rigoureuses, et sa décision d’interdire l’utilisation d’outils d’IA externes reflète une tendance croissante au sein d’entreprises telles que Samsung et JPMorgan Chase. Le Wall Street Journal rapporte qu’Amazon a encouragé ses ingénieurs à utiliser ses propres outils d’IA (comme CodeWhisperer) pour l’aide au codage plutôt que des outils externes.
Pour répondre aux préoccupations des entreprises en matière de protection de la vie privée, Microsoft a récemment annoncé son intention de lancer une version de ChatGPT axée sur la protection de la vie privée et destinée aux banques, aux prestataires de soins de santé et à d’autres grandes organisations très préoccupées par les fuites de données et la conformité aux réglementations.
Cette version commerciale plus onéreuse de ChatGPT devrait fonctionner sur des serveurs dédiés, distincts de ceux utilisés par d’autres entreprises ou par des utilisateurs individuels, ce qui devrait permettre d’éviter les fuites de données involontaires et d’empêcher que des données sensibles soient utilisées pour entraîner le modèle de langage de l’IA. Malgré tout, il est douteux qu’un concurrent aussi prestigieux qu’Apple confie ses données confidentielles à Microsoft dans ces circonstances.
Développements internes d’Apple en matière d’IA
Le Wall Street Journal indique également qu’Apple travaille sur ses propres LLM sous la direction de John Giannandrea, un ancien employé de Google qui occupe désormais le poste de vice-président principal de l’apprentissage automatique et de la stratégie d’IA d’Apple.
Il est important de noter que si Apple a restreint l’utilisation de ChatGPT à ses employés, cette interdiction ne s’étend pas aux utilisateurs d’Apple.