fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Amazon Alexa : L’IA avant la confidentialité, le choix controversé d’Amazon

Echo Studio Shelf

Amazon s’apprête à supprimer une fonctionnalité essentielle de confidentialité d’Alexa. Dès le 28 mars, les utilisateurs d’Echo perdront l’option « Ne pas envoyer les enregistrements vocaux », ce qui signifie que toutes les interactions avec Alexa seront envoyées aux serveurs d’Amazon, sans possibilité de s’y opposer.

Dans un e-mail adressé aux utilisateurs d’Alexa, Amazon justifie cette décision par l’intégration croissante de l’IA générative dans son assistant vocal : « Nous souhaitons vous informer que la fonction “Ne pas envoyer les enregistrements vocaux” ne sera plus disponible à partir du 28 mars. Alors que nous continuons à étendre les capacités d’Alexa avec des fonctionnalités d’IA générative, nous avons décidé de ne plus prendre en charge cette option ».

Autrement dit, Amazon veut exploiter ces enregistrements pour entraîner son modèle d’IA, notamment Alexa+, sa toute première IA conversationnelle basée sur un LLM (Large Language Model).

ZGPBwgZ

Aucune option pour refuser, sauf arrêter d’utiliser Alexa

Contrairement à d’autres services d’IA comme ChatGPT, Gemini ou Perplexity, qui permettent à leurs utilisateurs de désactiver la collecte de données, Amazon impose ce changement sans alternative. Si vous souhaitez utiliser Alexa après le 28 mars, vous devrez accepter que vos enregistrements vocaux soient systématiquement envoyés et traités par Amazon.

Amazon assure que ces requêtes seront chiffrées et stockées dans son cloud sécurisé, mais cela n’atténue pas l’inquiétude des utilisateurs soucieux de leur vie privée.

Amazon mise tout sur Alexa+

Cette annonce s’inscrit dans la stratégie d’Amazon pour relancer Alexa, dont l’adoption a été plus compliquée que prévu ces dernières années. Avec Alexa+, l’entreprise cherche à concurrencer les assistants dopés à l’IA comme Google Gemini et Microsoft Copilot.

Cependant, cette suppression d’une option clé de confidentialité risque de créer un effet inverse en incitant les utilisateurs soucieux de leur vie privée à abandonner complètement Alexa.

Alexa devrait-elle continuer à offrir une option de désactivation des enregistrements vocaux ? Partagez votre avis dans les commentaires !

Lire plus
Intelligence Artificielle

Apple : Siri retardé à 2026, Ming-Chi Kuo critique le manque de transparence de Tim Cook

Apple : Siri retardé à 2026, Ming-Chi Kuo critique le manque de transparence de Tim Cook

L’attente autour du Siri boosté à l’intelligence artificielle d’Apple s’éternise. Annoncée en grande pompe lors de la WWDC 2024, la nouvelle version de Siri devait révolutionner l’assistant vocal en le rendant plus intelligent, plus contextuel et plus performant. Mais récemment, Apple a confirmé ce que beaucoup redoutaient : ces fonctionnalités ne seront pas disponibles avant 2026.

Si le retard est déjà une déception, la façon dont Apple gère cette crise l’est encore plus. C’est en tout cas l’avis de Ming-Chi Kuo, analyste réputé et fin connaisseur de l’écosystème Apple. Selon lui, Tim Cook aurait dû gérer cette crise comme Steve Jobs avait géré l’« Antennagate » de l’iPhone 4 en 2010, en étant transparent et en proposant des solutions concrètes.

Kuo critique la manière dont Apple a annoncé le report : par un simple communiqué de presse. Pour lui, c’était une erreur. Il estime que Tim Cook aurait dû prendre la parole publiquement, expliquer la situation aux clients et actionnaires, et surtout offrir une solution ou une compensation.

L’analyste compare cette situation à l’Antennagate de l’iPhone 4, qui souffrait d’un problème de connexion lorsque les utilisateurs le tenaient de la main gauche. À l’époque, Steve Jobs avait assumé l’erreur, organisé une conférence de presse et offert gratuitement des coques de protection aux utilisateurs concernés.

Aujourd’hui, selon Kuo, Apple aurait dû adopter une approche similaire en expliquant clairement pourquoi Siri sous Apple Intelligence est retardé et ce que l’entreprise compte faire pour compenser l’attente.

Apple Intelligence pour Siri : Un projet trop ambitieux pour Apple ?

Bien que critique, Kuo reconnaît que développer une IA aussi avancée que celle promise par Apple n’est pas une tâche facile. Il explique que l’entreprise a probablement cédé à la pression du marché et des actionnaires, annonçant un produit qui n’était pas encore prêt à être déployé.

D’un côté, Apple devait répondre à la montée en puissance de Samsung et Google, qui intègrent déjà des fonctionnalités basées sur l’IA dans leurs smartphones. De l’autre, l’entreprise voulait se démarquer en proposant une expérience unique et bien plus sophistiquée.

Mais, en repoussant à 2026 un Siri véritablement intelligent, Apple laisse ses utilisateurs dans une situation inconfortable. Ceux qui ont acheté un iPhone 16 en pensant bénéficier d’Apple Intelligence se retrouvent avec un appareil qui n’exploitera pas pleinement ses promesses avant plusieurs années.

Siri Apple Intelligence

Vers un fiasco à la Antennagate ?

La comparaison de Kuo avec l’Antennagate soulève une question intéressante : Apple devrait-il permettre aux utilisateurs de retourner leur iPhone 16 en raison du retard de Siri ?

Si l’analyste ne va pas jusque-là, il sous-entend que les clients ont été trompés par une promesse qui ne sera pas tenue à court terme. Apple devra-t-il proposer une compensation pour éviter une vague de mécontentement ?

Pour l’instant, la marque reste silencieuse. Mais avec Samsung et Google qui avancent rapidement sur l’IA mobile, Apple ne pourra pas se permettre de rester en retrait trop longtemps. En attendant, les utilisateurs devront se contenter d’un Siri inchangé et espérer qu’Apple tiendra enfin ses promesses d’ici 2026.

Lire plus
Intelligence Artificielle

Apple : Une réunion interne révèle l’ampleur des difficultés avec Siri et Apple Intelligence

apple iphone 16 v3

Apple fait face à une tempête médiatique concernant les retards de Siri et de ses avancées en intelligence artificielle (IA). Après avoir promis en juin dernier une modernisation majeure de Siri, l’entreprise a officiellement reporté ces fonctionnalités à une date inconnue.

Et d’après une récente réunion interne, Apple lui-même ne sait pas encore quand elles seront prêtes.

Bloomberg rapporte que Apple a organisé une réunion de crise au sein de l’équipe Siri, dirigée par Robby Walker, directeur principal de la division. Lors de cette rencontre, il a qualifié la situation d’« ugly » (affreuse) et reconnu que les employés étaient frustrés et épuisés face à ces décisions et aux lacunes persistantes de Siri.

L’objectif officiel d’Apple est d’intégrer ces fonctionnalités à iOS 19, mais selon Walker, cela n’est absolument pas garanti. Il a précisé que d’autres projets internes plus urgents ont obligé Apple à revoir ses priorités, retardant encore davantage l’amélioration de Siri.

Un conflit entre l’équipe Siri et le marketing d’Applex

Cette réunion a aussi révélé une tension entre l’équipe Siri et le département marketing. Walker a expliqué que la communication d’Apple avait mis en avant des fonctionnalités qui n’étaient pas prêtes, notamment la compréhension du contexte personnel et l’interprétation des éléments affichés à l’écran.

Cette surpromesse a généré de fausses attentes chez les utilisateurs, aggravant la situation. Apple a depuis supprimé une publicité de l’iPhone 16 qui mettait en avant ces fonctionnalités et a ajouté des avertissements sur son site web, précisant que ces améliorations n’étaient pas prêtes.

D’après Mark Gurman, les tests internes ont révélé que ces nouveautés ne fonctionnaient correctement que deux fois sur trois, ce qui a poussé Apple à les reporter pour éviter une expérience décevante.

Un aveu d’échec de la direction

Lors de la réunion, Craig Federighi (vice-président de l’ingénierie logicielle) et John Giannandrea (responsable de l’IA chez Apple) ont pris la responsabilité de cette situation. Walker a affirmé que ces dirigeants prenaient cet échec très au sérieux et faisaient tout pour accélérer le développement.

Cependant, il a insisté sur le fait que Apple préfère livrer un produit finalisé, plutôt que de proposer des fonctionnalités bâclées, comme l’ont fait certains concurrents. « Les clients attendent non seulement ces nouvelles fonctionnalités, mais aussi un Siri beaucoup plus performant dans son ensemble. Nous les lancerons dès qu’elles seront prêtes ».

Pour l’instant, Apple ne donne aucune nouvelle échéance et tente de calmer les critiques en interne comme en externe. Mais le temps presse : face à Google Gemini et Microsoft Copilot, Apple risque de perdre du terrain dans la course à l’IA.

Lire plus
Intelligence Artificielle

Google Assistant : Disparition confirmée en 2025, place à Gemini !

Google Assistant : Disparition confirmée en 2025, place à Gemini !

C’est officiel : Google Assistant va tirer sa révérence en 2025, laissant place à Gemini, la nouvelle IA de Google. L’entreprise a progressivement introduit Gemini sur les nouveaux smartphones Android et s’apprête désormais à remplacer complètement Assistant.

Google Assistant a été annoncé en 2016 et bien que Google pense qu’il s’agit d’un assistant capable, la société a entendu des gens dire qu’ils voulaient un compagnon plus personnalisé qui peut les aider à faire plus de choses. Gemini est un assistant d’IA qui a été conçu à partir de zéro avec une compréhension du langage et un raisonnement avancés.

Quand Google Assistant disparaîtra-t-il ?

Google prévoit de désactiver Google Assistant sur la plupart des appareils mobiles d’ici la fin de 2025. Gemini est déjà installé par défaut sur les nouveaux modèles Pixel, Samsung, OnePlus et Motorola, mais jusqu’à présent, le passage à Gemini était optionnel.

Désormais, les utilisateurs recevront une notification les invitant à basculer sur Gemini, et l’option pour revenir à Google Assistant disparaîtra. De plus, l’application Google Assistant ne sera plus disponible en téléchargement sur le Play Store.

Seuls les appareils sous Android 9 ou inférieur avec moins de 2 Go de RAM pourront continuer à utiliser Google Assistant.

Google Assistant Gemini

Google Assistant remplacé partout : smartphones, tablettes, voitures et objets connectés

L’arrêt de Google Assistant ne concerne pas que les smartphones. Google prévoit également de migrer tous ses autres produits vers Gemini, notamment :

  • Tablettes
  • Systèmes embarqués dans les voitures (Android Auto, Google Maps)
  • Appareils connectés : écouteurs, montres Wear OS, TV et enceintes connectées

Google assure que l’Assistant restera fonctionnel sur ces appareils le temps d’adapter Gemini, mais qu’il finira par être totalement remplacé.

Gemini : Une IA vraiment plus performante que Google Assistant ?

Le remplacement de Google Assistant par Gemini suscite beaucoup d’interrogations. Officiellement, Gemini est censé être une IA plus avancée et plus performante, capable d’interpréter des requêtes complexes et d’offrir des réponses plus naturelles.

Toutefois, des études récentes ont montré que les chatbots comme Gemini peuvent être « confiants, mais incorrects » dans 74 % des cas. Contrairement à Google Assistant, qui s’appuie sur des sources vérifiées, Gemini génère des réponses à partir de modèles d’IA entraînés sur des données du web — un risque majeur en termes de fiabilité.

Quel avenir pour Google et ses IA ?

Google mise tout sur Gemini pour contrer ChatGPT (OpenAI) et Copilot (Microsoft). Mais pour convaincre les utilisateurs, il devra :

  • Améliorer la fiabilité de Gemini
  • Assurer une transition fluide pour les anciens utilisateurs de Google Assistant
  • Proposer une meilleure intégration avec les services Google et les objets connectés

D’ici là, si vous êtes un utilisateur régulier de Google Assistant, préparez-vous à un changement radical en 2025 ! Depuis l’introduction de l’application Gemini l’année dernière, Google l’a améliorée de plusieurs façons et a ajouté des fonctionnalités que les gens aimaient dans Google Assistant. Cela devrait théoriquement faciliter la transition.

Que pensez-vous de la disparition de Google Assistant au profit de Gemini ? Bonne ou mauvaise nouvelle ?

Lire plus
Intelligence Artificielle

Google Gemini : Deep Research offert à tous, les détails de cette mise à jour majeure

Google Gemini : Deep Research offert à tous, les détails de cette mise à jour majeure

Google continue d’améliorer Gemini, son chatbot IA, en rendant désormais accessible à tous l’une de ses fonctionnalités les plus avancées : Deep Research.

Lancée l’année dernière sur la version Web de Gemini, cette fonctionnalité permet d’effectuer des recherches approfondies et en temps réel sur presque n’importe quel sujet. Jusqu’à présent, Deep Research était réservé aux abonnés Gemini Advanced, mais il est maintenant déployé pour tous les utilisateurs avec la dernière mise à jour de Gemini.

Qu’est-ce que « Deep Research » dans Gemini ?

Deep Research est un outil qui facilite les recherches complexes, en automatisant plusieurs étapes :

  • Planification : analyse du sujet et des sources pertinentes
  • Exploration : recherche d’informations à jour sur le web
  • Analyse : croisement des données et mise en perspective
  • Synthèse : création d’un rapport détaillé et structuré

Désormais, tous les utilisateurs de Gemini peuvent accéder à cet outil sans abonnement payant.

Comment l’utiliser ?

  1. Accédez à Gemini sur le web ou mobile
  2. Sélectionnez « Deep Research » dans la barre de prompt ou le menu déroulant du modèle

Screen 2025 03 13 at 21.23.54

Une amélioration grâce à Gemini 2.0 Flash Thinking

Google a également amélioré Deep Research en l’intégrant à son modèle IA Gemini 2.0 Flash Thinking Experimental. Cette mise à jour permet :

  • Une meilleure compréhension et structuration des recherches
  • Des rapports multi-pages plus détaillés et perspicaces
  • Une transparence accrue, avec affichage en temps réel du raisonnement de Gemini pendant qu’il explore le web

Deep Research est disponible en plus de 45 langues et devient un atout majeur pour les étudiants, journalistes, chercheurs et professionnels ayant besoin d’informations fiables et bien organisées.

À noter : La version gratuite de Deep Research pourrait avoir un quota journalier limité, mais Google n’a pas encore précisé ce seuil.

Autres mises à jour de Gemini annoncées par Google

En plus de Deep Research, Google a confirmé trois autres nouveautés pour Gemini :

  • Intégration avec Google Photos
  • Nouvelle personnalisation de Gemini grâce à l’historique de recherche Google
  • Extension des « Gems » à tous les utilisateurs (chatbots personnalisés pour des tâches spécifiques)

Avec cette mise à jour, Google fait un pas vers la démocratisation des outils IA avancés et améliore l’accessibilité de Gemini.

Lire plus
Intelligence Artificielle

Comment activer et utiliser la personnalisation de Google Gemini ?

Comment activer et utiliser la personnalisation de Google Gemini ?

Google continue d’affiner son assistant IA Gemini, en lui ajoutant une nouvelle fonctionnalité clé : « Gemini avec personnalisation ». Cette mise à jour rapproche encore plus Gemini de son rôle de véritable assistant personnel, en s’éloignant de Google Assistant.

Avec cette évolution, Gemini devient plus intelligent et plus pertinent en adaptant ses réponses en fonction de vos interactions avec Google Search et, bientôt, d’autres applications Google.

Qu’est-ce que « Gemini avec personnalisation » ?

Cette nouvelle fonction, propulsée par le modèle expérimental Gemini 2.0 Flash Thinking, permet à Gemini d’exploiter votre historique de recherche Google (si vous lui accordez l’autorisation) pour personnaliser ses réponses.

Par exemple :

  • Restaurants : Si vous demandez une recommandation, Gemini pourra suggérer des établissements en fonction de ceux que vous avez récemment cherchés.
  • Voyages : Vous souhaitez une destination ? Gemini prendra en compte les lieux que vous avez consultés auparavant.
  • Idées créatives : Vous cherchez des idées de contenu ou des recommandations personnalisées ? Gemini pourra affiner ses suggestions.

Selon Google, les premiers testeurs trouvent cette personnalisation utile pour le brainstorming et la recommandation de contenus adaptés à leurs préférences.

Vie privée et contrôle des données

Connect to Seach history ALT.width 1000.format webp 1

L’accès de Gemini à votre historique de recherche soulève forcément des questions de confidentialité. Cependant, Google insiste sur le contrôle total qu’ont les utilisateurs sur leurs données :

  • Activation manuelle : Vous devez activer vous-même cette fonction dans l’application Gemini.
  • Bannière d’information : Une notification claire vous indiquera quand Gemini utilise votre historique de recherche.
  • Déconnexion facile : Vous pourrez désactiver cette connexion à tout moment.
  • Autorisation requise : Gemini ne pourra consulter votre historique qu’avec votre consentement explicite et si votre activité Web et Apps est activée.

Google précise que l’IA ne puisera dans votre historique que si cela améliore réellement ses réponses.

Comment activer la personnalisation dans Gemini ?

Si vous souhaitez tester cette nouvelle fonctionnalité :

  1. Ouvrez l’application Gemini
  2. Accédez au menu des modèles
  3. Sélectionnez « Personnalisation (expérimental) »

GwP dropdown.width 1000.format webp

Une fois activée, Gemini analysera vos requêtes et décidera si utiliser votre historique de recherche peut enrichir ses réponses.

Disponibilité et déploiement

  • Actuellement réservé aux utilisateurs de Gemini et Gemini Advanced sur le web
  • Bientôt disponible sur mobile
  • Supporte plus de 40 langues et accessible dans la plupart des pays

Disconnect ALT 1.width 1000.format webp

Google prévoit également d’étendre cette personnalisation à d’autres services comme YouTube, Photos et Maps, rendant Gemini encore plus utile pour des recommandations adaptées à vos usages.

Avec ces mises à jour, Google fait un pas de plus vers un assistant IA plus personnel et intégré. Mais la question de l’exploitation des données privées reste cruciale.

Que pensez-vous de cette évolution ? Prêt(e) à tester Gemini avec personnalisation ou trop intrusif pour vous ?

Lire plus
Intelligence Artificielle

Google Gemini : Personnalisation via l’historique, Gemini Flash 2.0 et Gems accessibles à tous

03.13 Moment Still v05 Opt01.wid

Google continue d’améliorer son IA conversationnelle Gemini, en ajoutant plusieurs fonctionnalités majeures destinées à rendre l’expérience utilisateur plus fluide et plus personnalisée. Ces mises à jour concernent aussi bien les utilisateurs gratuits que ceux de Gemini Advanced.

Parmi les nouveautés phares : la possibilité d’analyser votre historique de recherche pour offrir des réponses personnalisées, une extension à d’autres applications, comme Google Photos et Notes, et une IA encore plus puissante.

Une IA qui apprend de vos recherches : le mode « Gemini avec personnalisation »

L’une des nouveautés les plus marquantes est « Gemini avec personnalisation », une version améliorée du modèle Gemini 2.0. Ce mode expérimental permet à l’IA d’analyser votre historique de recherche afin de personnaliser ses réponses.

Pour l’activer, il suffit de sélectionner « Personnalisation (expérimental) » dans le menu des modèles de l’application Gemini. Une fois activé, l’IA évaluera si l’intégration de votre historique de recherche peut affiner ses réponses.

Par exemple, si vous demandez à Gemini des idées de destinations de voyage et que vous avez récemment recherché le prix des billets d’avion pour Porto Rico, l’IA pourrait vous suggérer cette destination ou d’autres options dans les Caraïbes.

Google indique que cette fonctionnalité est particulièrement utile pour :

  • Le brainstorming, notamment pour des idées de contenu YouTube.
  • Les recommandations personnalisées, que ce soit pour des voyages, des hobbies ou des choix de carrière.

Google prévoit également d’étendre cette personnalisation en intégrant d’autres services, comme Google Photos et YouTube dans les mois à venir.

Respect de la vie privée

La personnalisation est entièrement optionnelle, et Google assure avoir mis en place plusieurs garde-fous :

  • L’IA n’utilisera votre historique que si vous activez la fonction manuellement.
  • Une bannière dans la fenêtre de discussion signalera quand l’historique est utilisé, avec un lien rapide pour le désactiver.
  • Vous pouvez également demander à Gemini de se baser sur vos conversations précédentes pour améliorer ses réponses.

Gemini Flash 2.0 : Plus de performance et de raisonnement avancé

Google a également annoncé que le modèle « Gemini 2.0 Flash Thinking », encore en phase expérimentale, est désormais disponible pour tous les utilisateurs.

Quelles améliorations ?

  • Un meilleur raisonnement multi-étapes, similaire aux modèles avancés de ChatGPT.
  • Une meilleure gestion des fichiers, avec la possibilité d’uploader des documents pour des analyses plus précises.
  • Une intégration plus poussée avec des services comme YouTube et Google Maps.

Pour les utilisateurs Gemini Advanced, une grande nouveauté est l’extension de la fenêtre de contexte à 1 million de tokens. Cette mise à jour permet à l’IA de traiter des quantités massives d’informations en une seule interaction, ce qui améliore considérablement sa précision pour les tâches de recherche et d’analyse complexes.

Les « Gems » désormais accessibles à tous

Enfin, Google généralise l’accès aux « Gems », une fonctionnalité qui était jusqu’ici réservée aux utilisateurs Gemini Advanced.

Qu’est-ce que les « Gems » ?

Ce sont des versions personnalisées de Gemini, qui peuvent être configurées comme des experts en IA spécialisés sur un sujet précis.

Cela fonctionne comme les GPT de ChatGPT, où vous pouvez pré-entraîner une version de Gemini à répondre d’une manière spécifique selon vos besoins (par exemple, en tant qu’expert en programmation, nutritionniste ou conseiller en voyage).

Quand et comment accéder à ces nouvelles fonctionnalités ?

Toutes ces mises à jour sont en cours de déploiement, mais Google précise qu’elles pourraient prendre un peu de temps avant d’être disponibles pour tous les utilisateurs.

Si vous ne voyez pas encore ces options, patience, elles devraient bientôt apparaître dans votre application Gemini !

Avec ces améliorations, Gemini devient bien plus qu’un simple chatbot :

  • Il comprend et apprend de vos habitudes pour offrir des réponses ultra-personnalisées.
  • Il s’intègre mieux à l’écosystème Google et aux apps tierces.
  • Il gagne en rapidité et en précision, grâce à son nouveau modèle d’IA et son immense contexte de 1 million de tokens.

Que pensez-vous de ces améliorations ? Êtes-vous prêt à tester Gemini avec la personnalisation activée ?

Lire plus
Intelligence Artificielle

Google DeepMind : Gemini Robotics, une IA révolutionnaire pour les robots polyvalents

Google DeepMind : Gemini Robotics, une IA révolutionnaire pour les robots polyvalents

Google DeepMind a récemment levé le voile sur deux nouveaux modèles d’intelligence artificielle dédiés à la robotique, baptisés Gemini Robotics et Gemini Robotics-ER. Ces modèles visent à révolutionner la manière dont les robots perçoivent et interagissent avec le monde physique.

Avec ces avancées, Google espère transformer les robots en véritables assistants polyvalents, capables d’exécuter des tâches complexes avec plus de précision et de sécurité que jamais auparavant.

Un pas de géant vers l’IA embarquée pour robots

Les nouvelles solutions de Google DeepMind s’appuient sur la base du modèle de langage avancé Gemini 2.0, mais ajoutent des fonctionnalités spécifiques à la robotique. Gemini Robotics introduit un système combinant vision, langage et action, permettant aux robots de comprendre les commandes vocales, d’analyser leur environnement en temps réel et d’effectuer des mouvements précis.

De son côté, Gemini Robotics-ER se concentre sur le raisonnement spatial et l’intégration avec les systèmes de contrôle robotiques existants. Ce modèle avancé ouvre la voie à des machines capables de s’adapter aux environnements dynamiques et de prendre des décisions en fonction du contexte.

Par exemple, un robot équipé de Gemini Robotics pourra reconnaître un objet, comme une banane, et la placer dans un panier sur commande vocale. De même, il pourra exécuter des tâches plus complexes comme plier un origami en suivant les principes de cette technique délicate.

Des capacités de manipulation accrues

L’un des principaux défis de la robotique réside dans l’exécution de tâches physiques complexes nécessitant une grande dextérité. En 2023, Google avait dévoilé RT-2, une IA capable d’adapter ses mouvements en fonction des commandes vocales. Cependant, ce modèle était limité à des gestes qu’il avait déjà appris, ce qui restreignait son application dans des scénarios imprévus.

Avec Gemini Robotics, Google affirme avoir franchi un cap décisif. La nouvelle IA permet désormais aux robots de réaliser des tâches nécessitant une manipulation fine, comme emballer des snacks dans des sachets refermables ou plier du papier avec précision.

Des robots plus intelligents et plus autonomes grâce à Gemini Robotics

L’un des aspects les plus prometteurs de Gemini Robotics est sa capacité à généraliser ses compétences. Google affirme que son modèle double les performances des meilleurs systèmes de vision-langage-action existants. Cette faculté de généralisation est essentielle pour que les robots puissent s’adapter à des environnements inconnus sans entraînement préalable.

Pour illustrer son ambition, Google DeepMind a annoncé un partenariat avec la startup américaine Apptronik afin de concevoir une nouvelle génération de robots humanoïdes basés sur Gemini 2.0. La technologie a été entraînée sur une plateforme bimanuale appelée ALOHA 2, mais elle est également compatible avec d’autres types de robots, y compris les bras robotiques Franka et les humanoïdes Apollo d’Apptronik.

L’intégration de l’intelligence artificielle dans les robots soulève des questions de sécurité majeures. Pour répondre à ces préoccupations, Google a mis en place une approche de sécurité multicouche comprenant des protocoles de prévention des collisions et des limitations de force pour éviter des accidents.

DeepMind s’inspire également d’Isaac Asimov et de ses célèbres Trois Lois de la Robotique en développant un cadre appelé « Robot Constitution ». De plus, l’entreprise a conçu un ensemble de tests de sécurité baptisé ASIMOV, destiné à mesurer les implications des actions robotiques dans le monde réel.

Vers une révolution de la robotique ?

Google n’a pas encore précisé quand ni comment ces nouvelles IA seront disponibles commercialement. Pour l’instant, Gemini Robotics reste en phase de recherche, bien que des entreprises comme Boston Dynamics, Agility Robotics et Enchanted Tools aient déjà accès à Gemini Robotics-ER via un programme de test restreint.

Alors que de nombreuses entreprises comme Meta, Tesla, Figure AI et Boston Dynamics travaillent sur le matériel des robots humanoïdes, Google cherche à fournir une intelligence artificielle capable d’en tirer pleinement parti. Si Gemini Robotics parvient à tenir ses promesses, nous pourrions bientôt voir des robots capables d’assister les humains dans une multitude de tâches complexes avec une précision et une autonomie inédites.

Lire plus
Intelligence Artificielle

Apple Intelligence : Un retard majeur confirmé, les fonctionnalités phares repoussées à 2025

Apple Intelligence : Un retard majeur confirmé, les fonctionnalités phares repoussées à 2025

Apple a discrètement confirmé la semaine dernière un retard majeur dans le lancement de l’une des fonctionnalités phares d’Apple Intelligence. Désormais, cette décision est plus officielle, l’entreprise ayant ajouté un avertissement sur son site Web.

Présenté en juin dernier, Apple Intelligence devait marquer une révolution pour Siri, améliorant considérablement sa compréhension du contexte et son interaction avec les applications.

Cependant, Apple a récemment déclaré : « Il nous faudra plus de temps que prévu pour déployer ces fonctionnalités, et nous anticipons leur arrivée dans le courant de l’année prochaine ».

Jusqu’à récemment, cette information n’apparaissait pas sur l’Apple Store en ligne. Mais désormais, les pages officielles précisent que : « La compréhension du contexte personnel par Siri, la reconnaissance de l’écran et les actions dans les applications sont en développement et seront disponibles dans une future mise à jour logicielle ».

Cette mise à jour de la communication d’Apple confirme que certaines des fonctionnalités les plus attendues ne seront pas disponibles avant fin 2025, voire 2026.

Apple Intelligence, un déploiement progressif mais chaotique

Depuis son annonce lors de la WWDC 2023, l’intelligence artificielle d’Apple devait être progressivement déployée. Voici un aperçu du calendrier :

  • Septembre 2024 : Sortie d’iOS 18, iPadOS 18 et macOS Sequoia avec quelques fonctionnalités d’Apple Intelligence.
  • Octobre — Décembre 2024 : Ajout progressif de certaines améliorations avec iOS 18.1 et macOS 15.1.
  • 2025 et au-delà : Déploiement des fonctionnalités avancées, y compris l’intégration complète de Siri avec Apple Intelligence.

Apple Intelligence Siri.jpg.larg

Mais un problème majeur subsiste : Apple Intelligence n’est toujours pas disponible en Europe en raison des réglementations strictes du DMA (Digital Markets Act).

Pourquoi Apple prend du retard ?

  • Complexité du développement : Apple a du mal à finaliser des fonctionnalités qui doivent analyser le contexte personnel de l’utilisateur sans compromettre la confidentialité.
  • Réglementations européennes : Apple Intelligence doit se conformer aux lois sur la protection des données, retardant son arrivée sur certains marchés.
  • Compétition avec Google : Pendant qu’Apple retarde ses fonctionnalités, Google accélère avec Gemini, intégrant rapidement de nouvelles capacités IA dans Android et ses services.

Un handicap face à Google et OpenAI ?

Alors qu’Apple prend son temps, ses concurrents multiplient les innovations :

  • Google Gemini : Déjà intégré aux Pixel et à plusieurs services Google.
  • Samsung Galaxy AI : Fonctionnalités avancées d’IA embarquées dans les Galaxy S24.
  • OpenAI et Microsoft : Amélioration continue de Copilot et de ChatGPT avec des modèles ultra-performants.

Le retard d’Apple Intelligence pourrait être un coup dur pour la marque, notamment sur le marché européen, où les utilisateurs risquent de se tourner vers des alternatives plus avancées.

Apple Intelligence devait révolutionner Siri et l’écosystème Apple, mais son déploiement est désormais incertain. Si Apple ne veut pas se laisser distancer par Google, Microsoft et OpenAI, l’entreprise devra accélérer ses efforts et garantir une sortie avant fin 2025.

Pensez-vous qu’Apple arrivera à rattraper son retard en IA face à la concurrence ?

Lire plus
Intelligence Artificielle

Google Gemma 3 : Un petit modèle IA qui rivalise avec les LLM, découvrez les nouveautés

Google Gemma 3 : Un petit modèle IA qui rivalise avec les LLM, découvrez les nouveautés

Alors que les modèles d’IA de grande envergure, comme les LLM (Large Language Model), dominent encore le marché, de plus en plus d’entreprises se tournent vers des modèles plus petits et plus économes en énergie. Google poursuit cette tendance avec le lancement de Gemma 3, une nouvelle génération de petits modèles linguistiques (SLM) offrant une alternative performante aux LLM tout en réduisant les coûts de calcul.

Gemma 3 : plus rapide, plus puissant, plus polyvalent

Conçu pour fonctionner sur des appareils plus modestes, comme les smartphones et les ordinateurs portables, Gemma 3 bénéficie d’importantes améliorations par rapport à ses prédécesseurs.

  • Quatre tailles disponibles : 1B, 4B, 12B et 27B paramètres
  • Fenêtre de contexte élargie : 128K tokens (contre 80K pour Gemma 2)
  • Support multimodal : comprend le texte, les images et les courtes vidéos
  • 140 langues supportées
  • Fonction calling et automation : facilite l’intégration dans des workflows IA autonomes

Avec ces mises à jour, Google souhaite faire de Gemma 3 un modèle de référence capable de rivaliser avec des modèles plus massifs comme Llama-405B, DeepSeek-V3 et o3-mini.

Une puissance d’analyse optimisée et accessible

Chatbot Arena ELO Score.width 10

Gemma 3 offre des performances exceptionnelles pour sa taille, notamment grâce à une version quantifiée, qui permet de réduire la précision des valeurs numériques des poids du modèle sans sacrifier la qualité des résultats.

  • Optimisation pour une exécution sur un seul GPU ou TPU
  • Meilleur rapport puissance/précision parmi les modèles SLMs
  • Deuxième meilleure performance au test Chatbot Arena Elo, juste derrière DeepSeek-R1

Grâce à cette quantification, les développeurs peuvent exécuter Gemma 3 sur des infrastructures plus légères, sans avoir besoin de serveurs massifs.

Intégration simplifiée pour les développeurs

Google a conçu Gemma 3 pour s’adapter aux outils IA les plus utilisés du marché, notamment : Hugging Face Transformers, Ollama, JAX, Keras, PyTorch et Google AI Studio, Kaggle. Les entreprises et les développeurs peuvent accéder à l’API de Gemma 3 via Google AI Studio.

Afin de garantir une utilisation responsable du modèle, Google a intégré ShieldGemma 2, un module de vérification d’images de 4B paramètres conçu pour bloquer les contenus inappropriés (violence, nudité, etc.).

  • Alignement avec les politiques de sécurité de Google
  • Évaluations spécifiques sur les risques potentiels en sciences et en création de substances dangereuses
  • Possibilité de personnaliser ShieldGemma 2 selon les besoins des utilisateurs

Les petits modèles IA : une tendance de fond

Depuis le lancement de Gemma en février 2024, la demande pour des modèles SLM performants et économes n’a cessé de croître. Google n’est pas le seul acteur à investir dans ce domaine :

  • Microsoft a dévoilé son propre modèle compact, Phi-4
  • Mistral AI propose Mistral Small 3, un SLM optimisé
  • Meta, OpenAI et DeepSeek développent des modèles plus petits et optimisés

Bien que Gemma ne soit pas une simple distillation de Gemini 2.0, il partage certaines similitudes architecturales et s’appuie sur le même ensemble de données. L’objectif de Google est clair : offrir des performances de niveau LLM dans un format plus agile et moins coûteux.

Avec Gemma 3, Google affirme sa volonté de démocratiser l’accès à des modèles IA avancés, tout en maîtrisant les coûts énergétiques et informatiques. Que ce soit pour les smartphones, les ordinateurs portables ou les applications embarquées, ce modèle s’annonce comme un allié de choix pour les entreprises et les développeurs cherchant une IA rapide, efficace et sécurisée.

Reste à voir comment il se positionnera face à ses concurrents, notamment OpenAI et DeepSeek, dans les mois à venir.

Lire plus
Intelligence Artificielle

Google Gemini : Analyse de vidéos en local bientôt disponible, une avancée face à ChatGPT ?

IO24 WhatsInAName Hero 1.width 1

Google travaille sur une nouvelle fonctionnalité pour son assistant IA Gemini, qui permettrait aux utilisateurs d’uploader et d’analyser des vidéos directement depuis leur PC ou smartphone. Actuellement, Gemini peut analyser des vidéos uniquement via un lien URL, mais cette mise à jour pourrait lui donner un sérieux avantage face à ChatGPT, qui propose déjà cette option.

C’est en fouillant dans le code source de l’APK bêta de l’application Google (version 16.9.39.sa.arm64) que Android Authority a découvert des références comme :

  • « attached video file » (fichier vidéo joint)
  • « play video file » (lire un fichier vidéo)
  • « video file length » (durée du fichier vidéo)

Bien que la fonctionnalité ne soit pas encore active, Android Authority a pu tester l’upload d’une vidéo dans Gemini, sans que celui-ci ne puisse l’analyser ou la lire. Cela indique que Google est en phase de test et que cette option pourrait être activée dans une prochaine mise à jour.

Gemini vs ChatGPT : Google veut rattraper son retard

Actuellement, ChatGPT permet déjà d’uploader des vidéos et d’en obtenir un résumé ou une analyse. Google cherche donc à combler cet écart pour offrir des fonctionnalités similaires.

Pourquoi c’est important ?

  • Un atout pour les créateurs de contenu : Obtenir un résumé rapide d’une vidéo sans avoir à la regarder en entier.
  • Gain de temps : Résumer des conférences, cours en ligne ou réunions enregistrées en quelques secondes.
  • Accessibilité : Aider les personnes malentendantes ou ayant des difficultés à suivre un contenu vidéo.

Quand cette fonctionnalité sera-t-elle disponible ?

Pour l’instant, Google n’a fait aucune annonce officielle. Cependant, le fait que le code soit déjà intégré dans la version bêta suggère que le lancement pourrait être imminent. Google pourrait activer cette fonction progressivement, comme il l’a fait avec d’autres outils basés sur l’IA, et la rendre disponible aux utilisateurs de Gemini Advanced en priorité.

Et vous, attendez-vous cette fonctionnalité avec impatience ?

Lire plus
Intelligence Artificielle

Meta développe son propre processeur IA pour réduire sa dépendance à NVIDIA

Meta développe son propre processeur IA pour réduire sa dépendance à NVIDIA

Alors que de nombreuses entreprises cherchent à développer leurs propres technologies pour gagner en autonomie et réduire leurs coûts, Meta s’engage désormais sur cette voie avec le développement de son propre processeur d’entraînement IA. L’entreprise serait actuellement en phase de test pour ce nouveau chipset dédié, visant à remplacer progressivement les GPU de NVIDIA utilisés jusqu’à présent pour entraîner ses modèles d’intelligence artificielle.

D’après un rapport de Reuters, Meta a déjà finalisé la conception de sa puce d’entraînement IA maison et est actuellement en phase de test avec un déploiement à petite échelle. Ce processeur, conçu pour exécuter des tâches spécifiques liées à l’intelligence artificielle, permettrait à l’entreprise de réduire ses coûts et de gagner en efficacité énergétique.

Meta aurait déjà effectué le « tape-out », une étape clé dans le développement des semi-conducteurs qui signifie que la conception finale de la puce a été soumise pour fabrication. L’entreprise prévoit d’intégrer cette nouvelle technologie d’ici 2026 pour entraîner ses futurs modèles IA et réduire sa dépendance aux solutions de NVIDIA.

Meta, vers une indépendance technologique face à NVIDIA

Depuis plusieurs années, NVIDIA domine le marché des puces IA, avec des GPU ultra-performants utilisés par des entreprises comme OpenAI, Microsoft, Google et bien sûr Meta. Ces puces sont essentielles pour entraîner et exécuter des modèles d’apprentissage automatique, notamment pour le développement des modèles de langage avancés et des algorithmes de recommandations utilisés sur les plateformes de Meta (Facebook, Instagram, WhatsApp).

Mais en développant ses propres processeurs, Meta cherche avant tout à réduire ses coûts d’infrastructure. Les GPU de NVIDIA sont des puces polyvalentes et coûteuses, alors que la puce de Meta serait spécifiquement optimisée pour ses propres besoins IA, ce qui lui permettrait de gagner en efficacité énergétique et en performance.

Ce mouvement s’inscrit dans une tendance plus large où plusieurs géants de la tech tentent de s’émanciper de fournisseurs externes coûteux. Google, par exemple, a développé ses TPU (Tensor Processing Unit) pour accélérer l’apprentissage machine, tandis qu’Apple conçoit ses propres puces de traitement IA pour ses iPhone et Mac.

L’IA, une priorité stratégique pour Meta

Ce développement s’inscrit dans la stratégie globale de Meta, qui mise massivement sur l’intelligence artificielle pour améliorer ses plateformes et optimiser ses algorithmes de recommandations. Le PDG Mark Zuckerberg a récemment annoncé un recentrage des investissements vers l’IA, quitte à réduire les effectifs de l’entreprise. En 2024, 5 % des employés jugés « moins performants » ont été licenciés pour réallouer les ressources vers l’innovation IA.

Par ailleurs, Meta organise Llamacon, un événement dédié à son intelligence artificielle open source Llama, où l’entreprise devrait révéler de nouvelles avancées dans le domaine.

Si Meta parvient à finaliser avec succès son chipset d’entraînement IA, l’entreprise rejoindra les rangs des géants qui développent leurs propres solutions matérielles. Cette initiative pourrait accroître la compétitivité de Meta face à Google, Microsoft et OpenAI, qui investissent également massivement dans l’optimisation de leurs infrastructures IA.

Cependant, il reste à voir si la puce de Meta sera à la hauteur des GPU de NVIDIA, qui continuent d’évoluer rapidement avec des avancées majeures en matière de puissance de calcul et d’efficacité énergétique. Une chose est sûre : la bataille pour l’indépendance technologique et la maîtrise des modèles d’IA avancés ne fait que commencer.

Lire plus
Intelligence Artificielle

OpenAI : Des agents IA plus performants avec les nouveaux Agents SDK et Responses API⁠

API Agents Hero 16.9

OpenAI vient de lancer une suite d’API et d’outils destinés aux développeurs et aux entreprises pour faciliter la création d’agents IA avancés. Ces innovations permettent désormais aux développeurs d’exploiter la même technologie qui alimente les agents IA propriétaires d’OpenAI, comme Deep Research et Operator.

  • Deep Research: un agent capable de mener des recherches autonomes sur internet pour générer des rapports détaillés, organisés et sourcés.
  • Operator : un assistant intelligent capable de naviguer sur le Web et d’exécuter des actions, comme réserver des billets ou remplir des formulaires en suivant des instructions textuelles.

Avec ces nouveaux outils, OpenAI permet aux entreprises de créer leurs propres agents IA spécialisés, sans avoir besoin d’investir massivement en R&D.

OpenAI s’est appuyé sur ses derniers progrès en raisonnement, multimodalité et sécurité, notamment avec ses modèles de la famille « o » (o1 et o3). Ces modèles sont essentiels pour que les agents IA puissent mener des tâches complexes sur le long terme, comme planifier et prendre des décisions en fonction du contexte.

« Les modèles de raisonnement sont cruciaux pour les agents IA », explique Olivier Godement, responsable produit chez OpenAI. « Jusqu’à présent, les développeurs manquaient d’outils pour les intégrer facilement dans des applications d’entreprise ».

Nouveaux outils : Agents SDK, Responses API et outils intégrés

Pour surmonter ces défis, OpenAI introduit plusieurs nouveautés majeures.

Agents SDK (open source) : créez des agents IA indépendants

Agents SDK est une boîte à outils open source permettant aux développeurs de gérer, coordonner et optimiser les flux de travail des agents IA.

  • Avantage clé : il fonctionne avec n’importe quel modèle d’IA, y compris ceux d’Anthropic, Google, DeepSeek, Qwen, Mistral et Meta (Llama).
  • Principales fonctionnalités :
    • Agents configurables : permet d’attribuer des instructions et des outils spécifiques aux agents.
    • Transitions intelligentes : un agent peut déléguer une tâche à un autre en fonction du contexte.
    • Garde-fous intégrés : filtres de validation d’entrée et modération de contenu.
    • Suivi et observabilité : outils pour debugger et améliorer les performances des agents.

« Nous ne voulons pas forcer quiconque à utiliser uniquement les modèles OpenAI », souligne Godement.

API Agents Demo

Responses API⁠ : fusion des meilleures technologies OpenAI

Responses API⁠ est un outil tout-en-un qui combine Chat Completions API et Assistants API (cette dernière sera abandonnée en 2026).

Pourquoi c’est important ?

  • Permet aux développeurs d’intégrer plusieurs outils dans un seul appel API.
  • Meilleur contrôle des flux d’exécution et des interactions complexes.

Trois nouveaux outils intégrés pour automatiser les agents IA

Responses API⁠ offre trois outils intégrés qui rendent les agents IA plus performants et autonomes :

  • Web Search : Accès en temps réel à des sources d’informations vérifiables.
  • File Search : Recherche intelligente dans des bases de documents privées.
  • Computer Use : Navigation et interaction automatisée avec des interfaces logicielles.

« Avec Web Search, l’IA peut récupérer des informations en temps réel et fournir des sources vérifiables », explique Nikunj Handa, chef de produit chez OpenAI.

Pourquoi ces outils sont une révolution pour les entreprises ?

Pour les équipes IT, CTO et responsables de l’innovation, ces outils permettent :

  • Automatisation et gain de temps : plus besoin de coder des intégrations complexes.
  • Meilleure gestion des données : récupération rapide d’infos internes et web.
  • Sécurité et conformité : garde-fous intégrés pour contrôler l’accès aux données.
  • Flexibilité : possibilité de combiner différents modèles IA et infrastructures cloud.

Exemple d’application :

  • Une entreprise peut automatiser son support client avec un agent IA qui répond aux requêtes en temps réel en utilisant Web Search et File Search.
  • Une société de finance peut utiliser Computer Use pour automatiser la saisie de données et la navigation dans ses logiciels internes.

L’avenir des agents IA selon OpenAI

OpenAI ne compte pas s’arrêter là. Selon Godement, l’entreprise prévoit :

  • L’ajout de nouveaux outils et fonctionnalités dans les mois à venir.
  • L’amélioration de la sécurité et des garde-fous pour les applications autonomes.
  • Une plateforme de bout en bout pour la gestion et le déploiement d’agents IA.

« Nous avons déjà testé ces outils avec nos agents propriétaires comme Deep Research, mais OpenAI ne développera pas tous les agents. Nous offrons aux développeurs les outils pour créer les leurs », indique Godement.

Avec ces nouvelles solutions, OpenAI simplifie la création d’agents IA performants et autonomes. En ouvrant son Agents SDK en open source, elle prend une approche plus flexible et ouverte face à la concurrence d’Anthropic, Google et des modèles open source comme Llama.

Et vous, comment utiliseriez-vous ces nouveaux outils OpenAI ?

Lire plus
Intelligence Artificielle

Microsoft : Phi-4, modèles MAI, IA de raisonnement… L’offensive tous azimuts

openai microsoft ai 173530605153

Microsoft, l’un des principaux soutiens d’OpenAI, a largement mis en avant son accès aux derniers modèles ChatGPT pour promouvoir des produits comme Copilot. Cependant, Microsoft semble désormais vouloir réduire sa dépendance à OpenAI en développant ses propres modèles d’intelligence artificielle.

En parallèle, Microsoft travaille également sur une alternative aux modèles de raisonnement d’OpenAI, notamment la famille « GPT-o ».

D’après The Information, des employés de l’unité IA de Microsoft ont récemment achevé l’entraînement d’une nouvelle famille de modèles d’IA, actuellement en développement sous le nom de code « MAI ». L’objectif de cette initiative est de rivaliser avec les modèles phares d’acteurs majeurs du secteur tels qu’OpenAI et Anthropic.

Ce projet est dirigé par Mustafa Suleyman, chef de l’IA chez Microsoft, qui souhaite bâtir un écosystème IA autonome pour les applications Copilot, réduisant ainsi la dépendance technologique vis-à-vis d’OpenAI.

Microsoft construit progressivement son propre écosystème IA

En février dernier, Microsoft a introduit deux nouveaux modèles de langage : Phi-4-multimodalet Phi-4-mini. Ces modèles possèdent des capacités multimodales, leur permettant de traiter du texte, de la parole et des images, à l’instar de ChatGPT d’OpenAI et Gemini de Google.

Déjà disponibles sur Azure AI Foundry, Hugging Face et le catalogue d’API NVIDIA, ces modèles affichent des performances prometteuses. Microsoft affirme même que Phi-4 surpasse les derniers modèles Gemini 2.0 de Google sur plusieurs critères d’évaluation.

clipboard image 1 1734043173845

L’entreprise a souligné dans un article de blog que Phi-4 est l’un des rares modèles ouverts à réussir la synthèse vocale et à atteindre un niveau de performance comparable à GPT-4o.

Vers une indépendance totale : le développement de modèles de raisonnement

En plus de sa propre gamme de modèles IA, Microsoft explore également des alternatives tierces, en testant des modèles développés par DeepSeek, xAI et Meta. DeepSeek, en particulier, a récemment fait sensation en offrant des performances élevées à un coût de développement nettement inférieur.

Toutefois, Microsoft ne se contente pas d’explorer des solutions externes : l’entreprise accélère aussi le développement de ses propres modèles de raisonnement IA. Ceux-ci viseront à concurrencer les produits comme GPT-o1 d’OpenAI ainsi que les modèles émergents de startups chinoises comme DeepSeek.

Le développement de ces modèles de raisonnement aurait été accéléré en raison des tensions entre Microsoft et OpenAI sur le partage des avancées technologiques. Selon The Information, Mustafa Suleyman et OpenAI seraient en désaccord sur le manque de transparence d’OpenAI concernant le fonctionnement interne de ses modèles, comme GPT-o1.

Les modèles de raisonnement : le futur de l’IA

Les modèles de raisonnement représentent la prochaine évolution majeure dans l’intelligence artificielle. Contrairement aux modèles traditionnels, ils offrent une meilleure compréhension des requêtes, une capacité de déduction logique avancée et une résolution de problèmes plus efficace.

Microsoft affirme que son modèle Phi-4 est déjà en avance sur ces aspects, notamment en raisonnement linguistique, mathématique et scientifique.

Avec ces développements, Microsoft s’éloigne progressivement d’OpenAI et renforce son propre écosystème IA. L’avenir du partenariat entre les deux géants reste incertain, mais une chose est claire : Microsoft veut sa part du gâteau dans la course à l’intelligence artificielle et ne compte pas laisser OpenAI dominer le marché.

La bataille pour l’IA de nouvelle génération ne fait que commencer.

Lire plus
Intelligence Artificielle

Microsoft développe ses propres modèles d’IA pour concurrencer OpenAI

Microsoft développe ses propres modèles d'IA pour concurrencer OpenAI

Microsoft, partenaire stratégique d’OpenAI depuis plusieurs années, semble désormais accélérer son développement interne en intelligence artificielle pour ne plus dépendre uniquement des modèles de son allié. Selon plusieurs rapports, Microsoft développe ses propres modèles d’IA avancés et explore des alternatives pour alimenter ses outils comme Copilot.

D’après The Information, Microsoft a mis au point ses propres modèles d’IA dits de « raisonnement », capables de rivaliser avec les modèles o1 et o3-mini d’OpenAI. La situation entre les deux entreprises s’est tendue après que OpenAI a refusé de partager des détails techniques sur le fonctionnement de ses modèles, ce qui aurait incité Microsoft à accélérer ses propres développements.

En parallèle, Bloomberg révèle que Microsoft travaille sur une nouvelle famille de modèles d’IA baptisée MAI. Ceux-ci pourraient être mis à disposition via une API dès cette année, un mouvement qui marquerait une rupture progressive avec OpenAI.

Microsoft teste des alternatives pour remplacer OpenAI dans Copilot

Microsoft explore également d’autres options pour alimenter ses services, comme Copilot, en testant les modèles d’IA de plusieurs entreprises concurrentes, notamment xAI (fondée par Elon Musk), Meta, Anthropic et DeepSeek. Cette diversification montre la volonté de Microsoft de réduire sa dépendance à OpenAI, tout en gardant un écosystème flexible et compétitif.

Rappelons que Microsoft a investi près de 14 milliards de dollars dans OpenAI. Cependant, pour éviter une dépendance excessive, l’entreprise renforce ses propres capacités. Le recrutement récent de Mustafa Suleyman, cofondateur de DeepMind et Inflection, à la tête des efforts en IA de Microsoft illustre cette ambition.

En misant sur ses propres modèles d’IA et en explorant des alternatives à OpenAI, Microsoft semble préparer l’avenir en consolidant sa place dans la course à l’IA générative.

Lire plus