fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Google Assistant : Disparition confirmée en 2025, place à Gemini !

Google Assistant : Disparition confirmée en 2025, place à Gemini !

C’est officiel : Google Assistant va tirer sa révérence en 2025, laissant place à Gemini, la nouvelle IA de Google. L’entreprise a progressivement introduit Gemini sur les nouveaux smartphones Android et s’apprête désormais à remplacer complètement Assistant.

Google Assistant a été annoncé en 2016 et bien que Google pense qu’il s’agit d’un assistant capable, la société a entendu des gens dire qu’ils voulaient un compagnon plus personnalisé qui peut les aider à faire plus de choses. Gemini est un assistant d’IA qui a été conçu à partir de zéro avec une compréhension du langage et un raisonnement avancés.

Quand Google Assistant disparaîtra-t-il ?

Google prévoit de désactiver Google Assistant sur la plupart des appareils mobiles d’ici la fin de 2025. Gemini est déjà installé par défaut sur les nouveaux modèles Pixel, Samsung, OnePlus et Motorola, mais jusqu’à présent, le passage à Gemini était optionnel.

Désormais, les utilisateurs recevront une notification les invitant à basculer sur Gemini, et l’option pour revenir à Google Assistant disparaîtra. De plus, l’application Google Assistant ne sera plus disponible en téléchargement sur le Play Store.

Seuls les appareils sous Android 9 ou inférieur avec moins de 2 Go de RAM pourront continuer à utiliser Google Assistant.

Google Assistant Gemini

Google Assistant remplacé partout : smartphones, tablettes, voitures et objets connectés

L’arrêt de Google Assistant ne concerne pas que les smartphones. Google prévoit également de migrer tous ses autres produits vers Gemini, notamment :

  • Tablettes
  • Systèmes embarqués dans les voitures (Android Auto, Google Maps)
  • Appareils connectés : écouteurs, montres Wear OS, TV et enceintes connectées

Google assure que l’Assistant restera fonctionnel sur ces appareils le temps d’adapter Gemini, mais qu’il finira par être totalement remplacé.

Gemini : Une IA vraiment plus performante que Google Assistant ?

Le remplacement de Google Assistant par Gemini suscite beaucoup d’interrogations. Officiellement, Gemini est censé être une IA plus avancée et plus performante, capable d’interpréter des requêtes complexes et d’offrir des réponses plus naturelles.

Toutefois, des études récentes ont montré que les chatbots comme Gemini peuvent être « confiants, mais incorrects » dans 74 % des cas. Contrairement à Google Assistant, qui s’appuie sur des sources vérifiées, Gemini génère des réponses à partir de modèles d’IA entraînés sur des données du web — un risque majeur en termes de fiabilité.

Quel avenir pour Google et ses IA ?

Google mise tout sur Gemini pour contrer ChatGPT (OpenAI) et Copilot (Microsoft). Mais pour convaincre les utilisateurs, il devra :

  • Améliorer la fiabilité de Gemini
  • Assurer une transition fluide pour les anciens utilisateurs de Google Assistant
  • Proposer une meilleure intégration avec les services Google et les objets connectés

D’ici là, si vous êtes un utilisateur régulier de Google Assistant, préparez-vous à un changement radical en 2025 ! Depuis l’introduction de l’application Gemini l’année dernière, Google l’a améliorée de plusieurs façons et a ajouté des fonctionnalités que les gens aimaient dans Google Assistant. Cela devrait théoriquement faciliter la transition.

Que pensez-vous de la disparition de Google Assistant au profit de Gemini ? Bonne ou mauvaise nouvelle ?

Lire plus
Intelligence Artificielle

Google Gemini : Deep Research offert à tous, les détails de cette mise à jour majeure

Google Gemini : Deep Research offert à tous, les détails de cette mise à jour majeure

Google continue d’améliorer Gemini, son chatbot IA, en rendant désormais accessible à tous l’une de ses fonctionnalités les plus avancées : Deep Research.

Lancée l’année dernière sur la version Web de Gemini, cette fonctionnalité permet d’effectuer des recherches approfondies et en temps réel sur presque n’importe quel sujet. Jusqu’à présent, Deep Research était réservé aux abonnés Gemini Advanced, mais il est maintenant déployé pour tous les utilisateurs avec la dernière mise à jour de Gemini.

Qu’est-ce que « Deep Research » dans Gemini ?

Deep Research est un outil qui facilite les recherches complexes, en automatisant plusieurs étapes :

  • Planification : analyse du sujet et des sources pertinentes
  • Exploration : recherche d’informations à jour sur le web
  • Analyse : croisement des données et mise en perspective
  • Synthèse : création d’un rapport détaillé et structuré

Désormais, tous les utilisateurs de Gemini peuvent accéder à cet outil sans abonnement payant.

Comment l’utiliser ?

  1. Accédez à Gemini sur le web ou mobile
  2. Sélectionnez « Deep Research » dans la barre de prompt ou le menu déroulant du modèle

Screen 2025 03 13 at 21.23.54

Une amélioration grâce à Gemini 2.0 Flash Thinking

Google a également amélioré Deep Research en l’intégrant à son modèle IA Gemini 2.0 Flash Thinking Experimental. Cette mise à jour permet :

  • Une meilleure compréhension et structuration des recherches
  • Des rapports multi-pages plus détaillés et perspicaces
  • Une transparence accrue, avec affichage en temps réel du raisonnement de Gemini pendant qu’il explore le web

Deep Research est disponible en plus de 45 langues et devient un atout majeur pour les étudiants, journalistes, chercheurs et professionnels ayant besoin d’informations fiables et bien organisées.

À noter : La version gratuite de Deep Research pourrait avoir un quota journalier limité, mais Google n’a pas encore précisé ce seuil.

Autres mises à jour de Gemini annoncées par Google

En plus de Deep Research, Google a confirmé trois autres nouveautés pour Gemini :

  • Intégration avec Google Photos
  • Nouvelle personnalisation de Gemini grâce à l’historique de recherche Google
  • Extension des « Gems » à tous les utilisateurs (chatbots personnalisés pour des tâches spécifiques)

Avec cette mise à jour, Google fait un pas vers la démocratisation des outils IA avancés et améliore l’accessibilité de Gemini.

Lire plus
Intelligence Artificielle

Comment activer et utiliser la personnalisation de Google Gemini ?

Comment activer et utiliser la personnalisation de Google Gemini ?

Google continue d’affiner son assistant IA Gemini, en lui ajoutant une nouvelle fonctionnalité clé : « Gemini avec personnalisation ». Cette mise à jour rapproche encore plus Gemini de son rôle de véritable assistant personnel, en s’éloignant de Google Assistant.

Avec cette évolution, Gemini devient plus intelligent et plus pertinent en adaptant ses réponses en fonction de vos interactions avec Google Search et, bientôt, d’autres applications Google.

Qu’est-ce que « Gemini avec personnalisation » ?

Cette nouvelle fonction, propulsée par le modèle expérimental Gemini 2.0 Flash Thinking, permet à Gemini d’exploiter votre historique de recherche Google (si vous lui accordez l’autorisation) pour personnaliser ses réponses.

Par exemple :

  • Restaurants : Si vous demandez une recommandation, Gemini pourra suggérer des établissements en fonction de ceux que vous avez récemment cherchés.
  • Voyages : Vous souhaitez une destination ? Gemini prendra en compte les lieux que vous avez consultés auparavant.
  • Idées créatives : Vous cherchez des idées de contenu ou des recommandations personnalisées ? Gemini pourra affiner ses suggestions.

Selon Google, les premiers testeurs trouvent cette personnalisation utile pour le brainstorming et la recommandation de contenus adaptés à leurs préférences.

Vie privée et contrôle des données

Connect to Seach history ALT.width 1000.format webp 1

L’accès de Gemini à votre historique de recherche soulève forcément des questions de confidentialité. Cependant, Google insiste sur le contrôle total qu’ont les utilisateurs sur leurs données :

  • Activation manuelle : Vous devez activer vous-même cette fonction dans l’application Gemini.
  • Bannière d’information : Une notification claire vous indiquera quand Gemini utilise votre historique de recherche.
  • Déconnexion facile : Vous pourrez désactiver cette connexion à tout moment.
  • Autorisation requise : Gemini ne pourra consulter votre historique qu’avec votre consentement explicite et si votre activité Web et Apps est activée.

Google précise que l’IA ne puisera dans votre historique que si cela améliore réellement ses réponses.

Comment activer la personnalisation dans Gemini ?

Si vous souhaitez tester cette nouvelle fonctionnalité :

  1. Ouvrez l’application Gemini
  2. Accédez au menu des modèles
  3. Sélectionnez « Personnalisation (expérimental) »

GwP dropdown.width 1000.format webp

Une fois activée, Gemini analysera vos requêtes et décidera si utiliser votre historique de recherche peut enrichir ses réponses.

Disponibilité et déploiement

  • Actuellement réservé aux utilisateurs de Gemini et Gemini Advanced sur le web
  • Bientôt disponible sur mobile
  • Supporte plus de 40 langues et accessible dans la plupart des pays

Disconnect ALT 1.width 1000.format webp

Google prévoit également d’étendre cette personnalisation à d’autres services comme YouTube, Photos et Maps, rendant Gemini encore plus utile pour des recommandations adaptées à vos usages.

Avec ces mises à jour, Google fait un pas de plus vers un assistant IA plus personnel et intégré. Mais la question de l’exploitation des données privées reste cruciale.

Que pensez-vous de cette évolution ? Prêt(e) à tester Gemini avec personnalisation ou trop intrusif pour vous ?

Lire plus
Intelligence Artificielle

Google Gemini : Personnalisation via l’historique, Gemini Flash 2.0 et Gems accessibles à tous

03.13 Moment Still v05 Opt01.wid

Google continue d’améliorer son IA conversationnelle Gemini, en ajoutant plusieurs fonctionnalités majeures destinées à rendre l’expérience utilisateur plus fluide et plus personnalisée. Ces mises à jour concernent aussi bien les utilisateurs gratuits que ceux de Gemini Advanced.

Parmi les nouveautés phares : la possibilité d’analyser votre historique de recherche pour offrir des réponses personnalisées, une extension à d’autres applications, comme Google Photos et Notes, et une IA encore plus puissante.

Une IA qui apprend de vos recherches : le mode « Gemini avec personnalisation »

L’une des nouveautés les plus marquantes est « Gemini avec personnalisation », une version améliorée du modèle Gemini 2.0. Ce mode expérimental permet à l’IA d’analyser votre historique de recherche afin de personnaliser ses réponses.

Pour l’activer, il suffit de sélectionner « Personnalisation (expérimental) » dans le menu des modèles de l’application Gemini. Une fois activé, l’IA évaluera si l’intégration de votre historique de recherche peut affiner ses réponses.

Par exemple, si vous demandez à Gemini des idées de destinations de voyage et que vous avez récemment recherché le prix des billets d’avion pour Porto Rico, l’IA pourrait vous suggérer cette destination ou d’autres options dans les Caraïbes.

Google indique que cette fonctionnalité est particulièrement utile pour :

  • Le brainstorming, notamment pour des idées de contenu YouTube.
  • Les recommandations personnalisées, que ce soit pour des voyages, des hobbies ou des choix de carrière.

Google prévoit également d’étendre cette personnalisation en intégrant d’autres services, comme Google Photos et YouTube dans les mois à venir.

Respect de la vie privée

La personnalisation est entièrement optionnelle, et Google assure avoir mis en place plusieurs garde-fous :

  • L’IA n’utilisera votre historique que si vous activez la fonction manuellement.
  • Une bannière dans la fenêtre de discussion signalera quand l’historique est utilisé, avec un lien rapide pour le désactiver.
  • Vous pouvez également demander à Gemini de se baser sur vos conversations précédentes pour améliorer ses réponses.

Gemini Flash 2.0 : Plus de performance et de raisonnement avancé

Google a également annoncé que le modèle « Gemini 2.0 Flash Thinking », encore en phase expérimentale, est désormais disponible pour tous les utilisateurs.

Quelles améliorations ?

  • Un meilleur raisonnement multi-étapes, similaire aux modèles avancés de ChatGPT.
  • Une meilleure gestion des fichiers, avec la possibilité d’uploader des documents pour des analyses plus précises.
  • Une intégration plus poussée avec des services comme YouTube et Google Maps.

Pour les utilisateurs Gemini Advanced, une grande nouveauté est l’extension de la fenêtre de contexte à 1 million de tokens. Cette mise à jour permet à l’IA de traiter des quantités massives d’informations en une seule interaction, ce qui améliore considérablement sa précision pour les tâches de recherche et d’analyse complexes.

Les « Gems » désormais accessibles à tous

Enfin, Google généralise l’accès aux « Gems », une fonctionnalité qui était jusqu’ici réservée aux utilisateurs Gemini Advanced.

Qu’est-ce que les « Gems » ?

Ce sont des versions personnalisées de Gemini, qui peuvent être configurées comme des experts en IA spécialisés sur un sujet précis.

Cela fonctionne comme les GPT de ChatGPT, où vous pouvez pré-entraîner une version de Gemini à répondre d’une manière spécifique selon vos besoins (par exemple, en tant qu’expert en programmation, nutritionniste ou conseiller en voyage).

Quand et comment accéder à ces nouvelles fonctionnalités ?

Toutes ces mises à jour sont en cours de déploiement, mais Google précise qu’elles pourraient prendre un peu de temps avant d’être disponibles pour tous les utilisateurs.

Si vous ne voyez pas encore ces options, patience, elles devraient bientôt apparaître dans votre application Gemini !

Avec ces améliorations, Gemini devient bien plus qu’un simple chatbot :

  • Il comprend et apprend de vos habitudes pour offrir des réponses ultra-personnalisées.
  • Il s’intègre mieux à l’écosystème Google et aux apps tierces.
  • Il gagne en rapidité et en précision, grâce à son nouveau modèle d’IA et son immense contexte de 1 million de tokens.

Que pensez-vous de ces améliorations ? Êtes-vous prêt à tester Gemini avec la personnalisation activée ?

Lire plus
Intelligence Artificielle

Google DeepMind : Gemini Robotics, une IA révolutionnaire pour les robots polyvalents

Google DeepMind : Gemini Robotics, une IA révolutionnaire pour les robots polyvalents

Google DeepMind a récemment levé le voile sur deux nouveaux modèles d’intelligence artificielle dédiés à la robotique, baptisés Gemini Robotics et Gemini Robotics-ER. Ces modèles visent à révolutionner la manière dont les robots perçoivent et interagissent avec le monde physique.

Avec ces avancées, Google espère transformer les robots en véritables assistants polyvalents, capables d’exécuter des tâches complexes avec plus de précision et de sécurité que jamais auparavant.

Un pas de géant vers l’IA embarquée pour robots

Les nouvelles solutions de Google DeepMind s’appuient sur la base du modèle de langage avancé Gemini 2.0, mais ajoutent des fonctionnalités spécifiques à la robotique. Gemini Robotics introduit un système combinant vision, langage et action, permettant aux robots de comprendre les commandes vocales, d’analyser leur environnement en temps réel et d’effectuer des mouvements précis.

De son côté, Gemini Robotics-ER se concentre sur le raisonnement spatial et l’intégration avec les systèmes de contrôle robotiques existants. Ce modèle avancé ouvre la voie à des machines capables de s’adapter aux environnements dynamiques et de prendre des décisions en fonction du contexte.

Par exemple, un robot équipé de Gemini Robotics pourra reconnaître un objet, comme une banane, et la placer dans un panier sur commande vocale. De même, il pourra exécuter des tâches plus complexes comme plier un origami en suivant les principes de cette technique délicate.

Des capacités de manipulation accrues

L’un des principaux défis de la robotique réside dans l’exécution de tâches physiques complexes nécessitant une grande dextérité. En 2023, Google avait dévoilé RT-2, une IA capable d’adapter ses mouvements en fonction des commandes vocales. Cependant, ce modèle était limité à des gestes qu’il avait déjà appris, ce qui restreignait son application dans des scénarios imprévus.

Avec Gemini Robotics, Google affirme avoir franchi un cap décisif. La nouvelle IA permet désormais aux robots de réaliser des tâches nécessitant une manipulation fine, comme emballer des snacks dans des sachets refermables ou plier du papier avec précision.

Des robots plus intelligents et plus autonomes grâce à Gemini Robotics

L’un des aspects les plus prometteurs de Gemini Robotics est sa capacité à généraliser ses compétences. Google affirme que son modèle double les performances des meilleurs systèmes de vision-langage-action existants. Cette faculté de généralisation est essentielle pour que les robots puissent s’adapter à des environnements inconnus sans entraînement préalable.

Pour illustrer son ambition, Google DeepMind a annoncé un partenariat avec la startup américaine Apptronik afin de concevoir une nouvelle génération de robots humanoïdes basés sur Gemini 2.0. La technologie a été entraînée sur une plateforme bimanuale appelée ALOHA 2, mais elle est également compatible avec d’autres types de robots, y compris les bras robotiques Franka et les humanoïdes Apollo d’Apptronik.

L’intégration de l’intelligence artificielle dans les robots soulève des questions de sécurité majeures. Pour répondre à ces préoccupations, Google a mis en place une approche de sécurité multicouche comprenant des protocoles de prévention des collisions et des limitations de force pour éviter des accidents.

DeepMind s’inspire également d’Isaac Asimov et de ses célèbres Trois Lois de la Robotique en développant un cadre appelé « Robot Constitution ». De plus, l’entreprise a conçu un ensemble de tests de sécurité baptisé ASIMOV, destiné à mesurer les implications des actions robotiques dans le monde réel.

Vers une révolution de la robotique ?

Google n’a pas encore précisé quand ni comment ces nouvelles IA seront disponibles commercialement. Pour l’instant, Gemini Robotics reste en phase de recherche, bien que des entreprises comme Boston Dynamics, Agility Robotics et Enchanted Tools aient déjà accès à Gemini Robotics-ER via un programme de test restreint.

Alors que de nombreuses entreprises comme Meta, Tesla, Figure AI et Boston Dynamics travaillent sur le matériel des robots humanoïdes, Google cherche à fournir une intelligence artificielle capable d’en tirer pleinement parti. Si Gemini Robotics parvient à tenir ses promesses, nous pourrions bientôt voir des robots capables d’assister les humains dans une multitude de tâches complexes avec une précision et une autonomie inédites.

Lire plus
Intelligence Artificielle

Apple Intelligence : Un retard majeur confirmé, les fonctionnalités phares repoussées à 2025

Apple Intelligence : Un retard majeur confirmé, les fonctionnalités phares repoussées à 2025

Apple a discrètement confirmé la semaine dernière un retard majeur dans le lancement de l’une des fonctionnalités phares d’Apple Intelligence. Désormais, cette décision est plus officielle, l’entreprise ayant ajouté un avertissement sur son site Web.

Présenté en juin dernier, Apple Intelligence devait marquer une révolution pour Siri, améliorant considérablement sa compréhension du contexte et son interaction avec les applications.

Cependant, Apple a récemment déclaré : « Il nous faudra plus de temps que prévu pour déployer ces fonctionnalités, et nous anticipons leur arrivée dans le courant de l’année prochaine ».

Jusqu’à récemment, cette information n’apparaissait pas sur l’Apple Store en ligne. Mais désormais, les pages officielles précisent que : « La compréhension du contexte personnel par Siri, la reconnaissance de l’écran et les actions dans les applications sont en développement et seront disponibles dans une future mise à jour logicielle ».

Cette mise à jour de la communication d’Apple confirme que certaines des fonctionnalités les plus attendues ne seront pas disponibles avant fin 2025, voire 2026.

Apple Intelligence, un déploiement progressif mais chaotique

Depuis son annonce lors de la WWDC 2023, l’intelligence artificielle d’Apple devait être progressivement déployée. Voici un aperçu du calendrier :

  • Septembre 2024 : Sortie d’iOS 18, iPadOS 18 et macOS Sequoia avec quelques fonctionnalités d’Apple Intelligence.
  • Octobre — Décembre 2024 : Ajout progressif de certaines améliorations avec iOS 18.1 et macOS 15.1.
  • 2025 et au-delà : Déploiement des fonctionnalités avancées, y compris l’intégration complète de Siri avec Apple Intelligence.

Apple Intelligence Siri.jpg.larg

Mais un problème majeur subsiste : Apple Intelligence n’est toujours pas disponible en Europe en raison des réglementations strictes du DMA (Digital Markets Act).

Pourquoi Apple prend du retard ?

  • Complexité du développement : Apple a du mal à finaliser des fonctionnalités qui doivent analyser le contexte personnel de l’utilisateur sans compromettre la confidentialité.
  • Réglementations européennes : Apple Intelligence doit se conformer aux lois sur la protection des données, retardant son arrivée sur certains marchés.
  • Compétition avec Google : Pendant qu’Apple retarde ses fonctionnalités, Google accélère avec Gemini, intégrant rapidement de nouvelles capacités IA dans Android et ses services.

Un handicap face à Google et OpenAI ?

Alors qu’Apple prend son temps, ses concurrents multiplient les innovations :

  • Google Gemini : Déjà intégré aux Pixel et à plusieurs services Google.
  • Samsung Galaxy AI : Fonctionnalités avancées d’IA embarquées dans les Galaxy S24.
  • OpenAI et Microsoft : Amélioration continue de Copilot et de ChatGPT avec des modèles ultra-performants.

Le retard d’Apple Intelligence pourrait être un coup dur pour la marque, notamment sur le marché européen, où les utilisateurs risquent de se tourner vers des alternatives plus avancées.

Apple Intelligence devait révolutionner Siri et l’écosystème Apple, mais son déploiement est désormais incertain. Si Apple ne veut pas se laisser distancer par Google, Microsoft et OpenAI, l’entreprise devra accélérer ses efforts et garantir une sortie avant fin 2025.

Pensez-vous qu’Apple arrivera à rattraper son retard en IA face à la concurrence ?

Lire plus
Intelligence Artificielle

Google Gemma 3 : Un petit modèle IA qui rivalise avec les LLM, découvrez les nouveautés

Google Gemma 3 : Un petit modèle IA qui rivalise avec les LLM, découvrez les nouveautés

Alors que les modèles d’IA de grande envergure, comme les LLM (Large Language Model), dominent encore le marché, de plus en plus d’entreprises se tournent vers des modèles plus petits et plus économes en énergie. Google poursuit cette tendance avec le lancement de Gemma 3, une nouvelle génération de petits modèles linguistiques (SLM) offrant une alternative performante aux LLM tout en réduisant les coûts de calcul.

Gemma 3 : plus rapide, plus puissant, plus polyvalent

Conçu pour fonctionner sur des appareils plus modestes, comme les smartphones et les ordinateurs portables, Gemma 3 bénéficie d’importantes améliorations par rapport à ses prédécesseurs.

  • Quatre tailles disponibles : 1B, 4B, 12B et 27B paramètres
  • Fenêtre de contexte élargie : 128K tokens (contre 80K pour Gemma 2)
  • Support multimodal : comprend le texte, les images et les courtes vidéos
  • 140 langues supportées
  • Fonction calling et automation : facilite l’intégration dans des workflows IA autonomes

Avec ces mises à jour, Google souhaite faire de Gemma 3 un modèle de référence capable de rivaliser avec des modèles plus massifs comme Llama-405B, DeepSeek-V3 et o3-mini.

Une puissance d’analyse optimisée et accessible

Chatbot Arena ELO Score.width 10

Gemma 3 offre des performances exceptionnelles pour sa taille, notamment grâce à une version quantifiée, qui permet de réduire la précision des valeurs numériques des poids du modèle sans sacrifier la qualité des résultats.

  • Optimisation pour une exécution sur un seul GPU ou TPU
  • Meilleur rapport puissance/précision parmi les modèles SLMs
  • Deuxième meilleure performance au test Chatbot Arena Elo, juste derrière DeepSeek-R1

Grâce à cette quantification, les développeurs peuvent exécuter Gemma 3 sur des infrastructures plus légères, sans avoir besoin de serveurs massifs.

Intégration simplifiée pour les développeurs

Google a conçu Gemma 3 pour s’adapter aux outils IA les plus utilisés du marché, notamment : Hugging Face Transformers, Ollama, JAX, Keras, PyTorch et Google AI Studio, Kaggle. Les entreprises et les développeurs peuvent accéder à l’API de Gemma 3 via Google AI Studio.

Afin de garantir une utilisation responsable du modèle, Google a intégré ShieldGemma 2, un module de vérification d’images de 4B paramètres conçu pour bloquer les contenus inappropriés (violence, nudité, etc.).

  • Alignement avec les politiques de sécurité de Google
  • Évaluations spécifiques sur les risques potentiels en sciences et en création de substances dangereuses
  • Possibilité de personnaliser ShieldGemma 2 selon les besoins des utilisateurs

Les petits modèles IA : une tendance de fond

Depuis le lancement de Gemma en février 2024, la demande pour des modèles SLM performants et économes n’a cessé de croître. Google n’est pas le seul acteur à investir dans ce domaine :

  • Microsoft a dévoilé son propre modèle compact, Phi-4
  • Mistral AI propose Mistral Small 3, un SLM optimisé
  • Meta, OpenAI et DeepSeek développent des modèles plus petits et optimisés

Bien que Gemma ne soit pas une simple distillation de Gemini 2.0, il partage certaines similitudes architecturales et s’appuie sur le même ensemble de données. L’objectif de Google est clair : offrir des performances de niveau LLM dans un format plus agile et moins coûteux.

Avec Gemma 3, Google affirme sa volonté de démocratiser l’accès à des modèles IA avancés, tout en maîtrisant les coûts énergétiques et informatiques. Que ce soit pour les smartphones, les ordinateurs portables ou les applications embarquées, ce modèle s’annonce comme un allié de choix pour les entreprises et les développeurs cherchant une IA rapide, efficace et sécurisée.

Reste à voir comment il se positionnera face à ses concurrents, notamment OpenAI et DeepSeek, dans les mois à venir.

Lire plus
Intelligence Artificielle

Google Gemini : Analyse de vidéos en local bientôt disponible, une avancée face à ChatGPT ?

IO24 WhatsInAName Hero 1.width 1

Google travaille sur une nouvelle fonctionnalité pour son assistant IA Gemini, qui permettrait aux utilisateurs d’uploader et d’analyser des vidéos directement depuis leur PC ou smartphone. Actuellement, Gemini peut analyser des vidéos uniquement via un lien URL, mais cette mise à jour pourrait lui donner un sérieux avantage face à ChatGPT, qui propose déjà cette option.

C’est en fouillant dans le code source de l’APK bêta de l’application Google (version 16.9.39.sa.arm64) que Android Authority a découvert des références comme :

  • « attached video file » (fichier vidéo joint)
  • « play video file » (lire un fichier vidéo)
  • « video file length » (durée du fichier vidéo)

Bien que la fonctionnalité ne soit pas encore active, Android Authority a pu tester l’upload d’une vidéo dans Gemini, sans que celui-ci ne puisse l’analyser ou la lire. Cela indique que Google est en phase de test et que cette option pourrait être activée dans une prochaine mise à jour.

Gemini vs ChatGPT : Google veut rattraper son retard

Actuellement, ChatGPT permet déjà d’uploader des vidéos et d’en obtenir un résumé ou une analyse. Google cherche donc à combler cet écart pour offrir des fonctionnalités similaires.

Pourquoi c’est important ?

  • Un atout pour les créateurs de contenu : Obtenir un résumé rapide d’une vidéo sans avoir à la regarder en entier.
  • Gain de temps : Résumer des conférences, cours en ligne ou réunions enregistrées en quelques secondes.
  • Accessibilité : Aider les personnes malentendantes ou ayant des difficultés à suivre un contenu vidéo.

Quand cette fonctionnalité sera-t-elle disponible ?

Pour l’instant, Google n’a fait aucune annonce officielle. Cependant, le fait que le code soit déjà intégré dans la version bêta suggère que le lancement pourrait être imminent. Google pourrait activer cette fonction progressivement, comme il l’a fait avec d’autres outils basés sur l’IA, et la rendre disponible aux utilisateurs de Gemini Advanced en priorité.

Et vous, attendez-vous cette fonctionnalité avec impatience ?

Lire plus
Intelligence Artificielle

Meta développe son propre processeur IA pour réduire sa dépendance à NVIDIA

Meta développe son propre processeur IA pour réduire sa dépendance à NVIDIA

Alors que de nombreuses entreprises cherchent à développer leurs propres technologies pour gagner en autonomie et réduire leurs coûts, Meta s’engage désormais sur cette voie avec le développement de son propre processeur d’entraînement IA. L’entreprise serait actuellement en phase de test pour ce nouveau chipset dédié, visant à remplacer progressivement les GPU de NVIDIA utilisés jusqu’à présent pour entraîner ses modèles d’intelligence artificielle.

D’après un rapport de Reuters, Meta a déjà finalisé la conception de sa puce d’entraînement IA maison et est actuellement en phase de test avec un déploiement à petite échelle. Ce processeur, conçu pour exécuter des tâches spécifiques liées à l’intelligence artificielle, permettrait à l’entreprise de réduire ses coûts et de gagner en efficacité énergétique.

Meta aurait déjà effectué le « tape-out », une étape clé dans le développement des semi-conducteurs qui signifie que la conception finale de la puce a été soumise pour fabrication. L’entreprise prévoit d’intégrer cette nouvelle technologie d’ici 2026 pour entraîner ses futurs modèles IA et réduire sa dépendance aux solutions de NVIDIA.

Meta, vers une indépendance technologique face à NVIDIA

Depuis plusieurs années, NVIDIA domine le marché des puces IA, avec des GPU ultra-performants utilisés par des entreprises comme OpenAI, Microsoft, Google et bien sûr Meta. Ces puces sont essentielles pour entraîner et exécuter des modèles d’apprentissage automatique, notamment pour le développement des modèles de langage avancés et des algorithmes de recommandations utilisés sur les plateformes de Meta (Facebook, Instagram, WhatsApp).

Mais en développant ses propres processeurs, Meta cherche avant tout à réduire ses coûts d’infrastructure. Les GPU de NVIDIA sont des puces polyvalentes et coûteuses, alors que la puce de Meta serait spécifiquement optimisée pour ses propres besoins IA, ce qui lui permettrait de gagner en efficacité énergétique et en performance.

Ce mouvement s’inscrit dans une tendance plus large où plusieurs géants de la tech tentent de s’émanciper de fournisseurs externes coûteux. Google, par exemple, a développé ses TPU (Tensor Processing Unit) pour accélérer l’apprentissage machine, tandis qu’Apple conçoit ses propres puces de traitement IA pour ses iPhone et Mac.

L’IA, une priorité stratégique pour Meta

Ce développement s’inscrit dans la stratégie globale de Meta, qui mise massivement sur l’intelligence artificielle pour améliorer ses plateformes et optimiser ses algorithmes de recommandations. Le PDG Mark Zuckerberg a récemment annoncé un recentrage des investissements vers l’IA, quitte à réduire les effectifs de l’entreprise. En 2024, 5 % des employés jugés « moins performants » ont été licenciés pour réallouer les ressources vers l’innovation IA.

Par ailleurs, Meta organise Llamacon, un événement dédié à son intelligence artificielle open source Llama, où l’entreprise devrait révéler de nouvelles avancées dans le domaine.

Si Meta parvient à finaliser avec succès son chipset d’entraînement IA, l’entreprise rejoindra les rangs des géants qui développent leurs propres solutions matérielles. Cette initiative pourrait accroître la compétitivité de Meta face à Google, Microsoft et OpenAI, qui investissent également massivement dans l’optimisation de leurs infrastructures IA.

Cependant, il reste à voir si la puce de Meta sera à la hauteur des GPU de NVIDIA, qui continuent d’évoluer rapidement avec des avancées majeures en matière de puissance de calcul et d’efficacité énergétique. Une chose est sûre : la bataille pour l’indépendance technologique et la maîtrise des modèles d’IA avancés ne fait que commencer.

Lire plus
Intelligence Artificielle

OpenAI : Des agents IA plus performants avec les nouveaux Agents SDK et Responses API⁠

API Agents Hero 16.9

OpenAI vient de lancer une suite d’API et d’outils destinés aux développeurs et aux entreprises pour faciliter la création d’agents IA avancés. Ces innovations permettent désormais aux développeurs d’exploiter la même technologie qui alimente les agents IA propriétaires d’OpenAI, comme Deep Research et Operator.

  • Deep Research: un agent capable de mener des recherches autonomes sur internet pour générer des rapports détaillés, organisés et sourcés.
  • Operator : un assistant intelligent capable de naviguer sur le Web et d’exécuter des actions, comme réserver des billets ou remplir des formulaires en suivant des instructions textuelles.

Avec ces nouveaux outils, OpenAI permet aux entreprises de créer leurs propres agents IA spécialisés, sans avoir besoin d’investir massivement en R&D.

OpenAI s’est appuyé sur ses derniers progrès en raisonnement, multimodalité et sécurité, notamment avec ses modèles de la famille « o » (o1 et o3). Ces modèles sont essentiels pour que les agents IA puissent mener des tâches complexes sur le long terme, comme planifier et prendre des décisions en fonction du contexte.

« Les modèles de raisonnement sont cruciaux pour les agents IA », explique Olivier Godement, responsable produit chez OpenAI. « Jusqu’à présent, les développeurs manquaient d’outils pour les intégrer facilement dans des applications d’entreprise ».

Nouveaux outils : Agents SDK, Responses API et outils intégrés

Pour surmonter ces défis, OpenAI introduit plusieurs nouveautés majeures.

Agents SDK (open source) : créez des agents IA indépendants

Agents SDK est une boîte à outils open source permettant aux développeurs de gérer, coordonner et optimiser les flux de travail des agents IA.

  • Avantage clé : il fonctionne avec n’importe quel modèle d’IA, y compris ceux d’Anthropic, Google, DeepSeek, Qwen, Mistral et Meta (Llama).
  • Principales fonctionnalités :
    • Agents configurables : permet d’attribuer des instructions et des outils spécifiques aux agents.
    • Transitions intelligentes : un agent peut déléguer une tâche à un autre en fonction du contexte.
    • Garde-fous intégrés : filtres de validation d’entrée et modération de contenu.
    • Suivi et observabilité : outils pour debugger et améliorer les performances des agents.

« Nous ne voulons pas forcer quiconque à utiliser uniquement les modèles OpenAI », souligne Godement.

API Agents Demo

Responses API⁠ : fusion des meilleures technologies OpenAI

Responses API⁠ est un outil tout-en-un qui combine Chat Completions API et Assistants API (cette dernière sera abandonnée en 2026).

Pourquoi c’est important ?

  • Permet aux développeurs d’intégrer plusieurs outils dans un seul appel API.
  • Meilleur contrôle des flux d’exécution et des interactions complexes.

Trois nouveaux outils intégrés pour automatiser les agents IA

Responses API⁠ offre trois outils intégrés qui rendent les agents IA plus performants et autonomes :

  • Web Search : Accès en temps réel à des sources d’informations vérifiables.
  • File Search : Recherche intelligente dans des bases de documents privées.
  • Computer Use : Navigation et interaction automatisée avec des interfaces logicielles.

« Avec Web Search, l’IA peut récupérer des informations en temps réel et fournir des sources vérifiables », explique Nikunj Handa, chef de produit chez OpenAI.

Pourquoi ces outils sont une révolution pour les entreprises ?

Pour les équipes IT, CTO et responsables de l’innovation, ces outils permettent :

  • Automatisation et gain de temps : plus besoin de coder des intégrations complexes.
  • Meilleure gestion des données : récupération rapide d’infos internes et web.
  • Sécurité et conformité : garde-fous intégrés pour contrôler l’accès aux données.
  • Flexibilité : possibilité de combiner différents modèles IA et infrastructures cloud.

Exemple d’application :

  • Une entreprise peut automatiser son support client avec un agent IA qui répond aux requêtes en temps réel en utilisant Web Search et File Search.
  • Une société de finance peut utiliser Computer Use pour automatiser la saisie de données et la navigation dans ses logiciels internes.

L’avenir des agents IA selon OpenAI

OpenAI ne compte pas s’arrêter là. Selon Godement, l’entreprise prévoit :

  • L’ajout de nouveaux outils et fonctionnalités dans les mois à venir.
  • L’amélioration de la sécurité et des garde-fous pour les applications autonomes.
  • Une plateforme de bout en bout pour la gestion et le déploiement d’agents IA.

« Nous avons déjà testé ces outils avec nos agents propriétaires comme Deep Research, mais OpenAI ne développera pas tous les agents. Nous offrons aux développeurs les outils pour créer les leurs », indique Godement.

Avec ces nouvelles solutions, OpenAI simplifie la création d’agents IA performants et autonomes. En ouvrant son Agents SDK en open source, elle prend une approche plus flexible et ouverte face à la concurrence d’Anthropic, Google et des modèles open source comme Llama.

Et vous, comment utiliseriez-vous ces nouveaux outils OpenAI ?

Lire plus
Intelligence Artificielle

Microsoft : Phi-4, modèles MAI, IA de raisonnement… L’offensive tous azimuts

openai microsoft ai 173530605153

Microsoft, l’un des principaux soutiens d’OpenAI, a largement mis en avant son accès aux derniers modèles ChatGPT pour promouvoir des produits comme Copilot. Cependant, Microsoft semble désormais vouloir réduire sa dépendance à OpenAI en développant ses propres modèles d’intelligence artificielle.

En parallèle, Microsoft travaille également sur une alternative aux modèles de raisonnement d’OpenAI, notamment la famille « GPT-o ».

D’après The Information, des employés de l’unité IA de Microsoft ont récemment achevé l’entraînement d’une nouvelle famille de modèles d’IA, actuellement en développement sous le nom de code « MAI ». L’objectif de cette initiative est de rivaliser avec les modèles phares d’acteurs majeurs du secteur tels qu’OpenAI et Anthropic.

Ce projet est dirigé par Mustafa Suleyman, chef de l’IA chez Microsoft, qui souhaite bâtir un écosystème IA autonome pour les applications Copilot, réduisant ainsi la dépendance technologique vis-à-vis d’OpenAI.

Microsoft construit progressivement son propre écosystème IA

En février dernier, Microsoft a introduit deux nouveaux modèles de langage : Phi-4-multimodalet Phi-4-mini. Ces modèles possèdent des capacités multimodales, leur permettant de traiter du texte, de la parole et des images, à l’instar de ChatGPT d’OpenAI et Gemini de Google.

Déjà disponibles sur Azure AI Foundry, Hugging Face et le catalogue d’API NVIDIA, ces modèles affichent des performances prometteuses. Microsoft affirme même que Phi-4 surpasse les derniers modèles Gemini 2.0 de Google sur plusieurs critères d’évaluation.

clipboard image 1 1734043173845

L’entreprise a souligné dans un article de blog que Phi-4 est l’un des rares modèles ouverts à réussir la synthèse vocale et à atteindre un niveau de performance comparable à GPT-4o.

Vers une indépendance totale : le développement de modèles de raisonnement

En plus de sa propre gamme de modèles IA, Microsoft explore également des alternatives tierces, en testant des modèles développés par DeepSeek, xAI et Meta. DeepSeek, en particulier, a récemment fait sensation en offrant des performances élevées à un coût de développement nettement inférieur.

Toutefois, Microsoft ne se contente pas d’explorer des solutions externes : l’entreprise accélère aussi le développement de ses propres modèles de raisonnement IA. Ceux-ci viseront à concurrencer les produits comme GPT-o1 d’OpenAI ainsi que les modèles émergents de startups chinoises comme DeepSeek.

Le développement de ces modèles de raisonnement aurait été accéléré en raison des tensions entre Microsoft et OpenAI sur le partage des avancées technologiques. Selon The Information, Mustafa Suleyman et OpenAI seraient en désaccord sur le manque de transparence d’OpenAI concernant le fonctionnement interne de ses modèles, comme GPT-o1.

Les modèles de raisonnement : le futur de l’IA

Les modèles de raisonnement représentent la prochaine évolution majeure dans l’intelligence artificielle. Contrairement aux modèles traditionnels, ils offrent une meilleure compréhension des requêtes, une capacité de déduction logique avancée et une résolution de problèmes plus efficace.

Microsoft affirme que son modèle Phi-4 est déjà en avance sur ces aspects, notamment en raisonnement linguistique, mathématique et scientifique.

Avec ces développements, Microsoft s’éloigne progressivement d’OpenAI et renforce son propre écosystème IA. L’avenir du partenariat entre les deux géants reste incertain, mais une chose est claire : Microsoft veut sa part du gâteau dans la course à l’intelligence artificielle et ne compte pas laisser OpenAI dominer le marché.

La bataille pour l’IA de nouvelle génération ne fait que commencer.

Lire plus
Intelligence Artificielle

Microsoft développe ses propres modèles d’IA pour concurrencer OpenAI

Microsoft développe ses propres modèles d'IA pour concurrencer OpenAI

Microsoft, partenaire stratégique d’OpenAI depuis plusieurs années, semble désormais accélérer son développement interne en intelligence artificielle pour ne plus dépendre uniquement des modèles de son allié. Selon plusieurs rapports, Microsoft développe ses propres modèles d’IA avancés et explore des alternatives pour alimenter ses outils comme Copilot.

D’après The Information, Microsoft a mis au point ses propres modèles d’IA dits de « raisonnement », capables de rivaliser avec les modèles o1 et o3-mini d’OpenAI. La situation entre les deux entreprises s’est tendue après que OpenAI a refusé de partager des détails techniques sur le fonctionnement de ses modèles, ce qui aurait incité Microsoft à accélérer ses propres développements.

En parallèle, Bloomberg révèle que Microsoft travaille sur une nouvelle famille de modèles d’IA baptisée MAI. Ceux-ci pourraient être mis à disposition via une API dès cette année, un mouvement qui marquerait une rupture progressive avec OpenAI.

Microsoft teste des alternatives pour remplacer OpenAI dans Copilot

Microsoft explore également d’autres options pour alimenter ses services, comme Copilot, en testant les modèles d’IA de plusieurs entreprises concurrentes, notamment xAI (fondée par Elon Musk), Meta, Anthropic et DeepSeek. Cette diversification montre la volonté de Microsoft de réduire sa dépendance à OpenAI, tout en gardant un écosystème flexible et compétitif.

Rappelons que Microsoft a investi près de 14 milliards de dollars dans OpenAI. Cependant, pour éviter une dépendance excessive, l’entreprise renforce ses propres capacités. Le recrutement récent de Mustafa Suleyman, cofondateur de DeepMind et Inflection, à la tête des efforts en IA de Microsoft illustre cette ambition.

En misant sur ses propres modèles d’IA et en explorant des alternatives à OpenAI, Microsoft semble préparer l’avenir en consolidant sa place dans la course à l’IA générative.

Lire plus
Intelligence Artificielle

OpenAI accusé de minimiser les risques de l’IA : une polémique grandissante

OpenAI accusé de minimiser les risques de l'IA : une polémique grandissante

OpenAI fait face à de nouvelles critiques sur sa gestion des risques liés à l’intelligence artificielle. Miles Brundage, ancien chercheur en politique d’OpenAI, a vivement réagi au dernier document de l’entreprise sur la sécurité et l’alignement des modèles d’IA. Selon lui, OpenAI minimise les préoccupations en matière de sécurité et tente de réécrire son propre passé pour justifier ses choix actuels.

Le document publié cette semaine par OpenAI décrit sa stratégie de développement de l’intelligence artificielle générale (AGI) comme une succession de petites avancées plutôt qu’un grand bond en avant. L’entreprise affirme que cette approche progressive permettra d’identifier et de corriger les problèmes de sécurité au fur et à mesure, notamment les risques de mésusage et de détournement de ses modèles.

Cette déclaration fait écho aux nombreuses critiques que subissent les modèles d’IA comme ChatGPT. Parmi les préoccupations majeures figurent :

  • La diffusion d’informations erronées, notamment sur des sujets sensibles comme la santé et la sécurité (comme l’infâme recommandation de Google Gemini de « manger des cailloux »).
  • L’usage de l’IA pour la désinformation politique, la manipulation et les escroqueries en ligne.
  • Le manque de transparence d’OpenAI sur l’entraînement de ses modèles, qui pourraient contenir des données personnelles sensibles.

Une réécriture de l’histoire de GPT-2 ?

Dans son document, OpenAI laisse entendre que le développement du modèle GPT-2 a été marqué par une « discontinuité », et qu’il n’a pas été immédiatement publié en raison de préoccupations liées à un usage malveillant. Aujourd’hui, l’entreprise affirme privilégier une stratégie de déploiement progressif pour mieux contrôler les risques.

Mais pour Miles Brundage, cette version des faits est trompeuse. Il réfute l’idée que GPT-2 ait été traité différemment, affirmant qu’OpenAI suit cette approche depuis longtemps.

« Le déploiement de GPT-2, auquel j’ai participé, était parfaitement conforme à la philosophie actuelle d’OpenAI. Le modèle a été publié progressivement, avec un partage des enseignements à chaque étape. De nombreux experts en sécurité nous ont remerciés pour cette prudence », précise Miles Brundage, sur X.

En d’autres termes, OpenAI ne ferait que justifier son manque de transparence actuel en altérant son propre passé.

Un raisonnement dangereux sur les risques

Brundage critique également la mentalité d’OpenAI face aux risques. Selon lui, l’entreprise impose un fardeau de la preuve beaucoup trop lourd sur ceux qui alertent sur les dangers potentiels de l’IA.

« Il semble qu’OpenAI considère toute préoccupation comme alarmiste et exige des preuves écrasantes de dangers imminents avant d’agir. Sinon, ils continuent à publier leurs modèles. C’est une mentalité très dangereuse pour des systèmes d’IA avancés ».

Ce type de culture du risque est préoccupant alors qu’OpenAI est déjà accusée de privilégier le développement rapide de nouveaux produits au détriment de la sécurité et de la réglementation.

Une entreprise sous pression croissante

Cette polémique survient à un moment où OpenAI fait face à une surveillance accrue de la part des régulateurs et du grand public. Plusieurs critiques l’accusent de prioriser des innovations tape-à-l’œil au détriment de la prudence.

Si OpenAI maintient que sa stratégie de déploiement progressif est la meilleure manière de gérer les risques, des experts comme Brundage rappellent que cela ne doit pas servir d’excuse pour ignorer les dangers évidents.

L’avenir dira si OpenAI ajuste sa trajectoire ou si elle continue à avancer malgré les avertissements de la communauté scientifique et éthique.

Lire plus
Intelligence Artificielle

Gemini : Des réponses personnalisées grâce à votre historique de recherche Google !

gemini logo

Google pousse encore plus loin l’intégration de Gemini avec ses services en introduisant un nouveau modèle de personnalisation qui exploite votre historique de recherche Google. Détectée dans la version bêta 16.8.31 de l’application Google, cette fonctionnalité vise à fournir des réponses plus pertinentes en fonction des recherches passées des utilisateurs.

Lorsque vous activez le modèle de personnalisation de Gemini, une fenêtre de confirmation apparaît pour vous demander la permission d’accéder à votre historique de recherche. Pour que cette fonction soit opérationnelle, l’option « Activité sur le Web et les applications » doit être activée dans les paramètres de votre compte Google.

Cependant, Google précise que ce modèle est expérimental et qu’il ne sert pas à améliorer l’IA de manière générale. Les utilisateurs peuvent également désactiver l’accès à tout moment s’ils ne souhaitent plus que Gemini utilise leur historique pour adapter ses réponses.

Des résultats plus pertinents, mais des questions de confidentialité en suspens

Les premiers tests effectués par Android Authority montrent que Gemini fournit des réponses plus précises et adaptées aux habitudes de recherche de l’utilisateur. Toutefois, comme il s’agit encore d’un modèle expérimental, des erreurs ou incohérences peuvent survenir.

Google n’a pas encore communiqué de date officielle pour le déploiement grand public de cette fonctionnalité. Toutefois, il est possible qu’elle soit bientôt disponible pour les utilisateurs de Gemini Advanced, parallèlement à une mise à jour prévue aujourd’hui.

Une nouvelle frontière pour l’IA… mais à quel prix ?

Jusqu’à présent, Gemini s’appuyait sur des données générales issues du Web, sans exploiter directement l’historique personnel des utilisateurs. Ce changement pourrait donc améliorer significativement la pertinence des réponses, mais soulève aussi des préoccupations en matière de confidentialité.

La grande question reste de savoir si Google maintiendra cette fonctionnalité comme une option facultative, ou si elle sera progressivement intégrée par défaut dans Gemini. Pour les utilisateurs soucieux de leur vie privée, cette nouvelle dépendance aux données personnelles pourrait être perçue comme une intrusion supplémentaire.

Lire plus
Intelligence Artificielle

OpenAI lance GPT-4.5 : Un modèle d’IA à l’avenir incertain

OpenAI lance GPT-4.5 : Un modèle d'IA à l'avenir incertain

OpenAI a commencé à déployer son tout dernier modèle d’intelligence artificielle, GPT-4.5, pour les abonnés à son offre ChatGPT Plus. Cette mise à jour intervient une semaine après que le modèle a été lancé pour les utilisateurs de ChatGPT Pro, l’abonnement premium à 200 dollars par mois.

Dans une série de publications sur X (anciennement Twitter), OpenAI a précisé que le déploiement prendra entre 1 et 3 jours et que les limites d’utilisation pourraient évoluer en fonction de la demande des utilisateurs.

GPT-4.5 est le plus grand modèle d’IA jamais développé par OpenAI, ayant été entraîné avec davantage de puissance de calcul et de données que ses prédécesseurs. Toutefois, il n’est pas forcément le plus performant.

Selon plusieurs benchmarks d’intelligence artificielle, GPT-4.5 n’égale pas certains modèles concurrents, comme ceux de DeepSeek, Anthropic ou même d’OpenAI lui-même en matière de raisonnement et d’analyse contextuelle.

Malgré cela, OpenAI assure que GPT-4.5 dispose d’une compréhension plus approfondie du monde et d’une intelligence émotionnelle améliorée. L’entreprise affirme également que ce modèle « hallucine » moins, c’est-à-dire qu’il est moins susceptible de générer des informations incorrectes.

GPT-4.5, un coût d’exploitation très élevé

L’un des principaux problèmes de GPT-4.5 est son coût d’exploitation extrêmement élevé. OpenAI reconnaît même qu’il envisage de ne pas proposer GPT-4.5 à long terme dans son API, en raison de son coût prohibitif.

Voici les tarifs appliqués par OpenAI pour utiliser GPT-4.5 via son API :

  • 75 dollars par million de tokens en entrée (environ 750 000 mots).
  • 150 dollars par million de tokens générés en sortie.

À titre de comparaison, ces tarifs sont 30x plus élevés pour l’entrée et 15x plus élevés pour la sortie que ceux du modèle GPT-4o, actuellement la solution la plus rentable d’OpenAI.

Un modèle plus persuasif que jamais

Une particularité notable de GPT-4.5 est sa capacité avancée en rhétorique et persuasion. Lors de tests internes menés par OpenAI, il a été démontré que ce modèle excelle dans l’art de convaincre, au point d’avoir réussi à persuader une autre IA de lui donner de l’argent et de révéler un code secret.

Cette capacité pourrait être une avancée précieuse pour des applications en service client, marketing et négociation, mais elle soulève également des questions éthiques et de sécurité.

Avec un coût aussi élevé et une concurrence accrue, il reste à voir si OpenAI maintiendra GPT-4.5 à long terme ou si l’entreprise se concentrera sur des alternatives plus rentables.

En attendant, les abonnés à ChatGPT Plus peuvent déjà tester GPT-4.5, tandis que les entreprises doivent débourser des sommes importantes pour y accéder via l’API. Reste à savoir si la qualité justifie le prix… ou si OpenAI devra revoir sa stratégie face aux avancées rapides de ses concurrents.

Lire plus