fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Gemini : transformez vos recherches en podcasts audio avec cette nouvelle fonctionnalité IA

Gemini : transformez vos recherches en podcasts audio avec cette nouvelle fonctionnalité IA

Google continue d’améliorer son intelligence artificielle avec une nouvelle fonctionnalité pour son application Gemini. Désormais, vous pouvez transformer des rapports détaillés en podcasts audio interactifs, où deux hôtes IA discutent du sujet de manière fluide et engageante.

Depuis septembre dernier, la fonction « Audio Overviews » permettait déjà aux utilisateurs de l’application NotebookLM de générer des résumés audio pour leurs notes. Aujourd’hui, Google pousse cette innovation plus loin en intégrant cette fonctionnalité directement dans l’application Gemini.

Concrètement, cela signifie que lorsque vous utilisez Deep Research de Gemini, l’outil de Google qui explore un sujet en profondeur en parcourant le Web, vous pouvez désormais écouter un résumé audio de vos recherches.

Une fois que Gemini a généré un rapport détaillé, un nouveau bouton « Generate Audio Overview » vous permet de convertir ce contenu en une discussion entre deux voix IA, donnant l’illusion d’un véritable podcast.

Cette nouvelle fonctionnalité vise à rendre l’apprentissage plus fluide et engageant, en particulier pour ceux qui préfèrent écouter plutôt que lire.

Voici quelques utilisations possibles :

  • Transformer un document de recherche en conversation fluide pour mieux comprendre un sujet.
  • Convertir des diapositives de présentation en résumé audio pour réviser efficacement.
  • Suivre un cours ou un article complexe en format podcast pour l’écouter en déplacement.

L’intérêt est également de pouvoir interagir avec ces résumés audio, en posant des questions ou en demandant des précisions sur certains points abordés par l’IA.

Une fonctionnalité accessible à tous les utilisateurs de Gemini

Google a rendu Audio Overviews disponible aussi bien pour les utilisateurs gratuits que pour les abonnés Gemini Advanced. Cela signifie que tout le monde peut tester cette approche innovante et immersive pour explorer l’information autrement.

Avec cette avancée, Google semble vouloir redéfinir la manière dont nous consommons du contenu informatif, en combinant IA générative et formats interactifs.

Lire plus
Intelligence Artificielle

Anthropic : Claude veut révolutionner l’IA avec le contrôle vocal des PC

image 10

Anthropic, la startup d’intelligence artificielle fondée par d’anciens membres d’OpenAI, s’impose comme un acteur clé de la Silicon Valley. En mettant l’accent sur une approche plus responsable de l’IA, la société développe son propre modèle de langage, Claude, avec pour ambition de transformer le « knowledge work » et d’alléger les tâches bureautiques chronophages.

Mike Krieger, cofondateur d’Instagram et directeur produit chez Anthropic, a partagé avec le Financial Times la vision de l’entreprise : utiliser l’IA pour automatiser le contrôle des PC, notamment par commande vocale.

Une IA agentique pour exécuter des tâches sur votre ordinateur

L’une des innovations majeures que Anthropic souhaite apporter est un système agentique, où Claude pourrait contrôler un ordinateur entier via des commandes en langage naturel.

Il s’agit là d’un concept analogue à Operator de ChatGPT, qui permet déjà de naviguer sur le Web en suivant des instructions vocales ou textuelles, ainsi qu’une alternative à Microsoft Copilot+, qui mise aussi sur le contrôle vocal des PC sous Windows.

Anthropic a déjà démontré un agent capable de contrôler un ordinateur via des commandes écrites, et le passage à la voix semble être la prochaine étape naturelle.

Contrôler son PC par la voix : un projet en cours chez Anthropic

  • Un mode vocal pour Claude est en cours de développement, bien qu’aucune date de sortie n’ait encore été confirmée.
  • L’application mobile Claude, lancée en août 2023, pourrait être le premier endroit où cette fonctionnalité verrait le jour.
  • Une intégration avec Alexa+ d’Amazon, qui utilise déjà les modèles de Claude pour ses interactions vocales.

Pourquoi ce choix ? Amazon a investi 4 milliards de dollars dans Anthropic, ce qui pourrait ouvrir la voie à d’autres collaborations sur des produits vocaux.

Anthropic mise sur les entreprises avant le grand public

Contrairement à OpenAI (ChatGPT) et Google (Gemini), qui cherchent une adoption massive, Anthropic préfère se concentrer sur les partenariats avec les entreprises pour déployer Claude à grande échelle.

« Je veux que Claude touche un maximum de personnes, mais notre priorité n’est pas l’adoption grand public pour l’instant. », a déclaré Mike Krieger, directeur produit chez Anthropic.

Claude face à OpenAI et Google : une bataille sur le contrôle vocal

  • OpenAI et Google ont déjà des modes vocaux avancés avec ChatGPT Voice et Gemini.
  • Anthropic pourrait offrir une expérience plus fluide, notamment via des intégrations stratégiques (Alexa+, entreprises partenaires).
  • Microsoft pousse également Copilot+ pour le contrôle vocal de Windows, une concurrence directe.

L’enjeu est énorme : le premier acteur à proposer un contrôle vocal performant des PC via l’IA pourrait révolutionner la productivité.

Quand pourra-t-on parler à Claude pour contrôler son PC ?

Pour l’instant, Anthropic n’a pas donné de calendrier précis. Cependant, avec l’essor des IA vocales et les avancées de ses concurrents, il est probable que Claude propose un mode vocal dans les mois à venir.

Seriez-vous prêt à utiliser une IA comme Claude pour contrôler votre ordinateur par la voix ?

Lire plus
Intelligence Artificielle

OpenAI o1 pro : plus puissant, plus précis, mais à un prix exorbitant

OpenAI o1 pro : plus puissant, plus précis, mais à un prix exorbitant

OpenAI a dévoilé o1 pro, la dernière version de son modèle d’IA avancé en raisonnement, conçu pour offrir des réponses encore plus précises et complexes. Toutefois, cette amélioration s’accompagne d’un coût très élevé, ce qui laisse à penser que ce modèle cible avant tout les développeurs et les entreprises plutôt que le grand public.

OpenAI a expliqué que o1 pro utilise davantage de puissance de calcul que son prédécesseur, o1, ce qui lui permet d’améliorer la qualité et la cohérence de ses réponses. Parmi ses nouveautés, il supporte la vision, l’appel de fonctions (function calling), les sorties structurées et fonctionne avec les API Responses et Batch.

Un porte-parole d’OpenAI a précisé à TechCrunch que ce modèle est une version de o1 optimisée pour résoudre des problèmes encore plus complexes. Cette mise à niveau répond aux demandes de nombreux développeurs, désireux d’obtenir des résultats plus fiables et détaillés.

o1 pro : Un prix deux fois plus élevé que GPT-4.5

Cette montée en puissance a un coût. OpenAI facture o1 pro à 150 dollars par million de tokens en entrée et 600 dollars par million de tokens en sortie. En comparaison, ce tarif est 2x plus élevé que celui de GPT-4.5 et 10x plus cher que la version standard de o1.

Cet investissement conséquent limite l’accès à o1 pro aux développeurs les plus avancés, notamment ceux des niveaux 1 à 5 du programme API d’OpenAI (les développeurs ayant déjà dépensé un certain montant sur les services de l’API).

Une IA qui divise la communauté

o1 pro mode loading card 1

Bien que ce modèle soit présenté comme une avancée majeure, son lancement ne fait pas l’unanimité. Lorsqu’il a été intégré à ChatGPT Pro il y a quelques mois, plusieurs utilisateurs ont exprimé leur déception, jugeant les améliorations peu significatives en usage réel. Sur Reddit, certains estiment que o1-pro semble excellent sur le papier, mais décevant dans la pratique.

D’autres, en revanche, le considèrent comme un outil puissant pour le développement informatique, particulièrement lorsqu’il est guidé avec des instructions très précises.

Un modèle réservé aux entreprises et aux développeurs exigeants

Avec des performances accrues, mais un prix extrêmement élevé, OpenAI ne destine clairement pas o1 pro aux utilisateurs grand public. Ce modèle est avant tout pensé pour les développeurs, les chercheurs et les entreprises ayant des besoins avancés en IA.

Il reste maintenant à voir si les professionnels seront prêts à payer ce tarif élevé pour un modèle qui, pour certains, peine encore à convaincre.

Lire plus
Intelligence Artificielle

Meta AI : lancement en Europe, mais fonctionnalités limitées, détails et raisons dévoilés

Meta AI : lancement en Europe, mais fonctionnalités limitées, détails et raisons dévoilés

Après près d’un an d’attente, Meta déploie enfin son assistant IA, Meta AI, en Europe. À partir de cette semaine, Meta AI sera intégré à WhatsApp, Facebook, Instagram et Messenger dans 41 pays européens et 21 territoires d’outre-mer. Toutefois, cette version restera limitée aux fonctionnalités de chat textuel, sans les capacités avancées disponibles aux États-Unis.

« Il nous a fallu plus de temps que nous ne l’aurions souhaité pour mettre notre technologie d’IA entre les mains des Européens, car nous continuons à naviguer dans son système réglementaire complexe, mais nous sommes heureux d’y être enfin », a déclaré Meta dans un billet de blog publié jeudi.

Un lancement repoussé à cause des régulateurs européens

Meta AI a été lancé aux États-Unis en 2023, mais son arrivée en Europe a été retardée par les préoccupations des régulateurs en matière de protection des données. L’autorité irlandaise de la protection des données avait demandé à Meta de suspendre la collecte de contenu provenant de Facebook et Instagram pour entraîner ses modèles d’IA.

EMEA Meta AI Header 2

De plus, le modèle multimodal Llama de Meta n’a pas pu être lancé dans l’Union européenne en raison de ces mêmes contraintes réglementaires.

Meta AI en Europe : quelles fonctionnalités disponibles ?

Contrairement à la version américaine, Meta AI en Europe sera uniquement un chatbot textuel. Il pourra :

  • Répondre à des questions et rechercher des informations sur le web.
  • Aider à organiser un voyage ou à générer des idées.
  • Proposer du contenu sur Instagram, en fonction des centres d’intérêt des utilisateurs.

unnamed 1

Mais plusieurs fonctionnalités avancées seront absentes :

Meta veut rassurer les régulateurs

Meta insiste sur le fait que cette version limitée est le résultat d’une collaboration intensive avec les régulateurs européens. L’entreprise affirme vouloir continuer à travailler avec les régulateurs afin de proposer à terme les mêmes fonctionnalités qu’aux États-Unis. Bien que Meta AI soit limité pour le moment, l’entreprise ne cache pas son ambition d’élargir progressivement son offre en Europe.

Meta avait déjà introduit certaines fonctionnalités IA sur ses lunettes connectées Ray-Ban, mais sans les capacités multimodales qui permettent d’analyser ce que l’utilisateur voit.

Meta semble donc suivre une approche progressive et prudente, espérant trouver un équilibre entre innovation et respect des réglementations européennes.

Un premier pas vers une IA plus intégrée ?

Le déploiement de Meta AI en Europe marque une avancée significative pour l’entreprise, qui cherche à rattraper son retard sur OpenAI, Google et Microsoft dans la course à l’intelligence artificielle.

Que pensez-vous de cette version limitée de Meta AI ? Un pas dans la bonne direction ou une IA trop bridée en Europe ?

Lire plus
Intelligence Artificielle

Google Gemini : accès sans compte Google désormais possible, mais avec des limitations

Google Gemini : accès sans compte Google désormais possible, mais avec des limitations

Google continue d’étendre l’accès à Gemini, son assistant IA, en supprimant une contrainte majeure : vous pouvez désormais utiliser Gemini sans compte Google. Jusqu’à présent, se connecter était obligatoire, mais cette restriction disparaît sur la version web.

Dès aujourd’hui, si vous vous rendez sur la page Web de Gemini, vous pouvez commencer à chatter immédiatement, sans devoir vous connecter.

Avantages du mode sans connexion :

  • Pas besoin de compte Google
  • Accès rapide aux fonctionnalités de base
  • Mode « incognito » idéal pour des requêtes discrètes

Limitations du mode invité :

  • Aucun historique de conversation enregistré
  • Pas de génération d’images ni d’ajout de pièces jointes
  • Uniquement le modèle Gemini 2.0 Flash disponible
  • Pas d’accès aux versions avancées de Gemini

Il s’agit donc d’une utilisation simplifiée de Gemini, idéale pour des interactions rapides mais limitée aux fonctions de base.

Screen 2025 03 19 at 11.16.00

Uniquement disponible sur le Web, pas sur mobile

Attention, cette nouveauté ne concerne que la version Web. Sur Android et iOS, il faut toujours se connecter pour utiliser Gemini.

Google teste peut-être cette approche avant de l’étendre aux applications mobiles, mais pour l’instant, les options restent restreintes pour ceux qui ne souhaitent pas utiliser leur compte Google.

Une bonne idée ou un changement inutile ?

L’ouverture de Gemini sans compte Google est une bonne nouvelle pour la confidentialité, permettant de l’utiliser sans laisser de traces. Cependant, les limitations rendent l’expérience moins complète, forçant les utilisateurs à se connecter pour accéder aux meilleures fonctionnalités.

Que pensez-vous de cette nouveauté ? Utile ou trop limité ?

Lire plus
Intelligence Artificielle

Google : l’IA au service de la santé, résumés de recherche, API médicale et modèles Gemma

Google : l'IA au service de la santé, résumés de recherche, API médicale et modèles Gemma

Google continue d’intégrer l’intelligence artificielle dans ses services et annonce des améliorations significatives pour la recherche d’informations médicales. Lors de son événement annuel The Check Up, consacré aux innovations en santé, Google a dévoilé l’extension de ses résumés IA dans les résultats de recherche, rendant ainsi l’accès aux informations plus rapide et plus intuitif.

Désormais, ces résumés générés par l’IA couvriront des milliers de nouveaux sujets médicaux, bien au-delà des simples requêtes sur des maladies courantes, comme la grippe. De plus, Google a annoncé que ces résultats seront bientôt disponibles en espagnol, portugais et japonais, en plus de l’anglais, avec un déploiement initial sur mobile.

En complément de cette amélioration, Google introduit une nouvelle section baptisée « What People Suggest », qui proposera des conseils issus de forums et de plateformes publiques telles que Reddit et Quora. Cette fonctionnalité sera dans un premier temps limitée aux utilisateurs américains effectuant des recherches sur mobile. Toutefois, bien que ces outils puissent faciliter l’accès à des informations médicales pertinentes, Google insiste sur le fait que ses réponses peuvent comporter des erreurs et ne doivent en aucun cas se substituer à un avis médical professionnel.

tipsandtricks large.width 1000.format webp

API, IA, etc. : Google mise beaucoup sur la santé

En parallèle de ces avancées dans la recherche d’informations, Google continue d’innover dans le domaine de la santé connectée et de la recherche médicale. L’entreprise a lancé l’API Medical Records, qui vise à permettre le partage des dossiers médicaux entre différentes applications de santé et de fitness sur Android. Cette initiative s’inscrit dans le cadre de sa plateforme Health Connect, qui cherche à unifier les données médicales et améliorer l’interopérabilité entre les services numériques de santé.

Google mise également sur l’IA pour accélérer la découverte de nouveaux médicaments en mettant à disposition des chercheurs des modèles légers de la famille Gemma. Ces modèles sont conçus pour analyser les interactions moléculaires connues et aider les laboratoires à identifier plus rapidement des solutions thérapeutiques prometteuses.

L’entreprise expérimente aussi un projet ambitieux dans le domaine de l’oncologie pédiatrique. Elle teste actuellement Capricorn, un outil basé sur l’IA conçu pour aider les médecins à proposer des traitements personnalisés aux jeunes patients atteints de cancer. Ce programme pilote est en cours d’expérimentation dans un hôpital aux Pays-Bas, avec l’objectif d’optimiser la prise en charge des enfants malades.

L’ambition de Google de devenir un acteur majeur dans la santé

Ces annonces illustrent l’ambition de Google de devenir un acteur majeur dans l’intégration de l’IA dans le domaine de la santé. Toutefois, des défis subsistent, notamment en ce qui concerne la fiabilité des algorithmes et la protection des données des patients. L’entreprise devra encore convaincre les professionnels du secteur et les autorités de santé de la pertinence et de la sécurité de ses solutions.

Avec ces innovations, Google montre une volonté de transformer l’accès aux informations médicales et de faciliter la recherche en santé. Reste à savoir si ces avancées répondront réellement aux attentes des patients et des professionnels de la médecine.

Lire plus
Intelligence Artificielle

Nvidia GR00T N1 : l’IA au service des robots humanoïdes, une nouvelle ère pour la robotique ?

GR00T N1 Image

Nvidia a lancé Isaac GR00T N1, un modèle de base open source révolutionnaire. Pré-entraîné et personnalisable, il promet d’accélérer le développement de robots humanoïdes. « L’ère de la robotique généraliste est arrivée », a déclaré Jensen Huang, PDG de Nvidia, lors de la conférence GTC 2025.

« Avec Nvidia Isaac GR00T N1 et les nouveaux frameworks de génération de données et d’apprentissage robotique, les développeurs de robotique du monde entier ouvriront la prochaine frontière de l’ère de l’IA ».

GR00T N1 s’appuie sur une architecture à double système inspirée de la cognition humaine :

  • Système 1 : Un modèle d’action rapide, analogue aux réflexes humains, entraîné sur des données de démonstrations humaines et de simulations Omniverse.
  • Système 2 : Un modèle de raisonnement lent, basé sur la vision et le langage, qui planifie les actions avant de les transmettre au système 1.

Huang a démontré les capacités de GR00T N1 avec le robot NEO Gamma de 1X, capable de tâches de rangement autonomes. D’autres entreprises, comme Boston Dynamics (Atlas), Agility Robotics, Mentee Robotics et Neura Robotics, ont également testé ce modèle.

« L’avenir des humanoïdes réside dans l’adaptabilité et l’apprentissage », déclare Bernt Børnich, PDG de 1X Technologies. « Le modèle GR00T N1 de NVIDIA représente une avancée majeure pour le raisonnement et les compétences des robots. Avec une quantité minimale de données de post-entraînement, nous avons pu le déployer entièrement sur NEO Gamma, poursuivant ainsi notre mission de créer des robots qui ne sont pas des outils, mais des compagnons capables d’aider les humains de manière significative et incommensurable ».

Personnalisation et accessibilité de GR00T N1

Bien que pré-entraîné, GR00T N1 peut être adapté à des besoins spécifiques via le post-entraînement. Les données d’entraînement et les scénarios d’évaluation sont disponibles sur Hugging Face et GitHub, facilitant ainsi son adoption.

Isaac GR00T N1 marque une étape cruciale pour la robotique humanoïde. Son approche open source et personnalisable ouvre la voie à des robots plus intelligents et adaptables, capables d’assister les humains dans de nombreuses tâches.

Nvidia a mis les données d’entraînement GR00T N1 et les scénarios d’évaluation des tâches disponibles au téléchargement via Hugging Face et GitHub.

Lire plus
Intelligence Artificielle

Gemini : Collaboration avec l’IA, Google dévoile Canvas et l’aperçu audio, tous les détails

Header image EamX0Ff.width 2200

De nombreuses personnes se sont tournées vers l’utilisation de chatbots pour les aider à coder. Bien que vous ne souhaitiez probablement pas qu’un programme entier soit écrit par l’IA, celle-ci peut vous aider à trouver des solutions dans des bribes spécifiques afin que votre code soit plus efficace et fonctionnel. Si vous voulez faire cela, vous pouvez l’utiliser avec Gemini Canvas — il sera beaucoup plus facile de vérifier si le code fonctionne réellement.

Le chatbot Gemini de Google bénéficie de quelques ajouts vraiment intéressants. Le changement le plus important est Canvas, un nouvel espace de travail interactif intégré directement dans Gemini. Il s’agit d’une fenêtre éditable qui s’affiche juste à côté de l’interface de chat, où Gemini placera son texte ou son code et vous permettra de le modifier. Et, il y a des tonnes d’options d’édition.

Si vous l’utilisez pour des documents, vous pouvez soit lui demander de rédiger un premier projet, soit lui donner ce que vous avez déjà écrit pour qu’il vous aide à le peaufiner. Gemini peut analyser des sections de texte surlignées et proposer des suggestions pour modifier le ton (le rendre plus concis, professionnel ou informel), ajuster la longueur ou modifier la mise en forme. Étant donné que tout est édité dans une fenêtre modifiable, il suffit de réécrire soi-même les erreurs commises par l’IA (ou de les mettre en surbrillance pour que l’IA puisse les corriger) pour corriger les erreurs commises par l’IA. Une fois que vous avez obtenu un résultat satisfaisant, vous pouvez l’exporter vers Google Docs.

Canvas Docs

Canvas propose non seulement une fenêtre éditable dans laquelle le code créé est édité, comme pour les documents, mais aussi un onglet Aperçu qui vous permet de prévisualiser le code et de vérifier qu’il fonctionne.

Votre code peut être exécuté directement sur l’onglet de prévisualisation pour voir comment il apparaîtra et fonctionnera dans un contexte réel, ce qui vous permet de voir comment quelque chose fonctionne sans avoir à le déployer ou à utiliser un IDE. Par exemple, un utilisateur peut demander à Gemini de générer le code HTML d’un formulaire d’inscription par courrier électronique, puis de le visualiser instantanément. D’autres modifications, telles que l’ajout de champs de saisie ou de boutons d’appel à l’action, peuvent également être demandées et visualisées en temps réel.

Canvas Coding

Gemini Canvas peut faire beaucoup !

Comme c’est souvent le cas, il peut parfois sortir un code assez défectueux. Ce qui est intéressant avec Canvas, c’est que vous pouvez tester si des parties de votre code sont cassées et les corriger rapidement si nécessaire, soit en les déboguant vous-même, soit en demandant à l’IA de vous aider à les déboguer en mettant en évidence des sections de code spécifiques. Pour l’aperçu preview que j’ai utilisé, Canvas peut faire du HTML, du CSS, du JavaScript et du React, mais Google indique qu’il sera également compatible avec la plupart du code que Gemini est capable de faire, y compris Python.

Canvas sera uniquement disponible sur la version de bureau au lancement, mais Google indique qu’une expérience mobile devrait également voir le jour d’ici la fin du mois. Il n’est pour l’instant disponible que pour le modèle Gemini 2.0 Flash, mais Google précise qu’il devrait être disponible pour tous les modèles, y compris les modèles Thinking et Deep Research, dans un avenir plus ou moins proche.

Les « aperçus audio » disponibles

Outre Canvas, Google introduit également les « aperçus audio » dans Gemini, une fonctionnalité initialement prévue dans NotebookLM. Les aperçus audio fonctionnent en créant une discussion virtuelle entre deux hôtes IA. Ces hôtes analysent les fichiers téléchargés, tels que des documents, des diapositives ou même des rapports de recherche approfondie, et engagent une conversation sur le contenu. Ils résument les points clés, établissent des liens entre différents sujets et offrent des perspectives uniques.

C’est un concept un peu idiot, mais beaucoup de gens aiment écouter des podcasts et apprennent des choses assez bien en les écoutant, ce qui permet d’appliquer un concept analogue à l’apprentissage en général. Vous pouvez lui transmettre des notes de cours, des documents de recherche, de longs e-mails ou des rapports et recevoir une version audio résumée que vous pouvez écouter en déplacement. Tant qu’elle assimile correctement le contenu (encore une fois, vérifiez toujours tout ce qu’une IA vous donne, car elle peut parfois halluciner), il s’agit d’un outil d’étude très intéressant.

Canvas et les aperçus audio sont disponibles à partir d’aujourd’hui pour les utilisateurs gratuits et payants. Canvas est disponible pour les utilisateurs dans toutes les langues, tandis que les aperçus audio ne seront, dans un premier temps, disponibles qu’en anglais.

Lire plus
Intelligence Artificielle

Baidu : ERNIE 4.5 et ERNIE X1, deux nouveaux modèles d’IA avancés pour rivaliser avec GPT-4.5 et DeepSeek

Baidu : ERNIE 4.5 et ERNIE X1, deux nouveaux modèles d'IA avancés pour rivaliser avec GPT-4.5 et DeepSeek

Baidu, géant chinois de l’intelligence artificielle et des moteurs de recherche, a présenté deux nouveaux modèles d’IA avancés : ERNIE 4.5, une évolution de son modèle fondamental lancé il y a deux ans, et ERNIE X1, un modèle de raisonnement de nouvelle génération.

Avec ces lancements, Baidu cherche à renforcer sa position sur le marché de l’IA, notamment face à OpenAI et DeepSeek, une entreprise chinoise qui a récemment ébranlé l’industrie avec des modèles aussi performants que ceux des leaders américains, mais à un coût nettement inférieur.

ERNIE 4.5 : un modèle multimodal ultra-intelligent

ERNIE 4.5 est un modèle multimodal avancé capable de traiter texte, images, audio et vidéo. Son atout principal réside dans sa compréhension affinée du contexte et de la culture Internet, lui permettant d’interpréter les mèmes et la satire avec un « haut QE » (quotient émotionnel), une caractéristique rare dans l’IA.

D’après Baidu, ERNIE 4.5 surpasse GPT-4.5 sur plusieurs benchmarks, tout en étant 100x moins cher à utiliser. Il intègre plusieurs avancées technologiques :

  • FlashMask (Masquage dynamique de l’attention)
  • Mixture-of-Experts multimodal hétérogène
  • Compression de représentation spatiotemporelle
  • Post-entraînement renforcé par auto-feedback

Grâce à ces innovations, le modèle se veut plus performant en génération de texte, en raisonnement et en codage, tout en limitant les hallucinations typiques des IA génératives.

GmIKgSobcAAMR W scaled

ERNIE X1 : un modèle de raisonnement conçu pour l’analyse et la prise de décision

Avec ERNIE X1, Baidu mise sur un modèle de raisonnement profond capable d’analyser, planifier, réfléchir et évoluer dans divers domaines, y compris :

  • Questions-réponses avancées en chinois
  • Création littéraire et rédaction de manuscrits
  • Dialogue contextuel et logique
  • Calculs complexes et gestion de données

ERNIE X1 intègre des outils puissants, lui permettant d’effectuer des recherches académiques, d’interpréter du code, de générer des images IA et d’exploiter des bases de données professionnelles.

Baidu affirme que ERNIE X1 est aussi performant que DeepSeek R1, mais à moitié prix, ce qui pourrait séduire les entreprises et les gouvernements cherchant des solutions d’IA abordables.

Baidu face aux défis de l’adoption de ses modèles d’IA

Bien que Baidu ait été l’une des premières entreprises chinoises à lancer un concurrent à ChatGPT, elle a eu du mal à trouver une adoption massive, selon plusieurs rapports.

En parallèle, DeepSeek s’est imposé comme un sérieux concurrent en proposant des modèles puissants et abordables, ce qui a suscité l’inquiétude des investisseurs américains et des entreprises d’IA comme OpenAI et Google.

Pour maintenir son avance, Baidu prévoit de lancer ERNIE 5 d’ici la fin de l’année, avec encore plus d’améliorations multimodales.

Prix et accessibilité

ERNIE 4.5 est déjà disponible via l’API de Baidu AI Cloud Qianfan, avec un tarif ultra-compétitif :

  • 0,004 RMB (≈ 0,000 55 $) pour 1 000 tokens en entrée
  • 0,016 RMB (≈ 0,002 2 $) pour 1 000 tokens en sortie

ERNIE X1 arrivera bientôt, avec un prix encore plus bas :

  • 0,002 RMB (≈ 0,000 28 $) pour 1 000 tokens en entrée
  • 0,008 RMB (≈ 0,001 1 $) pour 1 000 tokens en sortie

Par ailleurs, ERNIE Bot est désormais gratuit pour les utilisateurs individuels, avec un déploiement prévu le 1er avril.

Avec ERNIE 4.5 et ERNIE X1, Baidu tente de renforcer son leadership technologique et de rivaliser avec OpenAI et DeepSeek. L’entreprise mise sur des prix ultra-compétitifs et des avancées en intelligence multimodale et en raisonnement pour séduire les utilisateurs.

Toutefois, la bataille pour l’hégémonie de l’IA en Chine ne fait que commencer, et la sortie prochaine d’ERNIE 5 pourrait déterminer si Baidu parvient à s’imposer comme un leader incontournable de l’intelligence artificielle.

Lire plus
Intelligence Artificielle

ChatGPT Connectors, une nouvelle fonctionnalité pour connecter ChatGPT aux outils d’entreprise

ChatGPT Connectors, une nouvelle fonctionnalité pour connecter ChatGPT aux outils d'entreprise

OpenAI s’apprête à tester ChatGPT Connectors, une nouvelle fonctionnalité permettant aux entreprises de connecter leurs applications comme Slack et Google Drive à ChatGPT.

Cette intégration vise à transformer ChatGPT en un outil indispensable pour la gestion de l’information en entreprise, en facilitant l’accès aux fichiers internes et aux conversations professionnelles.

Selon un document consulté par TechCrunch, cette phase de bêta-test sera d’abord réservée aux abonnés ChatGPT Team, avant une extension vers d’autres plateformes comme Microsoft SharePoint et Box.

Une IA qui s’appuie sur les fichiers internes des entreprises

Avec ChatGPT Connectors, les employés pourront poser des questions et obtenir des réponses basées sur les fichiers, présentations, feuilles de calcul et conversations Slack de leur entreprise. L’objectif est d’offrir une expérience analogue à une recherche Web, mais appliquée aux données internes des entreprises.

Cette fonctionnalité est propulsée par une version optimisée du modèle GPT-4o, capable d’affiner ses réponses en fonction des documents et échanges stockés dans Slack et Google Drive. OpenAI synchronise une copie chiffrée de ces données sur ses serveurs pour créer un index de recherche intelligent.

Le modèle ne se contente pas d’extraire des données : il peut aussi lister les sources pertinentes pour chaque réponse, afin que les utilisateurs puissent vérifier l’origine des informations fournies par ChatGPT.

Des garanties de confidentialité, mais avec certaines limites

Face aux préoccupations des entreprises concernant la confidentialité des données, OpenAI assure que les permissions de Slack et Google Drive seront strictement respectées.

Concrètement :

  • Les employés ne pourront accéder qu’aux fichiers et canaux Slack auxquels ils ont déjà accès.
  • Les administrateurs pourront choisir quels fichiers et conversations sont synchronisés avec ChatGPT.
  • Aucune donnée de Google Drive ou Slack ne sera utilisée pour entraîner les modèles OpenAI.

Cependant, des limitations techniques subsistent :

  • Les images contenues dans les fichiers Google Docs, Slides et PDF ne seront pas interprétées.
  • ChatGPT ne pourra pas analyser les données dans Sheets et Excel, seulement les lire.
  • Les messages privés et de groupe Slack ne seront pas accessibles.
  • Les bots Slack seront ignorés dans l’indexation des messages.

Un potentiel inconvénient est que deux employés pourraient obtenir des réponses très différentes pour une même requête, en fonction de leurs permissions d’accès aux documents.

Un pari stratégique pour OpenAI face aux solutions d’IA pour l’entreprise

L’intégration de ChatGPT avec des outils professionnels vise à convaincre les entreprises sceptiques et à concurrencer des solutions comme Glean, spécialisées dans la recherche d’informations en entreprise.

Certaines entreprises hésitent encore à donner un accès à ChatGPT à leurs données sensibles, tandis que d’autres adoptent déjà massivement ces technologies. ChatGPT Connectors pourrait être l’argument clé pour rassurer les dirigeants et accélérer l’adoption de l’IA en entreprise.

Lancement et conditions de participation à la bêta

GmQWjm7a4AAa dJ scaled

OpenAI propose aux entreprises intéressées de participer à la bêta fermée de ChatGPT Connectors. Pour cela, elles doivent fournir 100 documents, feuilles de calcul, présentations et/ou conversations Slack.

Selon le document, OpenAI ne s’entraînera pas directement sur ces données, mais pourrait les utiliser pour générer des données synthétiques destinées à l’amélioration de ses modèles.

OpenAI ne compte pas s’arrêter à Slack et Google Drive. À l’avenir, Microsoft SharePoint et Box pourraient être ajoutés à la liste des intégrations, rendant ChatGPT encore plus incontournable dans les entreprises.

Cette stratégie confirme la volonté d’OpenAI d’intégrer ChatGPT directement dans les flux de travail, rendant l’IA plus utile au quotidien et facilitant l’accès aux informations internes de manière sécurisée et optimisée.

Lire plus
Intelligence Artificielle

Zoom AI Companion : une mise à jour majeure pour devenir « agentique » et automatiser les tâches

Zoom AI Companion : une mise à jour majeure pour devenir « agentique » et automatiser les tâches

Zoom continue d’évoluer avec une mise à jour majeure de son AI Companion, qui deviendra « agentique » dès la fin du mois. Cette nouvelle capacité permettra à l’IA de réaliser automatiquement des tâches pour les utilisateurs, notamment la planification de réunions de suivi, la génération de documents et la création de clips vidéo.

Les utilisateurs de Zoom Workplace auront accès à ces nouvelles fonctionnalités via un onglet dédié aux tâches, où ils pourront déléguer des actions à l’IA. Parmi les principales nouveautés :

  • Planification automatique de réunions de suivi
  • Génération de documents à partir des réunions
  • Création de clips vidéo récapitulatifs

Ces améliorations s’inscrivent dans la vision de Smita Hashim, Chief Product Officer chez Zoom : « Nous voyons l’IA s’intégrer dans chaque produit et interaction pour aider les utilisateurs à être plus efficaces ».

Nouveaux outils d’IA pour améliorer la productivité dans Zoom

Zoom ne s’arrête pas là et introduira bientôt d’autres fonctionnalités alimentées par l’IA :

  • Un nouvel enregistreur vocal pour Zoom Workplace (avril 2024) : Il enregistrera, transcrira et résumera automatiquement les réunions en personne via l’application mobile.
  • Notes en temps réel pour Zoom Meetings et Phone (mai 2024) : Cette fonctionnalité générera des résumés en direct pendant les appels et réunions, facilitant le suivi des discussions.

Bonne nouvelle : ces nouvelles fonctions IA seront gratuites pour les utilisateurs de Zoom Workplace.

Zoom Tasks 1

Zoom lance un compagnon IA personnalisé à 12 dollars/mois

En mai, Zoom proposera également un abonnement premium à 12 dollars/mois, baptisé Custom AI Companion. Cette option inclura :

  • Un avatar IA personnalisé, généré à partir de votre image, qui pourra envoyer des messages à votre équipe.
  • Des modèles d’avatars génériques, accessibles gratuitement pour tous les utilisateurs.

Zoom veut s’imposer comme un leader de l’IA en entreprise

Avec cette intégration poussée de l’IA, Zoom ne se contente pas d’ajouter des fonctionnalités : elle cherche à révolutionner la collaboration en ligne. L’automatisation des tâches et les résumés intelligents pourraient bien changer la façon dont les professionnels utilisent la plateforme.

Reste à voir si ces innovations suffiront à concurrencer des outils comme Microsoft Teams et Google Meet, qui intègrent eux aussi des solutions d’IA avancées.

Lire plus
Intelligence Artificielle

Google Gemini 2.0 Flash : une IA capable de supprimer les filigranes, une révolution controversée

75 1600x960 1

Supprimer les filigranes des images a toujours été une tâche complexe, souvent nécessitant des logiciels avancés ou l’achat de licences officielles. Cependant, Google vient de bouleverser les règles du jeu avec la dernière version de son modèle d’intelligence artificielle, Gemini 2.0 Flash.

Certains utilisateurs ayant testé ce modèle ont été stupéfaits par la capacité de Gemini 2.0 Flash à effacer proprement les filigranes sur des images lorsqu’on lui en fait la demande. Cette fonctionnalité controversée pourrait avoir des implications majeures pour les plateformes de stock d’images et les créateurs de contenu.

Gemini 2.0 Flash : une fonctionnalité cachée pour supprimer les filigranes

D’après plusieurs témoignages en ligne, Gemini 2.0 Flash dissimulerait une fonctionnalité permettant de supprimer les filigranes sur n’importe quelle image. Il suffirait d’importer une photo marquée dans l’IA et d’attendre qu’elle restitue une version propre, sans texte ni logo.

Un utilisateur a partagé une démonstration montrant comment l’IA efface efficacement un filigrane sur une image de banque d’images, prouvant ainsi la puissance de son traitement. TechCrunch a confirmé dans un rapport que cette fonctionnalité est déjà exploitée par de nombreux utilisateurs et qu’elle est gratuite.

Les discussions sur Reddit ont également révélé que Gemini 2.0 Flash ne se contente pas de supprimer les filigranes, mais peut aussi reconstruire les parties masquées par ces derniers. Les images modifiées ne présentent aucun signe visible de manipulation par une intelligence artificielle, ce qui soulève des questions éthiques et légales sur l’usage de cette technologie.

Néanmoins, Google aurait intégré des garde-fous pour empêcher la modification de certaines images sensibles, notamment les photos de célébrités et les contenus protégés par le droit d’auteur.

Google mise sur l’IA générative avec Gemini 2.0

Outre cette fonctionnalité controversée, Google a apporté de nombreuses améliorations à Gemini 2.0. Ce modèle devient plus « agentique », ce qui signifie qu’il est capable d’interagir de manière plus autonome et d’exécuter des tâches complexes à partir de commandes détaillées.

Parmi les principales nouveautés :

  • L’expansion de AI Overviews : Google expérimente un mode de recherche exclusivement basé sur l’IA, où les résultats traditionnels sont remplacés par des réponses générées par Gemini.
  • Un assistant personnel amélioré : Gemini 2.0 Flash s’intègre désormais aux applications Google pour gérer les alarmes, les rappels et les événements avec une personnalisation accrue.

Une technologie puissante, mais controversée

L’intégration d’une IA capable de supprimer des filigranes remet en question la protection des contenus sous licence et pourrait nuire aux créateurs d’images et aux banques d’images en ligne. Google devra clarifier sa position et mettre en place des protections robustes pour éviter un usage abusif de cette fonctionnalité.

En attendant, Gemini 2.0 Flash continue d’évoluer, offrant de nouvelles perspectives sur l’avenir de l’intelligence artificielle et ses impacts sur le web et la création de contenu.

Lire plus
Intelligence Artificielle

Amazon Alexa : L’IA avant la confidentialité, le choix controversé d’Amazon

Echo Studio Shelf

Amazon s’apprête à supprimer une fonctionnalité essentielle de confidentialité d’Alexa. Dès le 28 mars, les utilisateurs d’Echo perdront l’option « Ne pas envoyer les enregistrements vocaux », ce qui signifie que toutes les interactions avec Alexa seront envoyées aux serveurs d’Amazon, sans possibilité de s’y opposer.

Dans un e-mail adressé aux utilisateurs d’Alexa, Amazon justifie cette décision par l’intégration croissante de l’IA générative dans son assistant vocal : « Nous souhaitons vous informer que la fonction “Ne pas envoyer les enregistrements vocaux” ne sera plus disponible à partir du 28 mars. Alors que nous continuons à étendre les capacités d’Alexa avec des fonctionnalités d’IA générative, nous avons décidé de ne plus prendre en charge cette option ».

Autrement dit, Amazon veut exploiter ces enregistrements pour entraîner son modèle d’IA, notamment Alexa+, sa toute première IA conversationnelle basée sur un LLM (Large Language Model).

ZGPBwgZ

Aucune option pour refuser, sauf arrêter d’utiliser Alexa

Contrairement à d’autres services d’IA comme ChatGPT, Gemini ou Perplexity, qui permettent à leurs utilisateurs de désactiver la collecte de données, Amazon impose ce changement sans alternative. Si vous souhaitez utiliser Alexa après le 28 mars, vous devrez accepter que vos enregistrements vocaux soient systématiquement envoyés et traités par Amazon.

Amazon assure que ces requêtes seront chiffrées et stockées dans son cloud sécurisé, mais cela n’atténue pas l’inquiétude des utilisateurs soucieux de leur vie privée.

Amazon mise tout sur Alexa+

Cette annonce s’inscrit dans la stratégie d’Amazon pour relancer Alexa, dont l’adoption a été plus compliquée que prévu ces dernières années. Avec Alexa+, l’entreprise cherche à concurrencer les assistants dopés à l’IA comme Google Gemini et Microsoft Copilot.

Cependant, cette suppression d’une option clé de confidentialité risque de créer un effet inverse en incitant les utilisateurs soucieux de leur vie privée à abandonner complètement Alexa.

Alexa devrait-elle continuer à offrir une option de désactivation des enregistrements vocaux ? Partagez votre avis dans les commentaires !

Lire plus
Intelligence Artificielle

Apple : Siri retardé à 2026, Ming-Chi Kuo critique le manque de transparence de Tim Cook

Apple : Siri retardé à 2026, Ming-Chi Kuo critique le manque de transparence de Tim Cook

L’attente autour du Siri boosté à l’intelligence artificielle d’Apple s’éternise. Annoncée en grande pompe lors de la WWDC 2024, la nouvelle version de Siri devait révolutionner l’assistant vocal en le rendant plus intelligent, plus contextuel et plus performant. Mais récemment, Apple a confirmé ce que beaucoup redoutaient : ces fonctionnalités ne seront pas disponibles avant 2026.

Si le retard est déjà une déception, la façon dont Apple gère cette crise l’est encore plus. C’est en tout cas l’avis de Ming-Chi Kuo, analyste réputé et fin connaisseur de l’écosystème Apple. Selon lui, Tim Cook aurait dû gérer cette crise comme Steve Jobs avait géré l’« Antennagate » de l’iPhone 4 en 2010, en étant transparent et en proposant des solutions concrètes.

Kuo critique la manière dont Apple a annoncé le report : par un simple communiqué de presse. Pour lui, c’était une erreur. Il estime que Tim Cook aurait dû prendre la parole publiquement, expliquer la situation aux clients et actionnaires, et surtout offrir une solution ou une compensation.

L’analyste compare cette situation à l’Antennagate de l’iPhone 4, qui souffrait d’un problème de connexion lorsque les utilisateurs le tenaient de la main gauche. À l’époque, Steve Jobs avait assumé l’erreur, organisé une conférence de presse et offert gratuitement des coques de protection aux utilisateurs concernés.

Aujourd’hui, selon Kuo, Apple aurait dû adopter une approche similaire en expliquant clairement pourquoi Siri sous Apple Intelligence est retardé et ce que l’entreprise compte faire pour compenser l’attente.

Apple Intelligence pour Siri : Un projet trop ambitieux pour Apple ?

Bien que critique, Kuo reconnaît que développer une IA aussi avancée que celle promise par Apple n’est pas une tâche facile. Il explique que l’entreprise a probablement cédé à la pression du marché et des actionnaires, annonçant un produit qui n’était pas encore prêt à être déployé.

D’un côté, Apple devait répondre à la montée en puissance de Samsung et Google, qui intègrent déjà des fonctionnalités basées sur l’IA dans leurs smartphones. De l’autre, l’entreprise voulait se démarquer en proposant une expérience unique et bien plus sophistiquée.

Mais, en repoussant à 2026 un Siri véritablement intelligent, Apple laisse ses utilisateurs dans une situation inconfortable. Ceux qui ont acheté un iPhone 16 en pensant bénéficier d’Apple Intelligence se retrouvent avec un appareil qui n’exploitera pas pleinement ses promesses avant plusieurs années.

Siri Apple Intelligence

Vers un fiasco à la Antennagate ?

La comparaison de Kuo avec l’Antennagate soulève une question intéressante : Apple devrait-il permettre aux utilisateurs de retourner leur iPhone 16 en raison du retard de Siri ?

Si l’analyste ne va pas jusque-là, il sous-entend que les clients ont été trompés par une promesse qui ne sera pas tenue à court terme. Apple devra-t-il proposer une compensation pour éviter une vague de mécontentement ?

Pour l’instant, la marque reste silencieuse. Mais avec Samsung et Google qui avancent rapidement sur l’IA mobile, Apple ne pourra pas se permettre de rester en retrait trop longtemps. En attendant, les utilisateurs devront se contenter d’un Siri inchangé et espérer qu’Apple tiendra enfin ses promesses d’ici 2026.

Lire plus
Intelligence Artificielle

Apple : Une réunion interne révèle l’ampleur des difficultés avec Siri et Apple Intelligence

apple iphone 16 v3

Apple fait face à une tempête médiatique concernant les retards de Siri et de ses avancées en intelligence artificielle (IA). Après avoir promis en juin dernier une modernisation majeure de Siri, l’entreprise a officiellement reporté ces fonctionnalités à une date inconnue.

Et d’après une récente réunion interne, Apple lui-même ne sait pas encore quand elles seront prêtes.

Bloomberg rapporte que Apple a organisé une réunion de crise au sein de l’équipe Siri, dirigée par Robby Walker, directeur principal de la division. Lors de cette rencontre, il a qualifié la situation d’« ugly » (affreuse) et reconnu que les employés étaient frustrés et épuisés face à ces décisions et aux lacunes persistantes de Siri.

L’objectif officiel d’Apple est d’intégrer ces fonctionnalités à iOS 19, mais selon Walker, cela n’est absolument pas garanti. Il a précisé que d’autres projets internes plus urgents ont obligé Apple à revoir ses priorités, retardant encore davantage l’amélioration de Siri.

Un conflit entre l’équipe Siri et le marketing d’Applex

Cette réunion a aussi révélé une tension entre l’équipe Siri et le département marketing. Walker a expliqué que la communication d’Apple avait mis en avant des fonctionnalités qui n’étaient pas prêtes, notamment la compréhension du contexte personnel et l’interprétation des éléments affichés à l’écran.

Cette surpromesse a généré de fausses attentes chez les utilisateurs, aggravant la situation. Apple a depuis supprimé une publicité de l’iPhone 16 qui mettait en avant ces fonctionnalités et a ajouté des avertissements sur son site web, précisant que ces améliorations n’étaient pas prêtes.

D’après Mark Gurman, les tests internes ont révélé que ces nouveautés ne fonctionnaient correctement que deux fois sur trois, ce qui a poussé Apple à les reporter pour éviter une expérience décevante.

Un aveu d’échec de la direction

Lors de la réunion, Craig Federighi (vice-président de l’ingénierie logicielle) et John Giannandrea (responsable de l’IA chez Apple) ont pris la responsabilité de cette situation. Walker a affirmé que ces dirigeants prenaient cet échec très au sérieux et faisaient tout pour accélérer le développement.

Cependant, il a insisté sur le fait que Apple préfère livrer un produit finalisé, plutôt que de proposer des fonctionnalités bâclées, comme l’ont fait certains concurrents. « Les clients attendent non seulement ces nouvelles fonctionnalités, mais aussi un Siri beaucoup plus performant dans son ensemble. Nous les lancerons dès qu’elles seront prêtes ».

Pour l’instant, Apple ne donne aucune nouvelle échéance et tente de calmer les critiques en interne comme en externe. Mais le temps presse : face à Google Gemini et Microsoft Copilot, Apple risque de perdre du terrain dans la course à l’IA.

Lire plus