fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Meta développe son propre processeur IA pour réduire sa dépendance à NVIDIA

Meta développe son propre processeur IA pour réduire sa dépendance à NVIDIA

Alors que de nombreuses entreprises cherchent à développer leurs propres technologies pour gagner en autonomie et réduire leurs coûts, Meta s’engage désormais sur cette voie avec le développement de son propre processeur d’entraînement IA. L’entreprise serait actuellement en phase de test pour ce nouveau chipset dédié, visant à remplacer progressivement les GPU de NVIDIA utilisés jusqu’à présent pour entraîner ses modèles d’intelligence artificielle.

D’après un rapport de Reuters, Meta a déjà finalisé la conception de sa puce d’entraînement IA maison et est actuellement en phase de test avec un déploiement à petite échelle. Ce processeur, conçu pour exécuter des tâches spécifiques liées à l’intelligence artificielle, permettrait à l’entreprise de réduire ses coûts et de gagner en efficacité énergétique.

Meta aurait déjà effectué le « tape-out », une étape clé dans le développement des semi-conducteurs qui signifie que la conception finale de la puce a été soumise pour fabrication. L’entreprise prévoit d’intégrer cette nouvelle technologie d’ici 2026 pour entraîner ses futurs modèles IA et réduire sa dépendance aux solutions de NVIDIA.

Meta, vers une indépendance technologique face à NVIDIA

Depuis plusieurs années, NVIDIA domine le marché des puces IA, avec des GPU ultra-performants utilisés par des entreprises comme OpenAI, Microsoft, Google et bien sûr Meta. Ces puces sont essentielles pour entraîner et exécuter des modèles d’apprentissage automatique, notamment pour le développement des modèles de langage avancés et des algorithmes de recommandations utilisés sur les plateformes de Meta (Facebook, Instagram, WhatsApp).

Mais en développant ses propres processeurs, Meta cherche avant tout à réduire ses coûts d’infrastructure. Les GPU de NVIDIA sont des puces polyvalentes et coûteuses, alors que la puce de Meta serait spécifiquement optimisée pour ses propres besoins IA, ce qui lui permettrait de gagner en efficacité énergétique et en performance.

Ce mouvement s’inscrit dans une tendance plus large où plusieurs géants de la tech tentent de s’émanciper de fournisseurs externes coûteux. Google, par exemple, a développé ses TPU (Tensor Processing Unit) pour accélérer l’apprentissage machine, tandis qu’Apple conçoit ses propres puces de traitement IA pour ses iPhone et Mac.

L’IA, une priorité stratégique pour Meta

Ce développement s’inscrit dans la stratégie globale de Meta, qui mise massivement sur l’intelligence artificielle pour améliorer ses plateformes et optimiser ses algorithmes de recommandations. Le PDG Mark Zuckerberg a récemment annoncé un recentrage des investissements vers l’IA, quitte à réduire les effectifs de l’entreprise. En 2024, 5 % des employés jugés « moins performants » ont été licenciés pour réallouer les ressources vers l’innovation IA.

Par ailleurs, Meta organise Llamacon, un événement dédié à son intelligence artificielle open source Llama, où l’entreprise devrait révéler de nouvelles avancées dans le domaine.

Si Meta parvient à finaliser avec succès son chipset d’entraînement IA, l’entreprise rejoindra les rangs des géants qui développent leurs propres solutions matérielles. Cette initiative pourrait accroître la compétitivité de Meta face à Google, Microsoft et OpenAI, qui investissent également massivement dans l’optimisation de leurs infrastructures IA.

Cependant, il reste à voir si la puce de Meta sera à la hauteur des GPU de NVIDIA, qui continuent d’évoluer rapidement avec des avancées majeures en matière de puissance de calcul et d’efficacité énergétique. Une chose est sûre : la bataille pour l’indépendance technologique et la maîtrise des modèles d’IA avancés ne fait que commencer.

Lire plus
Intelligence Artificielle

OpenAI : Des agents IA plus performants avec les nouveaux Agents SDK et Responses API⁠

API Agents Hero 16.9

OpenAI vient de lancer une suite d’API et d’outils destinés aux développeurs et aux entreprises pour faciliter la création d’agents IA avancés. Ces innovations permettent désormais aux développeurs d’exploiter la même technologie qui alimente les agents IA propriétaires d’OpenAI, comme Deep Research et Operator.

  • Deep Research: un agent capable de mener des recherches autonomes sur internet pour générer des rapports détaillés, organisés et sourcés.
  • Operator : un assistant intelligent capable de naviguer sur le Web et d’exécuter des actions, comme réserver des billets ou remplir des formulaires en suivant des instructions textuelles.

Avec ces nouveaux outils, OpenAI permet aux entreprises de créer leurs propres agents IA spécialisés, sans avoir besoin d’investir massivement en R&D.

OpenAI s’est appuyé sur ses derniers progrès en raisonnement, multimodalité et sécurité, notamment avec ses modèles de la famille « o » (o1 et o3). Ces modèles sont essentiels pour que les agents IA puissent mener des tâches complexes sur le long terme, comme planifier et prendre des décisions en fonction du contexte.

« Les modèles de raisonnement sont cruciaux pour les agents IA », explique Olivier Godement, responsable produit chez OpenAI. « Jusqu’à présent, les développeurs manquaient d’outils pour les intégrer facilement dans des applications d’entreprise ».

Nouveaux outils : Agents SDK, Responses API et outils intégrés

Pour surmonter ces défis, OpenAI introduit plusieurs nouveautés majeures.

Agents SDK (open source) : créez des agents IA indépendants

Agents SDK est une boîte à outils open source permettant aux développeurs de gérer, coordonner et optimiser les flux de travail des agents IA.

  • Avantage clé : il fonctionne avec n’importe quel modèle d’IA, y compris ceux d’Anthropic, Google, DeepSeek, Qwen, Mistral et Meta (Llama).
  • Principales fonctionnalités :
    • Agents configurables : permet d’attribuer des instructions et des outils spécifiques aux agents.
    • Transitions intelligentes : un agent peut déléguer une tâche à un autre en fonction du contexte.
    • Garde-fous intégrés : filtres de validation d’entrée et modération de contenu.
    • Suivi et observabilité : outils pour debugger et améliorer les performances des agents.

« Nous ne voulons pas forcer quiconque à utiliser uniquement les modèles OpenAI », souligne Godement.

API Agents Demo

Responses API⁠ : fusion des meilleures technologies OpenAI

Responses API⁠ est un outil tout-en-un qui combine Chat Completions API et Assistants API (cette dernière sera abandonnée en 2026).

Pourquoi c’est important ?

  • Permet aux développeurs d’intégrer plusieurs outils dans un seul appel API.
  • Meilleur contrôle des flux d’exécution et des interactions complexes.

Trois nouveaux outils intégrés pour automatiser les agents IA

Responses API⁠ offre trois outils intégrés qui rendent les agents IA plus performants et autonomes :

  • Web Search : Accès en temps réel à des sources d’informations vérifiables.
  • File Search : Recherche intelligente dans des bases de documents privées.
  • Computer Use : Navigation et interaction automatisée avec des interfaces logicielles.

« Avec Web Search, l’IA peut récupérer des informations en temps réel et fournir des sources vérifiables », explique Nikunj Handa, chef de produit chez OpenAI.

Pourquoi ces outils sont une révolution pour les entreprises ?

Pour les équipes IT, CTO et responsables de l’innovation, ces outils permettent :

  • Automatisation et gain de temps : plus besoin de coder des intégrations complexes.
  • Meilleure gestion des données : récupération rapide d’infos internes et web.
  • Sécurité et conformité : garde-fous intégrés pour contrôler l’accès aux données.
  • Flexibilité : possibilité de combiner différents modèles IA et infrastructures cloud.

Exemple d’application :

  • Une entreprise peut automatiser son support client avec un agent IA qui répond aux requêtes en temps réel en utilisant Web Search et File Search.
  • Une société de finance peut utiliser Computer Use pour automatiser la saisie de données et la navigation dans ses logiciels internes.

L’avenir des agents IA selon OpenAI

OpenAI ne compte pas s’arrêter là. Selon Godement, l’entreprise prévoit :

  • L’ajout de nouveaux outils et fonctionnalités dans les mois à venir.
  • L’amélioration de la sécurité et des garde-fous pour les applications autonomes.
  • Une plateforme de bout en bout pour la gestion et le déploiement d’agents IA.

« Nous avons déjà testé ces outils avec nos agents propriétaires comme Deep Research, mais OpenAI ne développera pas tous les agents. Nous offrons aux développeurs les outils pour créer les leurs », indique Godement.

Avec ces nouvelles solutions, OpenAI simplifie la création d’agents IA performants et autonomes. En ouvrant son Agents SDK en open source, elle prend une approche plus flexible et ouverte face à la concurrence d’Anthropic, Google et des modèles open source comme Llama.

Et vous, comment utiliseriez-vous ces nouveaux outils OpenAI ?

Lire plus
Intelligence Artificielle

Microsoft : Phi-4, modèles MAI, IA de raisonnement… L’offensive tous azimuts

openai microsoft ai 173530605153

Microsoft, l’un des principaux soutiens d’OpenAI, a largement mis en avant son accès aux derniers modèles ChatGPT pour promouvoir des produits comme Copilot. Cependant, Microsoft semble désormais vouloir réduire sa dépendance à OpenAI en développant ses propres modèles d’intelligence artificielle.

En parallèle, Microsoft travaille également sur une alternative aux modèles de raisonnement d’OpenAI, notamment la famille « GPT-o ».

D’après The Information, des employés de l’unité IA de Microsoft ont récemment achevé l’entraînement d’une nouvelle famille de modèles d’IA, actuellement en développement sous le nom de code « MAI ». L’objectif de cette initiative est de rivaliser avec les modèles phares d’acteurs majeurs du secteur tels qu’OpenAI et Anthropic.

Ce projet est dirigé par Mustafa Suleyman, chef de l’IA chez Microsoft, qui souhaite bâtir un écosystème IA autonome pour les applications Copilot, réduisant ainsi la dépendance technologique vis-à-vis d’OpenAI.

Microsoft construit progressivement son propre écosystème IA

En février dernier, Microsoft a introduit deux nouveaux modèles de langage : Phi-4-multimodalet Phi-4-mini. Ces modèles possèdent des capacités multimodales, leur permettant de traiter du texte, de la parole et des images, à l’instar de ChatGPT d’OpenAI et Gemini de Google.

Déjà disponibles sur Azure AI Foundry, Hugging Face et le catalogue d’API NVIDIA, ces modèles affichent des performances prometteuses. Microsoft affirme même que Phi-4 surpasse les derniers modèles Gemini 2.0 de Google sur plusieurs critères d’évaluation.

clipboard image 1 1734043173845

L’entreprise a souligné dans un article de blog que Phi-4 est l’un des rares modèles ouverts à réussir la synthèse vocale et à atteindre un niveau de performance comparable à GPT-4o.

Vers une indépendance totale : le développement de modèles de raisonnement

En plus de sa propre gamme de modèles IA, Microsoft explore également des alternatives tierces, en testant des modèles développés par DeepSeek, xAI et Meta. DeepSeek, en particulier, a récemment fait sensation en offrant des performances élevées à un coût de développement nettement inférieur.

Toutefois, Microsoft ne se contente pas d’explorer des solutions externes : l’entreprise accélère aussi le développement de ses propres modèles de raisonnement IA. Ceux-ci viseront à concurrencer les produits comme GPT-o1 d’OpenAI ainsi que les modèles émergents de startups chinoises comme DeepSeek.

Le développement de ces modèles de raisonnement aurait été accéléré en raison des tensions entre Microsoft et OpenAI sur le partage des avancées technologiques. Selon The Information, Mustafa Suleyman et OpenAI seraient en désaccord sur le manque de transparence d’OpenAI concernant le fonctionnement interne de ses modèles, comme GPT-o1.

Les modèles de raisonnement : le futur de l’IA

Les modèles de raisonnement représentent la prochaine évolution majeure dans l’intelligence artificielle. Contrairement aux modèles traditionnels, ils offrent une meilleure compréhension des requêtes, une capacité de déduction logique avancée et une résolution de problèmes plus efficace.

Microsoft affirme que son modèle Phi-4 est déjà en avance sur ces aspects, notamment en raisonnement linguistique, mathématique et scientifique.

Avec ces développements, Microsoft s’éloigne progressivement d’OpenAI et renforce son propre écosystème IA. L’avenir du partenariat entre les deux géants reste incertain, mais une chose est claire : Microsoft veut sa part du gâteau dans la course à l’intelligence artificielle et ne compte pas laisser OpenAI dominer le marché.

La bataille pour l’IA de nouvelle génération ne fait que commencer.

Lire plus
Intelligence Artificielle

Microsoft développe ses propres modèles d’IA pour concurrencer OpenAI

Microsoft développe ses propres modèles d'IA pour concurrencer OpenAI

Microsoft, partenaire stratégique d’OpenAI depuis plusieurs années, semble désormais accélérer son développement interne en intelligence artificielle pour ne plus dépendre uniquement des modèles de son allié. Selon plusieurs rapports, Microsoft développe ses propres modèles d’IA avancés et explore des alternatives pour alimenter ses outils comme Copilot.

D’après The Information, Microsoft a mis au point ses propres modèles d’IA dits de « raisonnement », capables de rivaliser avec les modèles o1 et o3-mini d’OpenAI. La situation entre les deux entreprises s’est tendue après que OpenAI a refusé de partager des détails techniques sur le fonctionnement de ses modèles, ce qui aurait incité Microsoft à accélérer ses propres développements.

En parallèle, Bloomberg révèle que Microsoft travaille sur une nouvelle famille de modèles d’IA baptisée MAI. Ceux-ci pourraient être mis à disposition via une API dès cette année, un mouvement qui marquerait une rupture progressive avec OpenAI.

Microsoft teste des alternatives pour remplacer OpenAI dans Copilot

Microsoft explore également d’autres options pour alimenter ses services, comme Copilot, en testant les modèles d’IA de plusieurs entreprises concurrentes, notamment xAI (fondée par Elon Musk), Meta, Anthropic et DeepSeek. Cette diversification montre la volonté de Microsoft de réduire sa dépendance à OpenAI, tout en gardant un écosystème flexible et compétitif.

Rappelons que Microsoft a investi près de 14 milliards de dollars dans OpenAI. Cependant, pour éviter une dépendance excessive, l’entreprise renforce ses propres capacités. Le recrutement récent de Mustafa Suleyman, cofondateur de DeepMind et Inflection, à la tête des efforts en IA de Microsoft illustre cette ambition.

En misant sur ses propres modèles d’IA et en explorant des alternatives à OpenAI, Microsoft semble préparer l’avenir en consolidant sa place dans la course à l’IA générative.

Lire plus
Intelligence Artificielle

OpenAI accusé de minimiser les risques de l’IA : une polémique grandissante

OpenAI accusé de minimiser les risques de l'IA : une polémique grandissante

OpenAI fait face à de nouvelles critiques sur sa gestion des risques liés à l’intelligence artificielle. Miles Brundage, ancien chercheur en politique d’OpenAI, a vivement réagi au dernier document de l’entreprise sur la sécurité et l’alignement des modèles d’IA. Selon lui, OpenAI minimise les préoccupations en matière de sécurité et tente de réécrire son propre passé pour justifier ses choix actuels.

Le document publié cette semaine par OpenAI décrit sa stratégie de développement de l’intelligence artificielle générale (AGI) comme une succession de petites avancées plutôt qu’un grand bond en avant. L’entreprise affirme que cette approche progressive permettra d’identifier et de corriger les problèmes de sécurité au fur et à mesure, notamment les risques de mésusage et de détournement de ses modèles.

Cette déclaration fait écho aux nombreuses critiques que subissent les modèles d’IA comme ChatGPT. Parmi les préoccupations majeures figurent :

  • La diffusion d’informations erronées, notamment sur des sujets sensibles comme la santé et la sécurité (comme l’infâme recommandation de Google Gemini de « manger des cailloux »).
  • L’usage de l’IA pour la désinformation politique, la manipulation et les escroqueries en ligne.
  • Le manque de transparence d’OpenAI sur l’entraînement de ses modèles, qui pourraient contenir des données personnelles sensibles.

Une réécriture de l’histoire de GPT-2 ?

Dans son document, OpenAI laisse entendre que le développement du modèle GPT-2 a été marqué par une « discontinuité », et qu’il n’a pas été immédiatement publié en raison de préoccupations liées à un usage malveillant. Aujourd’hui, l’entreprise affirme privilégier une stratégie de déploiement progressif pour mieux contrôler les risques.

Mais pour Miles Brundage, cette version des faits est trompeuse. Il réfute l’idée que GPT-2 ait été traité différemment, affirmant qu’OpenAI suit cette approche depuis longtemps.

« Le déploiement de GPT-2, auquel j’ai participé, était parfaitement conforme à la philosophie actuelle d’OpenAI. Le modèle a été publié progressivement, avec un partage des enseignements à chaque étape. De nombreux experts en sécurité nous ont remerciés pour cette prudence », précise Miles Brundage, sur X.

En d’autres termes, OpenAI ne ferait que justifier son manque de transparence actuel en altérant son propre passé.

Un raisonnement dangereux sur les risques

Brundage critique également la mentalité d’OpenAI face aux risques. Selon lui, l’entreprise impose un fardeau de la preuve beaucoup trop lourd sur ceux qui alertent sur les dangers potentiels de l’IA.

« Il semble qu’OpenAI considère toute préoccupation comme alarmiste et exige des preuves écrasantes de dangers imminents avant d’agir. Sinon, ils continuent à publier leurs modèles. C’est une mentalité très dangereuse pour des systèmes d’IA avancés ».

Ce type de culture du risque est préoccupant alors qu’OpenAI est déjà accusée de privilégier le développement rapide de nouveaux produits au détriment de la sécurité et de la réglementation.

Une entreprise sous pression croissante

Cette polémique survient à un moment où OpenAI fait face à une surveillance accrue de la part des régulateurs et du grand public. Plusieurs critiques l’accusent de prioriser des innovations tape-à-l’œil au détriment de la prudence.

Si OpenAI maintient que sa stratégie de déploiement progressif est la meilleure manière de gérer les risques, des experts comme Brundage rappellent que cela ne doit pas servir d’excuse pour ignorer les dangers évidents.

L’avenir dira si OpenAI ajuste sa trajectoire ou si elle continue à avancer malgré les avertissements de la communauté scientifique et éthique.

Lire plus
Intelligence Artificielle

Gemini : Des réponses personnalisées grâce à votre historique de recherche Google !

gemini logo

Google pousse encore plus loin l’intégration de Gemini avec ses services en introduisant un nouveau modèle de personnalisation qui exploite votre historique de recherche Google. Détectée dans la version bêta 16.8.31 de l’application Google, cette fonctionnalité vise à fournir des réponses plus pertinentes en fonction des recherches passées des utilisateurs.

Lorsque vous activez le modèle de personnalisation de Gemini, une fenêtre de confirmation apparaît pour vous demander la permission d’accéder à votre historique de recherche. Pour que cette fonction soit opérationnelle, l’option « Activité sur le Web et les applications » doit être activée dans les paramètres de votre compte Google.

Cependant, Google précise que ce modèle est expérimental et qu’il ne sert pas à améliorer l’IA de manière générale. Les utilisateurs peuvent également désactiver l’accès à tout moment s’ils ne souhaitent plus que Gemini utilise leur historique pour adapter ses réponses.

Des résultats plus pertinents, mais des questions de confidentialité en suspens

Les premiers tests effectués par Android Authority montrent que Gemini fournit des réponses plus précises et adaptées aux habitudes de recherche de l’utilisateur. Toutefois, comme il s’agit encore d’un modèle expérimental, des erreurs ou incohérences peuvent survenir.

Google n’a pas encore communiqué de date officielle pour le déploiement grand public de cette fonctionnalité. Toutefois, il est possible qu’elle soit bientôt disponible pour les utilisateurs de Gemini Advanced, parallèlement à une mise à jour prévue aujourd’hui.

Une nouvelle frontière pour l’IA… mais à quel prix ?

Jusqu’à présent, Gemini s’appuyait sur des données générales issues du Web, sans exploiter directement l’historique personnel des utilisateurs. Ce changement pourrait donc améliorer significativement la pertinence des réponses, mais soulève aussi des préoccupations en matière de confidentialité.

La grande question reste de savoir si Google maintiendra cette fonctionnalité comme une option facultative, ou si elle sera progressivement intégrée par défaut dans Gemini. Pour les utilisateurs soucieux de leur vie privée, cette nouvelle dépendance aux données personnelles pourrait être perçue comme une intrusion supplémentaire.

Lire plus
Intelligence Artificielle

OpenAI lance GPT-4.5 : Un modèle d’IA à l’avenir incertain

OpenAI lance GPT-4.5 : Un modèle d'IA à l'avenir incertain

OpenAI a commencé à déployer son tout dernier modèle d’intelligence artificielle, GPT-4.5, pour les abonnés à son offre ChatGPT Plus. Cette mise à jour intervient une semaine après que le modèle a été lancé pour les utilisateurs de ChatGPT Pro, l’abonnement premium à 200 dollars par mois.

Dans une série de publications sur X (anciennement Twitter), OpenAI a précisé que le déploiement prendra entre 1 et 3 jours et que les limites d’utilisation pourraient évoluer en fonction de la demande des utilisateurs.

GPT-4.5 est le plus grand modèle d’IA jamais développé par OpenAI, ayant été entraîné avec davantage de puissance de calcul et de données que ses prédécesseurs. Toutefois, il n’est pas forcément le plus performant.

Selon plusieurs benchmarks d’intelligence artificielle, GPT-4.5 n’égale pas certains modèles concurrents, comme ceux de DeepSeek, Anthropic ou même d’OpenAI lui-même en matière de raisonnement et d’analyse contextuelle.

Malgré cela, OpenAI assure que GPT-4.5 dispose d’une compréhension plus approfondie du monde et d’une intelligence émotionnelle améliorée. L’entreprise affirme également que ce modèle « hallucine » moins, c’est-à-dire qu’il est moins susceptible de générer des informations incorrectes.

GPT-4.5, un coût d’exploitation très élevé

L’un des principaux problèmes de GPT-4.5 est son coût d’exploitation extrêmement élevé. OpenAI reconnaît même qu’il envisage de ne pas proposer GPT-4.5 à long terme dans son API, en raison de son coût prohibitif.

Voici les tarifs appliqués par OpenAI pour utiliser GPT-4.5 via son API :

  • 75 dollars par million de tokens en entrée (environ 750 000 mots).
  • 150 dollars par million de tokens générés en sortie.

À titre de comparaison, ces tarifs sont 30x plus élevés pour l’entrée et 15x plus élevés pour la sortie que ceux du modèle GPT-4o, actuellement la solution la plus rentable d’OpenAI.

Un modèle plus persuasif que jamais

Une particularité notable de GPT-4.5 est sa capacité avancée en rhétorique et persuasion. Lors de tests internes menés par OpenAI, il a été démontré que ce modèle excelle dans l’art de convaincre, au point d’avoir réussi à persuader une autre IA de lui donner de l’argent et de révéler un code secret.

Cette capacité pourrait être une avancée précieuse pour des applications en service client, marketing et négociation, mais elle soulève également des questions éthiques et de sécurité.

Avec un coût aussi élevé et une concurrence accrue, il reste à voir si OpenAI maintiendra GPT-4.5 à long terme ou si l’entreprise se concentrera sur des alternatives plus rentables.

En attendant, les abonnés à ChatGPT Plus peuvent déjà tester GPT-4.5, tandis que les entreprises doivent débourser des sommes importantes pour y accéder via l’API. Reste à savoir si la qualité justifie le prix… ou si OpenAI devra revoir sa stratégie face aux avancées rapides de ses concurrents.

Lire plus
Intelligence Artificielle

Aya Vision : Cohere lance un modèle IA vision-texte disponible en 23 langues

Aya Vision : Cohere lance un modèle IA vision-texte disponible en 23 langues

Le marché de l’intelligence artificielle (IA) devient de plus en plus compétitif, et la startup canadienne Cohere ne compte pas se laisser distancer. Alors qu’elle peine encore à s’imposer face à OpenAI, Anthropic ou DeepSeek, Cohere vient d’annoncer Aya Vision, son premier modèle IA open-weight combinant traitement du langage et vision artificielle.

Ce modèle se distingue par sa capacité à comprendre et générer du contenu dans 23 langues, ce qui, selon Cohere, couvre « la moitié de la population mondiale ». Une avancée majeure qui pourrait changer la donne dans les applications d’IA multimodale.

Aya Vision : une IA visuelle et linguistique en open source

Aya Vision est conçu pour analyser des images, générer du texte et traduire du contenu visuel en langage naturel. Son objectif est de rendre l’IA multilingue plus accessible et plus efficace, notamment pour les entreprises et les organisations opérant à l’international.

cohere aya vision graphic

Disponible en deux versions :

  • Aya Vision 8B (8 milliards de paramètres)
  • Aya Vision 32B (32 milliards de paramètres)

Où l’obtenir ?

Aya Vision est déjà disponible sur :

Licence d’utilisation : Le modèle est publié sous Creative Commons Attribution-NonCommercial 4.0 (CC BY-NC 4.0), ce qui signifie qu’il est gratuitement accessible pour des usages non commerciaux.

Une IA capable de comprendre 23 langues

Alors que des modèles comme GPT-4 ou Claude maîtrisent plusieurs langues, l’application de ces compétences aux tâches de vision reste un défi. Aya Vision le relève en permettant la génération de légendes d’images, la traduction visuelle et les réponses aux questions basées sur des images dans les langues suivantes : Anglais, Français, Allemand, Espagnol, Italien, Portugais, Japonais, Coréen, Chinois, Arabe, Grec, Persan, Polonais, Indonésien, Tchèque, Hébreu, Hindi, Néerlandais, Roumain, Russe, Turc, Ukrainien, Vietnamien.

Exemples d’applications :

  • Apprentissage des langues : traduction et description d’images
  • Préservation culturelle : analyse et documentation d’œuvres d’art et monuments
  • Accessibilité : assistance aux personnes malvoyantes via des descriptions détaillées
  • Communication mondiale : traduction multimodale en temps réel
  • Une efficacité impressionnante face à des modèles plus grands

Malgré une taille plus réduite que d’autres IA, Aya Vision affiche des performances exceptionnelles sur plusieurs benchmarks.

  • Aya Vision 8B dépasse LLaMA 90B, un modèle 11x plus grand
  • Aya Vision 32B surpasse Qwen 72B, LLaMA 90B et Molmo 72B, tous au moins 2x plus grands

Efficiency vs Performance

Résultats de benchmarking :

  • Aya Vision 8B atteint un taux de réussite de 79 % en compréhension d’images multilingues
  • Aya Vision 32B atteint 72 %

Step by Step Improvement

Quelles innovations derrière ces performances ?

Cohere For AI explique qu’Aya Vision bénéficie de plusieurs avancées technologiques :

  • Annotations synthétiques : génération de données artificielles pour améliorer l’apprentissage
  • Échelle de données multilingues : traduction et reformulation automatique des données
  • Fusion de modèles multimodaux : combinaison optimisée des informations issues des modèles visuels et linguistiques

Ces techniques permettent à Aya Vision de traiter des images et du texte avec une grande précision tout en conservant des capacités multilingues avancées.

Aya Vision pour les entreprises et chercheurs

Bien qu’Aya Vision soit conçu pour l’entreprise, sa licence non commerciale peut limiter son adoption dans des solutions payantes.

Utilisation en entreprise :

  • Recherche et développement interne
  • Benchmarking et tests d’IA multimodale
  • Études sur l’IA multilingue avant une adoption à grande échelle

Utilisation pour les chercheurs :

  • Analyse et amélioration des modèles IA
  • Fine-tuning dans un cadre non commercial
  • Études sur l’impact de l’IA en linguistique et vision

Aya Vision représente donc une ressource précieuse pour les chercheurs et les entreprises qui veulent expérimenter des solutions IA sans dépendre de modèles propriétaires fermés.

Aya Vision et l’avenir de l’IA multilingue

Aya Vision s’inscrit dans l’initiative Aya, lancée par Cohere en février 2024 pour rendre l’IA plus inclusive et multilingue.

Communauté de recherche Aya :

  • 3 000 chercheurs indépendants
  • 119 pays représentés
  • Développement collaboratif pour améliorer les modèles IA

Cohere prévoit également de lancer un programme de recherche collaboratif et d’attribuer des bourses de recherche pour stimuler les avancées en IA multilingue.

Aya Vision, une avancée majeure pour l’IA multimodale

En rendant Aya Vision accessible à la communauté open source, Cohere continue de pousser les limites de l’IA.

Pourquoi Aya Vision est important ?

  • Modèle puissant et efficace malgré une taille réduite
  • Compatible avec 23 langues, une première pour un modèle vision-texte
  • Open-weight et accessible, contrairement aux solutions propriétaires fermées
  • Conçu pour la recherche et l’innovation IA, avec un fort engagement envers l’open science

Avec Aya Vision, Cohere veut non seulement démocratiser l’IA multilingue, mais aussi offrir une alternative puissante aux modèles propriétaires. Un projet ambitieux qui pourrait changer le paysage de l’IA multimodale dans les années à venir.

Lire plus
Intelligence Artificielle

MWC 2025 : Les 8 annonces IA qui ont marqué le salon

MWC 2025 : Les 8 annonces IA qui ont marqué le salon

Le Mobile World Congress 2025 bat son plein à Barcelone, et l’intelligence artificielle (IA) est au cœur des annonces. Cette année, les entreprises ne se contentent pas de smartphones plus puissants : elles misent sur l’IA pour transformer notre manière d’interagir avec la technologie.

De Google, Perplexity et Xiaomi à Lenovo et Qualcomm, voici les annonces IA les plus marquantes du salon.

1. Google : Gemini Live avec Project Astra

Google a enfin dévoilé Project Astra en action, intégré à l’application Gemini. Ce projet, annoncé lors de Google I/O 2024, permet d’utiliser l’IA en direct via la caméra ou le partage d’écran.

Démontré pour la première fois au MWC 2025, Gemini Live pourra observer et analyser en temps réel ce que vous filmez ou affichez sur votre écran. Cette fonctionnalité, qui arrivera plus tard ce mois-ci pour les abonnés Gemini Advanced, est une réponse directe à ChatGPT Vision d’OpenAI, qui propose déjà des interactions similaires.

2. Un smartphone IA par T-Mobile et Perplexity

T-Mobile (via sa maison-mère Deutsche Telekom) et Perplexity ont dévoilé leur « AI Phone », un téléphone qui repose entièrement sur l’intelligence artificielle.

  • « Magenta AI », le cerveau de l’appareil, regroupe plusieurs technologies : l’assistant IA de Perplexity, ElevenLabs, Picsart, et Google Cloud AI.
  • Le téléphone fonctionnera presque exclusivement à la voix et pourra réserver des restaurants, acheter des billets d’avion ou faire du shopping sans interaction manuelle.
  • Prix : Moins de 1 000 dollars disponible en Europe au second semestre 2025.

3. Xiaomi HyperAI : L’IA générative arrive en force

Xiaomi a rejoint la course à l’IA en annonçant HyperAI, un ensemble de fonctionnalités IA avancées intégrées à ses smartphones haut de gamme.

  • HyperAI peut générer, résumer et corriger du texte, créer des sous-titres automatiques pour les vidéos et transformer vos clips en courts-métrages cinématographiques.
  • Une IA de recherche en langage naturel permet de retrouver facilement des photos, documents et fichiers.
  • Disponible dès maintenant sur la série Xiaomi 15, et bientôt sur les Xiaomi 14 (avril 2025).

4. Honor Alpha Plan : 10 milliards de dollars pour l’IA

Honor a dévoilé son « Alpha Plan », un programme ambitieux en partenariat avec Google et Qualcomm pour créer un écosystème IA ouvert. L’objectif : réduire la frontière entre humain et IA.

  • Investissement de 10 milliards de dollars sur 5 ans.
  • Trois étapes prévues : IA Agentique (2025), IA Physique et IA Générale (AGI).
  • L’IA agentique sera intégrée aux smartphones Honor dès cette année, avec des assistants capables d’exécuter des tâches complexes (réservations, planifications, etc.).

5. Opera : Un navigateur IA autonome

Opera a présenté le premier « Navigateur IA Agentique », baptisé Browser Operator. Cette IA intégrée peut naviguer pour vous :

  • Exécuter des commandes vocales ou textuelles pour réserver des billets, acheter des produits, remplir des formulaires, etc.
  • Fonctionne localement sur l’appareil, contrairement à l’agent OpenAI qui tourne sur le cloud.
  • En phase de test, déploiement prévu dans les mois à venir.

6. Lenovo AI Display & AI Stick

Lenovo a dévoilé un moniteur intelligent avec NPU (Neural Processing Unit) intégré, le Lenovo AI Display.

  • Un écran incurvé équipé d’un processeur IA de 32 TOPS, qui permet aux anciens PC de faire tourner des modèles d’IA locaux.
  • Lenovo a aussi présenté l’AI Stick, un dongle USB-C qui transforme n’importe quel écran en PC IA autonome.

7. Qualcomm X85 5G : Un modem boosté par l’IA

Le nouveau modem X85 5G de Qualcomm intègre une puce IA 30 % plus rapide pour améliorer :

  • Les vitesses de connexion et la latence grâce à un moteur IA de gestion du trafic.
  • La qualité des appels vocaux.
  • Les performances réseau pour le gaming en ligne.

8. Motorola Smart Connect avec Moto AI

Motorola a enrichi son Smart Connect avec des fonctionnalités IA avancées :

  • Recherche de fichiers et documents en langage naturel sans avoir à se souvenir du nom exact.
  • Moto AI peut streamer du contenu de votre téléphone vers un PC ou une TV connectée sur simple commande vocale.

Un MWC 2025 sous le signe de l’IA

Cette édition du Mobile World Congress marque un tournant décisif pour l’IA mobile. Des smartphones entièrement pilotés par IA, des navigateurs autonomes, des modems boostés et des moniteurs IA autonomes : l’ère de l’IA intégrée est là.

Parmi toutes ces annonces, quelle innovation vous enthousiasme le plus ?

Lire plus
Intelligence Artificielle

GPT-4.5 : OpenAI freiné par la pénurie de GPU

chatgpt 4 5 openai

Le lancement de GPT-4.5, le tout dernier modèle d’OpenAI, est entravé par une pénurie de puces GPU (Graphics Processing Units). Ces composants sont essentiels à l’entraînement des modèles d’intelligence artificielle, permettant de traiter d’énormes volumes de données et d’effectuer des calculs complexes simultanément.

Contrairement aux CPU (Central Processing Units), qui traitent les données de manière séquentielle, les GPU sont optimisés pour les opérations matricielles, rendant leur utilisation bien plus adaptée aux modèles d’IA.

Face à cette contrainte matérielle, Sam Altman, PDG d’OpenAI, a assuré que des centaines de milliers de GPU sont en route. L’entreprise devrait ainsi pouvoir progressivement élargir l’accès à GPT-4.5, qui pour l’instant est réservé aux abonnés Pro de ChatGPT, facturés 200 dollars par mois. Lorsque la situation s’améliorera, les utilisateurs de ChatGPT Plus (20 dollars par mois) devraient également pouvoir profiter de cette mise à niveau.

Mais ce problème met en lumière une dépendance critique : OpenAI dépend fortement des fournisseurs comme NVIDIA pour ses besoins en calcul intensif. C’est pourquoi l’entreprise envisage de développer ses propres puces afin de réduire sa vulnérabilité face aux fluctuations des stocks et aux prix du marché.

Un modèle cher mais révolutionnaire

Dans son tweet, Sam Altman précise que GPT-4.5 n’est pas un modèle conçu pour battre des records de raisonnement, mais qu’il s’agit d’une nouvelle forme d’intelligence qui, selon lui, possède une « magie » qu’il n’a jamais ressentie auparavant.

Cependant, ce modèle est extrêmement coûteux. Son utilisation revient à 75 dollars par million de tokens en entrée et 150 dollars par million de tokens en sortie. À titre de comparaison, GPT-4o coûte seulement 2,50 dollars par million de tokens en entrée et 10 dollars par million de tokens en sortie.

Les tokens, qui peuvent être une lettre, un mot ou un signe de ponctuation, sont l’unité de base avec laquelle les modèles de langage traitent le texte. Plus un modèle est avancé, plus il consomme de tokens, ce qui impacte directement son coût d’exploitation.

NVIDIA, le grand gagnant de la course à l’IA

Cette demande croissante pour les GPU explique l’ascension fulgurante de NVIDIA en bourse, avec une hausse impressionnante de 1 748,96 % en 5 ans. L’IA étant l’un des secteurs technologiques les plus porteurs, NVIDIA bénéficie d’une demande explosive pour ses puces spécialisées.

Alors que les géants de l’IA comme OpenAI, Google et Meta se ruent sur les ressources informatiques, la course aux GPU est plus intense que jamais. L’avenir nous dira si OpenAI réussira à s’affranchir de cette dépendance en développant ses propres solutions matérielles ou si NVIDIA continuera de dominer ce marché stratégique.

Lire plus
Intelligence Artificielle

Amazon Nova : Le géant prépare une IA « raisonnante »

image 1

Amazon souhaite entrer dans la course aux modèles d’IA « raisonnants », selon un rapport de Business Insider. L’entreprise travaillerait actuellement sur un modèle d’intelligence artificielle avancé intégrant des capacités de raisonnement, similaire aux modèles o3-mini d’OpenAI et R1 du laboratoire chinois DeepSeek.

Le modèle d’Amazon pourrait être dévoilé dès juin 2025 sous la marque Nova, que l’entreprise avait introduite lors de sa conférence re:Invent l’année dernière. Contrairement aux IA traditionnelles, qui génèrent des réponses immédiates basées sur des probabilités, les modèles de raisonnement adoptent une approche plus progressive et méthodique, ce qui améliore leur fiabilité dans des domaines complexes, comme les mathématiques et les sciences.

Le rapport indique que Amazon veut adopter une architecture hybride, similaire à celle du Claude 3.7 Sonnet d’Anthropic. Cela permettrait au modèle de fournir des réponses rapides et précises, tout en étant capable d’un raisonnement plus profond et structuré pour des tâches plus complexes.

L’un des objectifs d’Amazon serait de rendre son modèle plus abordable que ceux de ses concurrents. Cependant, cela pourrait être un défi de taille, étant donné que DeepSeek s’est déjà forgé une réputation pour proposer des modèles d’IA à des prix extrêmement compétitifs.

Amazon et la concurrence DeepSeek, OpenAI et Google !

Si Amazon parvient à allier performance et coût réduit, cela pourrait bouleverser le marché et renforcer son offre face aux solutions d’OpenAI, Anthropic et Google DeepMind.

Ce projet souligne l’ambition d’Amazon dans l’IA générative, alors que la société cherche à rattraper son retard face aux géants déjà bien établis dans ce domaine.

Lire plus
Intelligence Artificielle

Microsoft Dragon Copilot : l’IA qui révolutionne la médecine ?

Microsoft Dragon Copilot : l'IA qui révolutionne la médecine ?

Microsoft a dévoilé Dragon Copilot, un système d’IA conçu pour le secteur de la santé, capable d’écouter et de générer des notes basées sur les consultations médicales.

Cette solution repose sur la technologie de dictée vocale et d’écoute ambiante développée par Nuance, une entreprise spécialisée dans l’IA vocale que Microsoft a acquise en 2021.

Dragon Copilot, une IA médicale au service des professionnels de santé

L’objectif principal de Dragon Copilot est de réduire la charge administrative qui pèse sur les professionnels de santé. Microsoft affirme que ce système peut améliorer l’efficacité des cliniciens grâce à plusieurs fonctionnalités clés :

  • Création automatique de notes médicales en plusieurs langues
  • Dictée vocale en langage naturel pour rédiger des rapports médicaux
  • Recherche d’informations médicales générales à partir de sources fiables
  • Automatisation des tâches administratives, telles que les ordonnances, les résumés cliniques, les lettres de recommandation et les synthèses post-consultation

Selon Joe Petro, vice-président de Microsoft Health and Life Sciences Solutions and Platforms, cette IA vise à diminuer la charge mentale des médecins et leur permettre de se concentrer davantage sur leurs patients.

Microsoft assure que ses études internes montrent une réduction de l’épuisement professionnel chez les cliniciens utilisant la technologie Nuance et que 93 % des patients déclarent une meilleure expérience globale.

Microsoft face à la concurrence et aux défis de l’IA médicale

Microsoft n’est pas seul sur ce marché. Google a récemment mis en avant ses propres solutions d’IA médicale via Google Cloud, en développant des assistants médicaux intelligents capables d’évaluer les risques pour la santé des patients. Google a également intégré de nouvelles fonctionnalités de recherche d’images pour Vertex AI Search, son produit destiné aux professionnels de santé.

Cependant, l’utilisation de l’IA dans le secteur médical soulève des défis majeurs, notamment en matière de sécurité des données et de fiabilité des informations générées. L’année dernière, la FDA (Food and Drug Administration) a publié un rapport soulignant à la fois les avantages et les risques des IA génératives en santé, notamment leur tendance à inventer des informations. Une étude de 2023 a par ailleurs révélé que certaines solutions d’IA médicale basées sur Whisper d’OpenAI pouvaient produire des erreurs dans la transcription médicale.

Un engagement pour une IA responsable en santé

Microsoft insiste sur son engagement en faveur d’une IA responsable, affirmant que Dragon Copilot repose sur une infrastructure de données sécurisée et intègre des mécanismes de conformité et de contrôle propres au secteur médical. L’entreprise met en avant ses mesures de protection des données de santé et assure que son IA est conçue pour générer des réponses sûres et précises.

Avec Dragon Copilot, Microsoft veut s’imposer comme un acteur majeur de l’IA en santé, en proposant des outils qui optimisent l’expérience des médecins et des patients tout en répondant aux enjeux réglementaires et éthiques du secteur. Reste à voir comment cette technologie sera adoptée par les professionnels et quelles seront ses répercussions à long terme sur le monde médical.

Lire plus
Intelligence Artificielle

Sora dans ChatGPT : OpenAI prépare une intégration choc

sora openai tokyo woman

Après son lancement en 2024 et son expansion en Europe fin février 2025, l’outil de génération vidéo par IA Sora pourrait bientôt faire son apparition dans ChatGPT.

Selon un rapport de TechCrunch, OpenAI envisage d’intégrer son outil de création vidéo directement dans son assistant conversationnel, une décision qui pourrait renforcer son attrait face à une concurrence toujours plus féroce.

Une version allégée de Sora pour ChatGPT

Actuellement, Sora est uniquement accessible via une interface Web et réservé aux abonnés payants. L’intégration dans ChatGPT permettrait donc à un plus grand nombre d’utilisateurs d’expérimenter la création de vidéos à partir de texte, directement depuis l’application.

Cependant, les capacités de génération vidéo dans ChatGPT seront limitées par rapport à celles offertes sur la plateforme Web dédiée. OpenAI n’a pas encore communiqué de date précise pour cette mise à jour, mais l’objectif est clair : consolider ChatGPT comme une plateforme centralisée de création de contenu par IA.

Une réponse à la montée en puissance de la concurrence

Face à la montée en puissance de concurrents comme xAI (dirigé par Elon Musk) et DeepSeek, OpenAI cherche à maintenir son avance technologique en enrichissant son offre. En intégrant Sora à ChatGPT, l’entreprise espère :

  • Renforcer l’attrait de ChatGPT Plus et Pro : L’accès à Sora est actuellement réservé aux utilisateurs premium. Une telle intégration pourrait inciter davantage d’utilisateurs à souscrire à un abonnement payant.
  • Maximiser l’adoption de Sora : Avec plus de 400 millions d’utilisateurs actifs hebdomadaires, ChatGPT représente un levier de croissance stratégique pour démocratiser son outil de génération vidéo.

ChatGPT continue son expansion avec GPT-4.5 et Operator

L’intégration de Sora dans ChatGPT ne serait pas la seule mise à jour majeure à venir. OpenAI vient de lancer GPT-4.5, son modèle d’IA le plus avancé, en accès limité. En parallèle, l’outil Deep Research, similaire à Google Gemini, commence à être déployé auprès des abonnés ChatGPT Plus, offrant une expérience plus approfondie dans la recherche d’informations complexes.

Mais la fonctionnalité la plus ambitieuse reste Operator, un agent autonome capable de remplir des formulaires, naviguer sur le web et exécuter des tâches complexes sans intervention humaine. Déjà testé en partenariat avec Uber, Instacart et DoorDash, cet outil pourrait transformer radicalement l’utilisation de l’IA dans les services numériques.

Vers un ChatGPT encore plus polyvalent

Avec ces nouvelles fonctionnalités, ChatGPT se transforme progressivement en une plateforme tout-en-un, combinant texte, vidéo et automatisation des tâches. L’ajout de Sora dans l’application serait un pas de plus vers cette centralisation des outils d’IA au sein d’un même écosystème.

Reste à voir quand OpenAI déploiera réellement cette intégration et jusqu’où l’IA générative pourra aller dans la création de contenu automatisé.

Lire plus
Intelligence Artificielle

DeepSeek : L’IA chinoise accusée de faciliter les cyberattaques

DeepSeek logo

La puissance de l’intelligence artificielle générative peut déjà sembler effrayante, mais l’absence totale de protections ou de garde-fous représente un problème majeur. C’est précisément ce que DeepSeek doit désormais gérer, son manque de contrôles appropriés en faisant un outil potentiellement exploitable par des personnes mal intentionnées.

DeepSeek : une absence totale de protections, selon des analystes

Un rapport de la société israélienne ActiveFence, relayé par YNetNews.com, met en lumière des lacunes importantes dans le fonctionnement de DeepSeek, une startup chinoise spécialisée dans l’intelligence artificielle. Contrairement aux modèles développés par des entreprises occidentales comme OpenAI, Google ou Perplexity, DeepSeek ne semble pas avoir mis en place de directives ou de politiques de protection.

Les chercheurs d’ActiveFence affirment que DeepSeek n’a intégré aucun garde-fou ni mécanisme de protection internes ou externes pour sécuriser les comptes utilisateurs.

Ce manque de régulation ouvre la porte à des utilisations malveillantes, où l’IA pourrait être détournée à des fins frauduleuses.

Un risque d’exploitation par des cybercriminels

Le rapport souligne que les technologies de DeepSeek pourraient être exploitées par des criminels souhaitant orchestrer des escroqueries ou manipulations de masse. En testant DeepSeek V3, ActiveFence a soumis l’IA à des prompts à risque et a constaté qu’elle fournissait des réponses potentiellement dangereuses dans 38 % des cas.

L’essor des crimes liés à l’intelligence artificielle

L’essor de l’intelligence artificielle a entraîné une augmentation des crimes numériques, notamment via la création de deepfakes à des fins de désinformation ou de propagande. Pire encore, certains cybercriminels utilisent l’IA pour générer du contenu illégal, notamment des images manipulées à caractère pornographique impliquant des mineurs.

Face à ces dérives, plusieurs gouvernements travaillent actuellement sur des réglementations visant à limiter les abus de l’IA et à garantir un usage responsable de cette technologie.

Lire plus
Intelligence Artificielle

Gemini : Le téléchargement de documents est enfin gratuit !

Gemini : Le téléchargement de documents est enfin gratuit !

Google a mis du temps à proposer le téléchargement de fichiers aux utilisateurs de Gemini gratuitement, mais nous y sommes enfin. Vous pouvez désormais télécharger des documents sur Gemini, notamment des PDF, des documents Word, des PPT, des fichiers TXT et bien plus encore, sans payer pour l’abonnement Gemini Advanced.

Gemini prenait déjà en charge l’analyse d’images. En plus de cela, vous pouvez connecter votre Google Drive et partager des fichiers Google Docs, entre autres.

Le meilleur atout de Gemini est que vous pouvez télécharger plusieurs fichiers de différents formats et demander à Gemini de résumer les documents. Vous pouvez également utiliser cette fonctionnalité pour discuter avec le document, générer des informations, analyser des informations, trouver des points clés, etc. Cela dit, ce que j’ai trouvé étrange, c’est que la version gratuite de Gemini ne vous permet pas de télécharger des documents Excel ou CSV, ce qui rend impossible l’analyse des données.

La version payante, Gemini Advanced, prend en charge toutes sortes de formats de fichiers. L’outil d’IA NotebookLM de Google propose également une version gratuite, compatible avec plusieurs formats de fichiers. La version gratuite de ChatGPT est également plus riche en fonctionnalités et vous pouvez y déposer n’importe quel fichier que vous souhaitez.

Néanmoins, si vous êtes un utilisateur de Gemini, voici comment vous pouvez télécharger des fichiers pour analyser des documents.

Comment télécharger des fichiers sur Gemini gratuitement ?

  1. Rendez-vous sur gemini.google.com et connectez-vous à votre compte Google.
  2. Maintenant, cliquez sur le bouton « + » et sélectionnez « Fichiers ».
  3. Vous pouvez maintenant télécharger votre document et commencer à poser des questions dans Gemini.

Bien que l’analyse de documents soit une fonctionnalité intéressante et que je sois heureux qu’elle soit désormais disponible gratuitement pour les utilisateurs de Gemini, je recommanderais aux utilisateurs de consulter NotebookLM.

C’est un bien meilleur outil pour l’analyse de documents et il propose des citations en ligne qui manquent dans Gemini. Vous pouvez rapidement vérifier la source et vérifier les informations directement à partir du document téléchargé. Sans oublier que vous pouvez écouter un podcast généré par l’IA, ce qui est assez naturel et captivant.

Lire plus