fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

GPT-4.5 : OpenAI freiné par la pénurie de GPU

chatgpt 4 5 openai

Le lancement de GPT-4.5, le tout dernier modèle d’OpenAI, est entravé par une pénurie de puces GPU (Graphics Processing Units). Ces composants sont essentiels à l’entraînement des modèles d’intelligence artificielle, permettant de traiter d’énormes volumes de données et d’effectuer des calculs complexes simultanément.

Contrairement aux CPU (Central Processing Units), qui traitent les données de manière séquentielle, les GPU sont optimisés pour les opérations matricielles, rendant leur utilisation bien plus adaptée aux modèles d’IA.

Face à cette contrainte matérielle, Sam Altman, PDG d’OpenAI, a assuré que des centaines de milliers de GPU sont en route. L’entreprise devrait ainsi pouvoir progressivement élargir l’accès à GPT-4.5, qui pour l’instant est réservé aux abonnés Pro de ChatGPT, facturés 200 dollars par mois. Lorsque la situation s’améliorera, les utilisateurs de ChatGPT Plus (20 dollars par mois) devraient également pouvoir profiter de cette mise à niveau.

Mais ce problème met en lumière une dépendance critique : OpenAI dépend fortement des fournisseurs comme NVIDIA pour ses besoins en calcul intensif. C’est pourquoi l’entreprise envisage de développer ses propres puces afin de réduire sa vulnérabilité face aux fluctuations des stocks et aux prix du marché.

Un modèle cher mais révolutionnaire

Dans son tweet, Sam Altman précise que GPT-4.5 n’est pas un modèle conçu pour battre des records de raisonnement, mais qu’il s’agit d’une nouvelle forme d’intelligence qui, selon lui, possède une « magie » qu’il n’a jamais ressentie auparavant.

Cependant, ce modèle est extrêmement coûteux. Son utilisation revient à 75 dollars par million de tokens en entrée et 150 dollars par million de tokens en sortie. À titre de comparaison, GPT-4o coûte seulement 2,50 dollars par million de tokens en entrée et 10 dollars par million de tokens en sortie.

Les tokens, qui peuvent être une lettre, un mot ou un signe de ponctuation, sont l’unité de base avec laquelle les modèles de langage traitent le texte. Plus un modèle est avancé, plus il consomme de tokens, ce qui impacte directement son coût d’exploitation.

NVIDIA, le grand gagnant de la course à l’IA

Cette demande croissante pour les GPU explique l’ascension fulgurante de NVIDIA en bourse, avec une hausse impressionnante de 1 748,96 % en 5 ans. L’IA étant l’un des secteurs technologiques les plus porteurs, NVIDIA bénéficie d’une demande explosive pour ses puces spécialisées.

Alors que les géants de l’IA comme OpenAI, Google et Meta se ruent sur les ressources informatiques, la course aux GPU est plus intense que jamais. L’avenir nous dira si OpenAI réussira à s’affranchir de cette dépendance en développant ses propres solutions matérielles ou si NVIDIA continuera de dominer ce marché stratégique.

Lire plus
Intelligence Artificielle

Amazon Nova : Le géant prépare une IA « raisonnante »

image 1

Amazon souhaite entrer dans la course aux modèles d’IA « raisonnants », selon un rapport de Business Insider. L’entreprise travaillerait actuellement sur un modèle d’intelligence artificielle avancé intégrant des capacités de raisonnement, similaire aux modèles o3-mini d’OpenAI et R1 du laboratoire chinois DeepSeek.

Le modèle d’Amazon pourrait être dévoilé dès juin 2025 sous la marque Nova, que l’entreprise avait introduite lors de sa conférence re:Invent l’année dernière. Contrairement aux IA traditionnelles, qui génèrent des réponses immédiates basées sur des probabilités, les modèles de raisonnement adoptent une approche plus progressive et méthodique, ce qui améliore leur fiabilité dans des domaines complexes, comme les mathématiques et les sciences.

Le rapport indique que Amazon veut adopter une architecture hybride, similaire à celle du Claude 3.7 Sonnet d’Anthropic. Cela permettrait au modèle de fournir des réponses rapides et précises, tout en étant capable d’un raisonnement plus profond et structuré pour des tâches plus complexes.

L’un des objectifs d’Amazon serait de rendre son modèle plus abordable que ceux de ses concurrents. Cependant, cela pourrait être un défi de taille, étant donné que DeepSeek s’est déjà forgé une réputation pour proposer des modèles d’IA à des prix extrêmement compétitifs.

Amazon et la concurrence DeepSeek, OpenAI et Google !

Si Amazon parvient à allier performance et coût réduit, cela pourrait bouleverser le marché et renforcer son offre face aux solutions d’OpenAI, Anthropic et Google DeepMind.

Ce projet souligne l’ambition d’Amazon dans l’IA générative, alors que la société cherche à rattraper son retard face aux géants déjà bien établis dans ce domaine.

Lire plus
Intelligence Artificielle

Microsoft Dragon Copilot : l’IA qui révolutionne la médecine ?

Microsoft Dragon Copilot : l'IA qui révolutionne la médecine ?

Microsoft a dévoilé Dragon Copilot, un système d’IA conçu pour le secteur de la santé, capable d’écouter et de générer des notes basées sur les consultations médicales.

Cette solution repose sur la technologie de dictée vocale et d’écoute ambiante développée par Nuance, une entreprise spécialisée dans l’IA vocale que Microsoft a acquise en 2021.

Dragon Copilot, une IA médicale au service des professionnels de santé

L’objectif principal de Dragon Copilot est de réduire la charge administrative qui pèse sur les professionnels de santé. Microsoft affirme que ce système peut améliorer l’efficacité des cliniciens grâce à plusieurs fonctionnalités clés :

  • Création automatique de notes médicales en plusieurs langues
  • Dictée vocale en langage naturel pour rédiger des rapports médicaux
  • Recherche d’informations médicales générales à partir de sources fiables
  • Automatisation des tâches administratives, telles que les ordonnances, les résumés cliniques, les lettres de recommandation et les synthèses post-consultation

Selon Joe Petro, vice-président de Microsoft Health and Life Sciences Solutions and Platforms, cette IA vise à diminuer la charge mentale des médecins et leur permettre de se concentrer davantage sur leurs patients.

Microsoft assure que ses études internes montrent une réduction de l’épuisement professionnel chez les cliniciens utilisant la technologie Nuance et que 93 % des patients déclarent une meilleure expérience globale.

Microsoft face à la concurrence et aux défis de l’IA médicale

Microsoft n’est pas seul sur ce marché. Google a récemment mis en avant ses propres solutions d’IA médicale via Google Cloud, en développant des assistants médicaux intelligents capables d’évaluer les risques pour la santé des patients. Google a également intégré de nouvelles fonctionnalités de recherche d’images pour Vertex AI Search, son produit destiné aux professionnels de santé.

Cependant, l’utilisation de l’IA dans le secteur médical soulève des défis majeurs, notamment en matière de sécurité des données et de fiabilité des informations générées. L’année dernière, la FDA (Food and Drug Administration) a publié un rapport soulignant à la fois les avantages et les risques des IA génératives en santé, notamment leur tendance à inventer des informations. Une étude de 2023 a par ailleurs révélé que certaines solutions d’IA médicale basées sur Whisper d’OpenAI pouvaient produire des erreurs dans la transcription médicale.

Un engagement pour une IA responsable en santé

Microsoft insiste sur son engagement en faveur d’une IA responsable, affirmant que Dragon Copilot repose sur une infrastructure de données sécurisée et intègre des mécanismes de conformité et de contrôle propres au secteur médical. L’entreprise met en avant ses mesures de protection des données de santé et assure que son IA est conçue pour générer des réponses sûres et précises.

Avec Dragon Copilot, Microsoft veut s’imposer comme un acteur majeur de l’IA en santé, en proposant des outils qui optimisent l’expérience des médecins et des patients tout en répondant aux enjeux réglementaires et éthiques du secteur. Reste à voir comment cette technologie sera adoptée par les professionnels et quelles seront ses répercussions à long terme sur le monde médical.

Lire plus
Intelligence Artificielle

Sora dans ChatGPT : OpenAI prépare une intégration choc

sora openai tokyo woman

Après son lancement en 2024 et son expansion en Europe fin février 2025, l’outil de génération vidéo par IA Sora pourrait bientôt faire son apparition dans ChatGPT.

Selon un rapport de TechCrunch, OpenAI envisage d’intégrer son outil de création vidéo directement dans son assistant conversationnel, une décision qui pourrait renforcer son attrait face à une concurrence toujours plus féroce.

Une version allégée de Sora pour ChatGPT

Actuellement, Sora est uniquement accessible via une interface Web et réservé aux abonnés payants. L’intégration dans ChatGPT permettrait donc à un plus grand nombre d’utilisateurs d’expérimenter la création de vidéos à partir de texte, directement depuis l’application.

Cependant, les capacités de génération vidéo dans ChatGPT seront limitées par rapport à celles offertes sur la plateforme Web dédiée. OpenAI n’a pas encore communiqué de date précise pour cette mise à jour, mais l’objectif est clair : consolider ChatGPT comme une plateforme centralisée de création de contenu par IA.

Une réponse à la montée en puissance de la concurrence

Face à la montée en puissance de concurrents comme xAI (dirigé par Elon Musk) et DeepSeek, OpenAI cherche à maintenir son avance technologique en enrichissant son offre. En intégrant Sora à ChatGPT, l’entreprise espère :

  • Renforcer l’attrait de ChatGPT Plus et Pro : L’accès à Sora est actuellement réservé aux utilisateurs premium. Une telle intégration pourrait inciter davantage d’utilisateurs à souscrire à un abonnement payant.
  • Maximiser l’adoption de Sora : Avec plus de 400 millions d’utilisateurs actifs hebdomadaires, ChatGPT représente un levier de croissance stratégique pour démocratiser son outil de génération vidéo.

ChatGPT continue son expansion avec GPT-4.5 et Operator

L’intégration de Sora dans ChatGPT ne serait pas la seule mise à jour majeure à venir. OpenAI vient de lancer GPT-4.5, son modèle d’IA le plus avancé, en accès limité. En parallèle, l’outil Deep Research, similaire à Google Gemini, commence à être déployé auprès des abonnés ChatGPT Plus, offrant une expérience plus approfondie dans la recherche d’informations complexes.

Mais la fonctionnalité la plus ambitieuse reste Operator, un agent autonome capable de remplir des formulaires, naviguer sur le web et exécuter des tâches complexes sans intervention humaine. Déjà testé en partenariat avec Uber, Instacart et DoorDash, cet outil pourrait transformer radicalement l’utilisation de l’IA dans les services numériques.

Vers un ChatGPT encore plus polyvalent

Avec ces nouvelles fonctionnalités, ChatGPT se transforme progressivement en une plateforme tout-en-un, combinant texte, vidéo et automatisation des tâches. L’ajout de Sora dans l’application serait un pas de plus vers cette centralisation des outils d’IA au sein d’un même écosystème.

Reste à voir quand OpenAI déploiera réellement cette intégration et jusqu’où l’IA générative pourra aller dans la création de contenu automatisé.

Lire plus
Intelligence Artificielle

DeepSeek : L’IA chinoise accusée de faciliter les cyberattaques

DeepSeek logo

La puissance de l’intelligence artificielle générative peut déjà sembler effrayante, mais l’absence totale de protections ou de garde-fous représente un problème majeur. C’est précisément ce que DeepSeek doit désormais gérer, son manque de contrôles appropriés en faisant un outil potentiellement exploitable par des personnes mal intentionnées.

DeepSeek : une absence totale de protections, selon des analystes

Un rapport de la société israélienne ActiveFence, relayé par YNetNews.com, met en lumière des lacunes importantes dans le fonctionnement de DeepSeek, une startup chinoise spécialisée dans l’intelligence artificielle. Contrairement aux modèles développés par des entreprises occidentales comme OpenAI, Google ou Perplexity, DeepSeek ne semble pas avoir mis en place de directives ou de politiques de protection.

Les chercheurs d’ActiveFence affirment que DeepSeek n’a intégré aucun garde-fou ni mécanisme de protection internes ou externes pour sécuriser les comptes utilisateurs.

Ce manque de régulation ouvre la porte à des utilisations malveillantes, où l’IA pourrait être détournée à des fins frauduleuses.

Un risque d’exploitation par des cybercriminels

Le rapport souligne que les technologies de DeepSeek pourraient être exploitées par des criminels souhaitant orchestrer des escroqueries ou manipulations de masse. En testant DeepSeek V3, ActiveFence a soumis l’IA à des prompts à risque et a constaté qu’elle fournissait des réponses potentiellement dangereuses dans 38 % des cas.

L’essor des crimes liés à l’intelligence artificielle

L’essor de l’intelligence artificielle a entraîné une augmentation des crimes numériques, notamment via la création de deepfakes à des fins de désinformation ou de propagande. Pire encore, certains cybercriminels utilisent l’IA pour générer du contenu illégal, notamment des images manipulées à caractère pornographique impliquant des mineurs.

Face à ces dérives, plusieurs gouvernements travaillent actuellement sur des réglementations visant à limiter les abus de l’IA et à garantir un usage responsable de cette technologie.

Lire plus
Intelligence Artificielle

Gemini : Le téléchargement de documents est enfin gratuit !

Gemini : Le téléchargement de documents est enfin gratuit !

Google a mis du temps à proposer le téléchargement de fichiers aux utilisateurs de Gemini gratuitement, mais nous y sommes enfin. Vous pouvez désormais télécharger des documents sur Gemini, notamment des PDF, des documents Word, des PPT, des fichiers TXT et bien plus encore, sans payer pour l’abonnement Gemini Advanced.

Gemini prenait déjà en charge l’analyse d’images. En plus de cela, vous pouvez connecter votre Google Drive et partager des fichiers Google Docs, entre autres.

Le meilleur atout de Gemini est que vous pouvez télécharger plusieurs fichiers de différents formats et demander à Gemini de résumer les documents. Vous pouvez également utiliser cette fonctionnalité pour discuter avec le document, générer des informations, analyser des informations, trouver des points clés, etc. Cela dit, ce que j’ai trouvé étrange, c’est que la version gratuite de Gemini ne vous permet pas de télécharger des documents Excel ou CSV, ce qui rend impossible l’analyse des données.

La version payante, Gemini Advanced, prend en charge toutes sortes de formats de fichiers. L’outil d’IA NotebookLM de Google propose également une version gratuite, compatible avec plusieurs formats de fichiers. La version gratuite de ChatGPT est également plus riche en fonctionnalités et vous pouvez y déposer n’importe quel fichier que vous souhaitez.

Néanmoins, si vous êtes un utilisateur de Gemini, voici comment vous pouvez télécharger des fichiers pour analyser des documents.

Comment télécharger des fichiers sur Gemini gratuitement ?

  1. Rendez-vous sur gemini.google.com et connectez-vous à votre compte Google.
  2. Maintenant, cliquez sur le bouton « + » et sélectionnez « Fichiers ».
  3. Vous pouvez maintenant télécharger votre document et commencer à poser des questions dans Gemini.

Bien que l’analyse de documents soit une fonctionnalité intéressante et que je sois heureux qu’elle soit désormais disponible gratuitement pour les utilisateurs de Gemini, je recommanderais aux utilisateurs de consulter NotebookLM.

C’est un bien meilleur outil pour l’analyse de documents et il propose des citations en ligne qui manquent dans Gemini. Vous pouvez rapidement vérifier la source et vérifier les informations directement à partir du document téléchargé. Sans oublier que vous pouvez écouter un podcast généré par l’IA, ce qui est assez naturel et captivant.

Lire plus
Intelligence Artificielle

Meta AI : l’IA de Meta bientôt en application autonome ?

Meta AI : l'IA de Meta bientôt en application autonome ?

Meta veut une part du gâteau de l’IA générative, et pas une petite. Selon un rapport de CNBC, la société dirigée par Mark Zuckerberg prévoit de lancer une application indépendante pour son chatbot Meta AI entre avril et juin 2025.

Actuellement intégré aux applications de Meta, comme Facebook, Instagram et WhatsApp, Meta AI pourrait bientôt exister sous une forme autonome, rejoignant ainsi ChatGPT d’OpenAI, Gemini de Google, Grok de X ou encore Perplexity et DeepSeek.

D’après les sources de CNBC, Meta pourrait également proposer un abonnement payant pour des fonctionnalités avancées, à l’image de ce que font déjà ses concurrents.

En lançant une application dédiée, l’objectif de Meta est de créer une interaction plus immersive et approfondie avec son assistant IA. Cela marquerait une évolution significative par rapport à son intégration actuelle dans les réseaux sociaux du groupe.

Une ambition affichée : un assistant IA pour un milliard de personnes

Mark Zuckerberg a récemment affirmé que 2025 serait l’année où un assistant IA hautement intelligent et personnalisé atteindrait plus d’un milliard de personnes. Il a précisé que Meta AI devrait être le leader de cette révolution.

Avec une base d’utilisateurs gigantesque et une quantité de données sans précédent, Meta pourrait offrir un niveau de personnalisation unique par rapport à ses concurrents. Mais cela risque aussi d’intensifier les préoccupations liées à la confidentialité et à l’exploitation des données personnelles.

Une guerre ouverte entre Meta et OpenAI ?

Suite à la fuite de cette information, Sam Altman, PDG d’OpenAI, a réagi avec ironie sur X : « OK, d’accord, peut-être qu’on va faire une app sociale alors. Lol, si Facebook tente de nous concurrencer et qu’on leur fait un Uno Reverse, ce serait tellement drôle ».

Cette déclaration laisse entendre que OpenAI pourrait à son tour explorer des fonctionnalités sociales pour ChatGPT, transformant encore davantage le marché de l’IA en une véritable guerre entre géants de la tech.

Meta AI : vers un bouleversement du marché des chatbots ?

L’arrivée d’une application Meta AI autonome pourrait renforcer la fragmentation du secteur des chatbots IA en ajoutant un acteur majeur à une compétition déjà féroce. Si Meta réussit son pari, l’entreprise pourrait imposer son assistant IA comme la nouvelle référence mondiale, tout en bénéficiant de son écosystème social tentaculaire.

Cependant, avec des enjeux liés à la protection des données et à la régulation de plus en plus surveillés, Meta devra rassurer ses utilisateurs et les autorités sur l’utilisation des informations collectées par son IA.

La bataille pour la suprématie dans l’IA conversationnelle ne fait que commencer, et les prochains mois seront décisifs pour savoir qui dominera le marché de l’intelligence artificielle en 2025.

Lire plus
Intelligence Artificielle

Copilot débarque sur Mac : enfin une application dédiée !

Copilot débarque sur Mac : enfin une application dédiée !

Jusqu’à présent, l’intégration de Copilot de Microsoft était essentiellement réservée aux ordinateurs Windows. Si vous possédez un Mac et que vous souhaitez interagir avec Copilot autrement que par le biais de la version Web, une nouvelle application officielle pourrait bien être ce qu’il vous faut.

Microsoft vient de publier une application macOS officielle pour son chatbot d’IA générative, Copilot, que vous pouvez désormais télécharger sur l’App Store. L’application macOS propose l’ensemble des fonctionnalités de Copilot dans une fenêtre dédiée. Ainsi, au lieu d’ouvrir votre navigateur et de rechercher Copilot, il vous suffit d’ouvrir l’application et de vous laisser guider. Comme pour la version Web, vous pouvez interagir avec Copilot par le biais de prompts textuels et demander de l’aide pour diverses tâches d’écriture et de création.

L’application Copilot pour Mac apporte plusieurs fonctionnalités spécifiques à l’écosystème Apple :

  • Mode sombre intégré
  • Raccourci clavier natif : Commande (⌘) + Espace (équivalent du Alt + Espace sur Windows)
  • Compatibilité avec iPhone et iPad : possibilité de se connecter avec un Apple ID
  • Téléchargement de documents (texte et PDF) pour poser des questions ou obtenir des résumés (bientôt disponible sur Mac)
  • Mode écran partagé sur iPad, facilitant l’utilisation multitâche

Cette application est dès maintenant disponible aux États-Unis, au Royaume-Uni et au Canada. Aucune information sur une disponibilité en France pour le moment.

Seulement une application Web pour le moment

Pour l’essentiel, il s’agit d’une application Web Microsoft ordinaire. Ce n’est pas très surprenant, car cela se fait avec d’innombrables applications, et il n’y a rien d’intrinsèquement mauvais ou incorrect à cela, mais cela signifie qu’il y a des limites. J’ai testé l’application et il ne semble pas que vous puissiez utiliser le contexte de votre écran comme entrée de chat, comme le fait l’application ChatGPT. Ce n’est pas vraiment différent de l’installation de l’application web en tant qu’application et de la création d’un raccourci pour l’ouvrir avec votre clavier ou de la lancer depuis votre bureau. Vous pouvez placer une barre d’invite sur votre bureau pour des actions/requêtes rapides, et il y a également une icône de barre de menu, qui ne s’affiche que lorsque l’application est en cours d’exécution.

Il convient de noter que vous devez utiliser macOS 14.0 (Mojave) ou une version ultérieure, et que votre Mac doit être équipé d’une puce Apple M1 ou d’une génération ultérieure de puces Apple Silicon. C’est une exigence un peu idiote étant donné qu’il s’agit juste d’une application Web et qu’il n’y a donc pas de restrictions techniques pour l’exécuter sur un Mac Intel, mais nous avons Apple Silicon depuis environ 5 ans maintenant, et il va donc devenir de plus en plus difficile de trouver des développeurs désireux de prendre en charge ces ordinateurs plus anciens.

« Voice » et « Think Deeper » au programme

Cette version suit de près d’autres annonces importantes concernant Copilot. En début de semaine, Microsoft a révélé que tous les utilisateurs de Copilot bénéficieraient d’un accès gratuit et illimité à deux fonctionnalités clés : « Voice » et « Think Deeper ». La fonctionnalité « Voice » est essentiellement la même que celle que nous avons vue dans d’autres chatbots tels que ChatGPT et Gemini, et elle vous permet de discuter avec votre chatbot de manière naturelle.

La fonction « Think Deeper », quant à elle, est la version de Microsoft du modèle o1 d’OpenAI. Elle offre à Copilot un niveau de « traitement cognitif » plus élevé, qui lui permet de répondre à des demandes plus complexes et de fournir des réponses plus précises et plus réfléchies. Cette mise à jour permet à Copilot d’approfondir le contexte de vos requêtes, ce qui se traduit par des résultats plus précis et plus pertinents. Ces deux fonctionnalités sont disponibles dans cette nouvelle version Mac, au cas où vous vous poseriez la question. Même s’il manque quelques ajouts utiles du fait qu’il s’agit essentiellement d’une application Web, vous ne devriez pas avoir de problème pour accéder à l’ensemble des fonctionnalités du chatbot.

Si vous souhaitez tester ce chatbot sur votre Mac dès maintenant, vous pouvez l’obtenir sur l’App Store. Comme mentionné, vous le trouverez peut-être un peu limité par rapport à d’autres applications de chatbot dédiées, mais à ce stade, c’est mieux que ne pas utiliser Apple Intelligence

Lire plus
Intelligence Artificielle

GPT-4.5 : OpenAI dévoile son nouveau modèle d’IA plus performant

GPT-4.5 : OpenAI dévoile son nouveau modèle d'IA plus performant

OpenAI vient de lancer GPT-4.5, son modèle de langage le plus avancé à ce jour pour ChatGPT. Bien qu’il n’introduise pas de nouvelles capacités révolutionnaires, il améliore considérablement l’efficacité computationnelle et réduit les hallucinations par rapport à ses prédécesseurs. Cependant, ce qui retient particulièrement l’attention, c’est la capacité de persuasion accrue de GPT-4.5, révélée par les tests internes d’OpenAI.

Dans un livre blanc publié le jour du lancement, OpenAI a détaillé les performances de GPT-4.5 sur plusieurs benchmarks, dont des tests de persuasion. L’un des plus marquants a mis GPT-4.5 face à GPT-4o, un autre modèle d’OpenAI, dans une tentative de le convaincre de « faire un don » d’argent virtuel.

Les résultats montrent que GPT-4.5 est nettement plus efficace que les modèles de raisonnement o1 et o3-mini pour manipuler un autre modèle. Il a également surpassé tous les modèles OpenAI dans un test où il devait tromper GPT-4o afin d’obtenir un mot de passe secret.

Selon OpenAI, GPT-4.5 a adopté une stratégie unique pour maximiser ses chances de succès. Au lieu de demander une somme importante, le modèle générait des phrases comme « Même 2 ou 3 dollars sur les 100 disponibles m’aideraient énormément ». Cette approche a conduit à des dons plus petits, mais plus fréquents, augmentant ainsi son taux de succès global.

Cependant, OpenAI note qu’il n’introduira pas suffisamment de nouvelles capacités pour être considéré comme un modèle d’avant-garde.

Un puissant modèle, mais sous surveillance

Malgré ces résultats, OpenAI affirme que GPT-4.5 ne dépasse pas son seuil de risque « élevé » pour la persuasion. L’entreprise s’engage à ne pas publier de modèles dépassant ce seuil sans avoir mis en place des interventions de sécurité suffisante pour ramener le risque à un niveau « moyen ».

L’essor de l’IA dans la diffusion de fausses informations inquiète de nombreux experts. L’année dernière, les deepfakes politiques se sont multipliés dans plusieurs pays, et l’IA est de plus en plus utilisée pour des attaques de social engineering, ciblant aussi bien les particuliers que les entreprises.

Dans ses récents travaux, OpenAI a indiqué qu’il renforçait ses méthodes d’évaluation des risques de persuasion de ses modèles, notamment pour limiter la diffusion de fausses informations à grande échelle.

GPT-4.5 : une avancée majeure, mais pas encore un modèle de rupture

Si GPT-4.5 marque une avancée en termes de fluidité conversationnelle, d’efficacité computationnelle et de réduction des erreurs, il n’est pas encore un « modèle de rupture » selon OpenAI. Il se positionne comme une évolution majeure de GPT-4o, mais sans introduire les capacités avancées qui seront probablement réservées à GPT-5, attendu dès mai 2025.

« Nous avons aligné GPT-4.5 pour qu’il soit un meilleur collaborateur, en rendant les conversations plus chaleureuses, plus intuitives et émotionnellement nuancées », a déclaré Raphael Gontijo Lopes, chercheur chez OpenAI, lors du livestream de l’entreprise. « Pour mesurer cela, nous avons demandé à des testeurs humains de l’évaluer par rapport à GPT-4o, et GPT-4.5 a été plus performant dans pratiquement toutes les catégories ».

Pour l’instant, GPT-4.5 est réservé aux abonnés ChatGPT Pro, à l’instar du modèle Operator. Sa disponibilité plus large pourrait intervenir dans les mois à venir, à mesure que OpenAI affine ses algorithmes de sécurité et optimise son modèle pour un usage généralisé.

Pour rappel, OpenAI prévoit de lancer GPT-5 dès la fin du mois de mai. Le PDG d’OpenAI, Sam Altman, a qualifié GPT-5 de « système qui intègre une grande partie de notre technologie » et qui inclura le nouveau modèle de raisonnement o3 d’OpenAI, que l’entreprise a annoncé lors de ses 12 jours d’annonces de Noël en décembre.

Alors qu’OpenAI a sorti o3-mini le mois dernier, OpenAI ne livre o3 que dans le cadre de son système GPT-5 à venir. Cela correspond à l’objectif d’OpenAI de combiner ses grands modèles de langage pour créer un modèle plus performant qui pourrait être qualifié d’intelligence générale artificielle (AGI).

Lire plus
Intelligence Artificielle

Anthropic : levée de fonds record de 3,5 milliards de dollars, valorisation à 61,5 milliards !

Claude 3 7 illustration

La startup d’intelligence artificielle Anthropic, créatrice du chatbot Claude, est en passe de finaliser une levée de fonds massive de 3,5 milliards de dollars, bien au-delà de son objectif initial de 2 milliards. Selon le Wall Street Journal, ce montant aurait été augmenté au fil des discussions avec les investisseurs.

Grâce à cette levée de fonds, Anthropic atteindrait une valorisation de 61,5 milliards de dollars, un bond spectaculaire par rapport aux 18 milliards de dollars de sa précédente valorisation. Parmi les investisseurs de ce tour de table figurent Lightspeed Venture Partners, General Catalyst et Bessemer Venture Partners, ainsi qu’un fonds d’investissement basé à Abu Dhabi, MGX, qui serait en discussion pour rejoindre le projet.

Cette transaction intervient dans un contexte de questionnement sur l’avenir du secteur de l’intelligence artificielle, alors que certains experts s’interrogent sur la capacité de l’industrie à maintenir son rythme de croissance fulgurant.

Le financement d’Anthropic survient alors que le secteur de l’IA a été secoué par l’émergence de DeepSeek, une entreprise chinoise qui a récemment dévoilé un modèle concurrent des grandes entreprises américaines.

DeepSeek s’est fait remarquer en développant un modèle libre d’accès et conçu avec des coûts nettement inférieurs, mettant potentiellement en péril la domination des géants américains du secteur.

Anthropic et l’impact de DeepSeek

L’impact de cette compétition s’est également fait ressentir sur NVIDIA, acteur clé du boom de l’intelligence artificielle. En janvier, l’action de la société a chuté de 17 % en une seule journée après que DeepSeek a annoncé avoir entraîné son modèle avec un nombre de GPU bien inférieur à ce qui était habituellement nécessaire. NVIDIA a depuis récupéré une partie de cette perte, mais les analystes surveillent avec attention la publication de son rapport financier ce mercredi 26 février, prévu après la clôture des marchés aux États-Unis.

Malgré la montée en puissance des alternatives chinoises, la levée de fonds d’Anthropic démontre que les investisseurs restent confiants dans l’avenir des entreprises américaines d’IA. Reste à voir si cette dynamique pourra se maintenir alors que la compétition mondiale s’intensifie et que les coûts de développement de l’intelligence artificielle continuent d’évoluer.

Lire plus
Intelligence Artificielle

Microsoft Copilot : L’IA accessible à tous, avec voix et raisonnement avancés gratuits !

Microsoft Copilot : L'IA accessible à tous, avec voix et raisonnement avancés gratuits !

Microsoft propose désormais des fonctionnalités illimitées Copilot Voice et Think Deeper pour les utilisateurs gratuits. Ces fonctionnalités avancées étaient déjà disponibles pour les utilisateurs non payants, mais elles étaient limitées par des limites d’utilisation quotidienne.

Comme vous pouvez le supposer, le mode vocal vous permet de communiquer avec Copilot par le biais du langage parlé. Vous pouvez accéder au mode vocal en appuyant sur le bouton du microphone situé sur le côté droit de la fenêtre d’invite Copilot. Il propose quatre voix prédéfinies différentes, ainsi qu’une animation onirique d’un peu d’eau lorsqu’il est accessible à partir d’un navigateur de bureau.

Copilot Think Deeper est une implémentation du modèle de raisonnement o1 d’OpenAI. Il s’agit d’un chatbot qui « réfléchit » à travers ses réponses, se vérifiant efficacement pour détecter les informations erronées, les hallucinations ou les réponses généralement médiocres.

Pour utiliser Think Deeper, appuyez simplement sur le gros bouton « Think Deeper » dans la fenêtre d’invite Copilot, situé juste à côté du bouton du microphone.

OpenAI facture à ses clients le modèle o1, donc un accès gratuit illimité dans Copilot est une affaire assez importante. Il en va de même pour le mode vocal ChatGPT, auquel les utilisateurs gratuits ne peuvent accéder que dans une mesure limitée.

Les comptes Copilot gratuits peuvent subir des retards ou des interruptions 

Cependant, Microsoft note que les comptes Copilot gratuits peuvent subir des retards ou des interruptions pendant les heures de pointe d’utilisation. Ceux qui paient 20 dollars par mois pour Copilot Pro bénéficient d’un accès prioritaire à toutes les fonctionnalités et ne devraient pas subir de retards, sauf dans des circonstances extrêmes ou inhabituelles.

En outre, l’utilisation illimitée du mode vocal et de Think Deeper nécessite une connexion Microsoft. Si vous atteignez une limite de débit, connectez-vous à un compte.

« Les utilisateurs de Copilot se sont exprimés ! Nous avons constaté une croissance incroyable pour Voice et Think Deeper, et de plus en plus de personnes nous disent avoir atteint ces limites d’utilisation. Alors… nous nous en débarrassons », a déclaré Mustafa Suleyman, PDG de Microsoft AI.

Screen 2025 02 26 at 08.27.19

Lors de mes tests, le mode Think Deeper de Copilot a fourni des réponses plus précises et plus complètes que le mode chatbot standard de Copilot. Il est clair que le modèle de raisonnement o1 d’OpenAI, qui a été rendu public après que DeepSeek a secoué le monde en janvier, est efficace pour affiner et transmettre des informations. Il n’est pas parfait et il servira parfois à la désinformation ou aux hallucinations, mais c’est un bon outil pour la recherche ou le brainstorming.

Un mode vocal réellement utile ?

Le mode vocal de Copilot est un outil différent, plus spécialisé. Si vous souhaitez simplement avoir une conversation amicale avec un chatbot, organiser un entretien simulé ou pratiquer une langue étrangère, le mode vocal fait l’affaire. Mais il ne peut pas faciliter une recherche ou une analyse approfondie. Ses réponses sont tronquées pour des raisons de concision, ce qui limite naturellement son utilité dans ces domaines. Et, plus importants encore, les humains ne sont pas très doués pour cracher des prompts d’IA parfaitement précises.

Il faut reconnaître que le mode vocal de Copilot est étonnamment rapide et articulé. Et l’entreprise ne fait aucun scrupule quant à son utilité : dans son dernier article de blog, Microsoft suggère aux gens d’utiliser le mode vocal comme un ballon de volley linguistique et ne fait aucune mention de la recherche ou d’autres fonctions que nous associons plus communément aux chatbots.

Lancez Copilot et connectez-vous à votre compte pour tester le mode vocal à accès illimité ou Think Deeper. Là encore, si Copilot semble lent, attendez quelques heures et réessayez.

Lire plus
Intelligence Artificielle

OpenAI : ChatGPT se met à la voix et à la recherche avancée, avec des nouveautés pour tous !

OpenAI : ChatGPT se met à la voix et à la recherche avancée, avec des nouveautés pour tous !

OpenAI vient d’annoncer sur X le déploiement d’une version preview du Mode vocal avancé pour les utilisateurs gratuits de ChatGPT, tout en étendant l’accès à son agent Deep Research à tous les abonnés Plus, Team, Edu et Enterprise.

Mode vocal avancé désormais accessible aux utilisateurs gratuits

Jusqu’à présent réservé aux abonnés ChatGPT Plus, le Mode vocal avancé est l’une des fonctionnalités les plus immersives de ChatGPT. Ce mode permet d’interagir vocalement avec le chatbot dans une conversation fluide et naturelle, offrant une expérience plus proche d’un échange avec un humain. Il est même possible d’interrompre l’IA lorsque ses réponses sont trop longues.

Depuis novembre dernier, cette fonctionnalité était disponible sur les versions mobile et de bureau de ChatGPT pour les abonnés payants. Désormais, OpenAI donne aux utilisateurs gratuits la possibilité de l’essayer quotidiennement, bien que la limite exacte d’utilisation ne soit pas précisée. L’entreprise semble vouloir ajuster cette limite en fonction de la demande.

Pour les abonnés ChatGPT Plus, l’accès reste plus avantageux avec une limite 5x supérieure à celle des utilisateurs gratuits. De plus, ces abonnés continuent de bénéficier du Mode vocal avancé basé sur ChatGPT 4 o, tandis que la version gratuite fonctionne avec ChatGPT 4o-mini, un modèle potentiellement moins performant.

L’annonce a provoqué diverses réactions sur X, certains utilisateurs regrettant que la version gratuite repose sur un modèle allégé. D’autres s’interrogent sur la limite quotidienne imposée aux abonnés payants, estimant que ceux qui paient devraient bénéficier d’une expérience illimitée.

Deep Research désormais accessible à tous les abonnés payants

En parallèle, OpenAI élargit l’accès à son agent Deep Research. Auparavant réservé aux abonnés Pro (200 dollars/mois), cet outil est désormais disponible pour les abonnés Plus, Team, Edu et Enterprise.

Les abonnés à ChatGPT Pro conservent 120 requêtes Deep Research par mois, leur offrant un accès plus étendu aux capacités avancées de l’IA. En revanche, ceux souscrivant aux plans Plus, Team, Edu et Enterprise ne disposent que de 10 requêtes par mois, ce qui pourrait limiter l’usage intensif de cette fonctionnalité.

02openai deepresearch mediumSqua

Deep Research s’appuie sur le modèle o3, optimisé pour l’analyse de données, et permet d’explorer des centaines de sources en ligne en quelques minutes. Contrairement à une simple recherche Web, l’agent est capable de synthétiser et d’analyser du texte, des images et des fichiers PDF, offrant ainsi un gain de temps considérable aux chercheurs et analystes.

Ce déploiement marque une étape importante dans la stratégie d’OpenAI, qui cherche à rendre ses outils IA plus accessibles, tout en maintenant une différenciation claire entre les offres gratuites et payantes.

OpenAI mise sur une démocratisation progressive de ses fonctionnalités IA

Avec ces nouvelles annonces, OpenAI continue de tester l’engagement des utilisateurs sur ses fonctionnalités premium, tout en élargissant progressivement leur accès.

Si la mise à disposition du Mode vocal avancé aux utilisateurs gratuits est une avancée notable, la limite quotidienne reste un frein pour ceux qui souhaiteraient l’utiliser plus fréquemment. De même, l’élargissement de Deep Research à tous les abonnés payants confirme la volonté d’OpenAI de rendre son IA plus utile aux professionnels, mais avec un modèle économique qui continue de privilégier les formules premium.

En 2025, OpenAI prévoit d’aller encore plus loin avec la sortie du modèle GPT-5, également connu sous le nom de o3. Ce dernier devrait être mis gratuitement à disposition de tous les utilisateurs, renforçant ainsi la stratégie d’OpenAI visant à démocratiser l’intelligence artificielle tout en incitant les utilisateurs à souscrire aux formules payantes pour bénéficier de fonctionnalités plus avancées.

Ces évolutions laissent entrevoir une potentielle généralisation des outils IA avancés, avec peut-être, à terme, un accès encore plus étendu aux utilisateurs gratuits.

Lire plus
Intelligence Artificielle

Gemini : l’IA de Google peut enfin générer des images de personnes !

Gemini : l'IA de Google peut enfin générer des images de personnes !

Après des mois de limitations, Google permet enfin aux utilisateurs gratuits de Gemini de générer des images contenant des personnes. Cette mise à jour marque une avancée majeure pour Imagen, le moteur de génération d’images de Google, qui souffrait jusqu’ici d’un handicap majeur face à des concurrents comme DALL·E.

Jusqu’à récemment, la génération d’images avec des personnes était réservée aux abonnés de Gemini Advanced, dans le cadre d’un accès anticipé. Désormais, les utilisateurs gratuits peuvent aussi en profiter, bien que le déploiement soit encore progressif.

Ce qui change :

  • Vous pouvez maintenant demander à Gemini de créer des images incluant des personnes.
  • Les images générées sont généralement réalistes et bien détaillées.
  • Les limites sur la diversité aléatoire des visages semblent mieux gérées qu’avant.

Les restrictions encore en place :

  • Impossible de générer des personnalités célèbres ou des figures politiques.
  • Gemini refuse toujours certaines requêtes ambiguës ou sensibles.

Gemini Imagen 3 people 2

Si vous demandez « un couple qui fait du parachutisme », Gemini générera l’image sans problème. Mais demandez une personne spécifique, et l’IA refusera.

Un retour dans Gemini après un lancement problématique

Pourquoi Google avait-il désactivé cette fonction pendant des mois ? Lors de son lancement initial avec Imagen 3 en août 2024, la gestion des visages et de la diversité posait problème. L’IA appliquait des paramètres de diversité trop aléatoires, ce qui menait à des résultats aberrants, comme un George Washington noir ou d’autres incohérences historiques.

Face aux critiques, Google a préféré suspendre la fonction plutôt que de risquer des polémiques, promettant un retour rapide… qui a finalement pris plusieurs mois. Ce n’est qu’avec une nouvelle génération de modèle et un reparamétrage en profondeur que cette fonctionnalité fait son retour.

Toujours pas disponible partout

Google déploie cette mise à jour progressivement, ce qui signifie que tous les utilisateurs gratuits ne l’ont pas encore. Pour accéder immédiatement aux fonctionnalités avancées, il faut encore souscrire à Gemini Advanced, qui propose des modèles plus expérimentaux et des outils exclusifs.

Si Google rattrape enfin son retard face à la concurrence et propose des images réalistes avec des humains, il reste des restrictions sur les personnalités et un déploiement progressif qui peut frustrer certains utilisateurs.

Reste à voir comment Google va continuer à améliorer cette technologie et si elle pourra rivaliser pleinement avec DALL·E et d’autres générateurs d’images avancés.

Lire plus
Intelligence Artificielle

Claude 3.7 Sonnet : l’IA hybride d’Anthropic qui défie OpenAI et GPT-5 !

Claude 3.7 Sonnet : l'IA hybride d'Anthropic qui défie OpenAI et GPT-5 !

Anthropic vient de dévoiler Claude 3.7 Sonnet, son tout premier modèle de raisonnement hybride, conçu pour résoudre des problèmes plus complexes et surpasser ses prédécesseurs dans des domaines clés comme les mathématiques et le codage.

Mais ce n’est pas tout. En plus de cette mise à jour, l’entreprise lance un aperçu limité de Claude Code, un nouvel outil d’IA « agentique » destiné aux développeurs. Contrairement aux solutions existantes, Claude Code ne se contente pas de générer du code, il peut rechercher et analyser du code, éditer des fichiers, exécuter des tests, gérer des commits GitHub et utiliser des outils en ligne de commande.

Claude 3.7 Sonnet : une IA plus puissante et plus polyvalente

Disponible dès aujourd’hui sur l’application Claude ainsi que via l’API d’Anthropic, Amazon Bedrock et Google Cloud Vertex AI, ce nouveau modèle offre des améliorations majeures tout en conservant le même coût que Claude 3,5 Sonnet :

  • 3 dollars par million de tokens en entrée
  • 15 dollars par million de tokens en sortie

Contrairement à OpenAI et d’autres concurrents qui développent des modèles spécialisés en raisonnement, Anthropic veut unifier toutes ces capacités au sein d’un seul modèle. Selon Dianne Penn, responsable de la recherche produit chez Anthropic, le raisonnement doit être une fonctionnalité inhérente à l’IA, et non une catégorie distincte.

Screenshot 2025 02 24 at 9.49.18

Exemple concret : répondre à « Quelle heure est-il ? » ne doit pas nécessiter le même niveau de raisonnement que planifier un voyage de deux semaines en Italie en fonction de la météo de fin mars. Claude 3.7 Sonnet est conçu pour adapter son raisonnement en fonction de la complexité de la demande.

Screenshot 2025 02 24 at 9.49.29

Des performances accrues en codage, finance et droit

  • Codage avancé : Claude 3.7 Sonnet se démarque en « codage agentique », un concept où l’IA ne se limite pas à suggérer des lignes de code, mais participe activement à la conception, l’édition et l’optimisation des programmes.
  • Finance et droit : Des gains de performance significatifs sont aussi notés dans ces secteurs où la compréhension fine du contexte et des réglementations est cruciale.
  • Mise à jour des connaissances : Claude 3.7 Sonnet ne dispose toujours pas d’un accès en temps réel au Web, mais sa base de connaissances est à jour jusqu’en octobre 2024, le rendant plus pertinent que les précédentes versions.
  • Contrôle précis des réponses : Les développeurs peuvent dicter la manière dont le modèle réfléchit et fixer une durée maximale pour obtenir une réponse. Par exemple, si une réponse ne doit pas dépasser 200 millisecondes, ils peuvent en faire une contrainte produit.

Claude Code : un assistant IA qui va plus loin que les autres

Avec Claude Code, Anthropic pousse l’IA générative encore plus loin. Ce nouvel outil permet aux développeurs de :

  • Éditer et optimiser du code en continu
  • Créer et exécuter des tests automatisés
  • Interagir directement avec GitHub pour gérer commits et push
  • Utiliser des commandes terminal pour exécuter des scripts et analyser des fichiers

En interne, les ingénieurs d’Anthropic ont utilisé Claude Code pour concevoir des sites Web, des jeux interactifs et même passer 45 minutes à ajuster des séries de tests en continu.

image 1

L’une des méthodes les plus originales pour tester Claude 3.7 Sonnet a été de lui faire jouer à Pokémon en liant son API à un schéma de contrôle. Résultat ? Claude 3,5 Sonnet ne parvenait pas à quitter Bourg Palette, tandis que Claude 3.7 a réussi à vaincre plusieurs champions d’arène.

Claude code 2

Une course à l’IA qui s’accélère

Après la récente présentation de Grok-3 par Elon Musk, il est clair que la compétition dans le domaine de l’IA s’intensifie. Cependant, avec Claude 3.7 Sonnet, Anthropic semble reprendre la tête en misant sur une IA plus complète, plus flexible et mieux intégrée.

L’avenir de l’IA se dirige-t-il vers des modèles uniques capables de tout faire ? Claude 3.7 Sonnet laisse penser que oui.

Lire plus
Intelligence Artificielle

DeepSeek : l’IA chinoise ouvre son code source et renforce la transparence !

DeepSeek : l'IA chinoise ouvre son code source et renforce la transparence !

La startup chinoise qui a révolutionné le monde de l’IA avec ses modèles open source, DeepSeek, annonce une nouvelle étape vers la transparence. Dès cette semaine, DeepSeek rendra publics plusieurs référentiels de code, offrant aux développeurs et aux chercheurs un accès privilégié aux coulisses de ses technologies.

DeepSeek, qui s’est imposé comme un acteur majeur de l’IA grâce à ses modèles open source performants, va encore plus loin dans la transparence en ouvrant l’accès à son code source. Cette démarche permettra de mieux comprendre les technologies de DeepSeek et de lever les éventuelles inquiétudes quant à leur utilisation.

En rendant son code source accessible, DeepSeek renforce la confiance des utilisateurs et des développeurs envers ses technologies. Cette transparence pourrait contribuer à accroître la popularité des modèles d’IA de DeepSeek et à accélérer leur adoption.

C’est une décision particulièrement audacieuse pour une entreprise technologique. Cependant, les décisions audacieuses sont déjà monnaie courante pour DeepSeek, qui est entré dans l’espace de l’IA en tant que perturbateur de l’industrie. Elle s’est particulièrement distinguée parce que ses modèles ont obtenu des résultats aussi bons, voire meilleurs, que ceux de nombreuses grandes marques d’IA du secteur, telles que OpenAI et Meta, qui utilisent des technologies propriétaires.

« Nous sommes une petite équipe qui explore l’AGI. À partir de la semaine prochaine, nous allons ouvrir le code source de 5 référentiels, en partageant nos progrès modestes, mais sincères en toute transparence », a déclaré DeepSeek sur X.

DeepSeek veut répondre aux préoccupations en matière de sécurité

L’ouverture du code source de DeepSeek pourrait également aider l’entreprise à apaiser les inquiétudes soulevées par certaines entités gouvernementales concernant la sécurité de ses technologies, notamment celles des États-Unis, de Corée du Sud, d’Australie et de Taïwan.. Le public pourra voir que « chaque ligne de code, fichier de configuration et élément de données y vivent ensemble », a noté la société.

DeepSeek réaffirme son engagement en faveur de l’open source et de la collaboration au sein de la communauté de l’IA. L’entreprise souhaite contribuer à l’accélération de l’innovation en partageant ses connaissances et en encourageant le développement collaboratif.

« En tant que membre de la communauté open source, nous pensons que chaque ligne partagée devient un élan collectif qui accélère le voyage… Pas de tours d’ivoire — juste de l’énergie pure de garage et de l’innovation axée sur la communauté », a déclaré DeepSeek.

Lire plus