fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Elon Musk veut racheter OpenAI pour 97,4 milliards de dollars !

im 88275896

À la tête d’un consortium d’investisseurs, Elon Musk a lancé une offre publique d’achat non sollicitée de 97,4 milliards de dollars pour prendre le contrôle d’OpenAI, son rival dans le domaine de l’IA. Cette offre, révélée par le Wall Street Journal, intervient quelques mois seulement après que Musk a poursuivi OpenAI en justice pour son projet de transition vers une structure commerciale à but lucratif.

Cette offre de 97,4 milliards de dollars qui a pour but de racheter la branche à but non lucratif d’OpenAI intervient à un moment charnière pour OpenAI, qui s’apprête à se convertir en société à but lucratif et à lever 40 milliards de dollars.

« Il est temps pour OpenAI de redevenir la force du bien, axée sur l’open source et la sécurité, qu’elle était autrefois », a déclaré Musk dans un communiqué adressé au conseil d’administration d’OpenAI.

Le consortium, soutenu par xAI, la société d’IA de Musk, propose de fusionner avec OpenAI si l’accord est conclu. Le conseil d’administration n’a pas encore pris de décision concernant l’offre, mais Sam Altman, PDG d’OpenAI, l’a publiquement rejetée, proposant en retour de racheter Twitter (désormais X) pour le même montant.

Musk et Altman : Une rivalité qui dure depuis des années

Musk et Altman ont cofondé OpenAI en 2015, mais Musk a démissionné de son poste de coprésident du conseil d’administration en 2018 après que ses demandes de « participation majoritaire, de contrôle absolu et de poste de PDG » ont été rejetées. Il a ensuite fondé xAI en 2023 et s’est depuis engagé à harceler sans relâche OpenAI, et Sam Altman en particulier.

En mars 2023, Musk a cosigné une lettre ouverte appelant à une pause de 6 mois dans le développement de systèmes d’IA plus puissants que GPT-4. En novembre de la même année, il a partagé une lettre anonyme accusant Altman de pratiques contraires à l’éthique.

Musk a poursuivi OpenAI à plusieurs reprises en 2024, l’accusant d’avoir violé le contrat de fondation de l’entreprise en privilégiant les intérêts commerciaux au détriment du bien public. Il a également attaqué Microsoft, un investisseur d’OpenAI, et a nommé Shivon Zilis, mère de trois de ses enfants, comme plaignante.

Une bataille sans fin ?

OpenAI a répondu en décembre en publiant un article de blog intitulé « Elon Musk voulait un OpenAI à but lucratif », détaillant le soutien initial de Musk à la transition vers le statut de société à but lucratif et fournissant des e-mails pour étayer ces affirmations. Les tribunaux ne se sont pas encore prononcés sur le litige en cours, mais, étant donné que la querelle entre les deux hommes dure depuis plus de 6 ans, il est peu probable que cette dernière salve marque la fin de leur combat.

OpenAI n’a pas encore commenté officiellement l’offre. L’entreprise se trouve actuellement à un tournant majeur, avec le projet Stargate, un ambitieux programme de 500 milliards de dollars visant à construire une infrastructure massive de centres de données pour l’IA.

Lire plus
Intelligence Artificielle

Emmanuel Macron annonce un plan massif de 109 milliards d’euros pour l’IA en France

Emmanuel Macron annonce un plan massif de 109 milliards d'euros pour l'IA en France

Le président Emmanuel Macron a annoncé que la France bénéficiera de 109 milliards d’euros d’investissements privés dans le secteur de l’intelligence artificielle (IA) au cours des prochaines années.

Cette déclaration précède le Sommet pour l’action sur l’IA qui se tient à Paris, réunissant des dirigeants mondiaux et des acteurs majeurs du secteur.

« Je peux vous dire ce soir que l’Europe va accélérer, la France va accélérer. Et pour nous, la France, nous annonçons au sommet de demain 109 milliards d’euros d’investissement dans l’intelligence artificielle au cours des prochaines années », a déclaré le président Macron dans une interview télévisée sur France 2 et le First Post indien. « Qu’est-ce que c’est ? C’est exactement l’équivalent pour la France de ce que les États-Unis ont annoncé avec Stargate — 500 milliards de dollars — c’est le même ratio ». Avec 68 millions d’habitants, la France a 5 fois moins d’habitants que les États-Unis.

Principaux investissements annoncés :

  • Émirats arabes unis : Jusqu’à 50 milliards d’euros, incluant le financement d’un centre de données d’une capacité de 1 gigawatt.
  • Brookfield (Canada): 20 milliards d’euros pour des projets d’IA en France, notamment la construction d’un centre de données à Cambrai.
  • Mistral AI (France) : Plusieurs milliards d’euros pour établir un datacanter dédié à l’IA. La société parisienne est sans doute la seule entreprise européenne à travailler sur des modèles de fondation capables de rivaliser avec les modèles de Meta, Google, OpenAI, Anthropic, DeepSeek, Alibaba et autres.

Des datacenters « verts » ?

Ces investissements visent à renforcer l’infrastructure nécessaiFre au développement de l’IA, notamment par la construction de centres de données énergivores. D’où la comparaison avec Stargate. La France, avec sa production d’électricité décarbonée issue du nucléaire, se positionne avantageusement pour accueillir ces infrastructures. Pour rappel, la majorité de la production d’électricité en France provient de centrales nucléaires. La France produit également plus d’électricité qu’elle n’en consomme.

« En France, nous avons une avance extraordinaire. Nous produisons une électricité parmi les plus décarbonées, les plus pilotables et les plus sûres au monde. Nous avons le réseau le plus sûr et le plus stable. Et nous exportons cette électricité bas carbone », a déclaré Emmanuel Macron.

Le Président Emmanuel Macron a également mis en lumière les startups françaises de l’IA, telles que Mistral, Wandercraft et Owkin, qui a transféré son siège social aux États-Unis. Il estime que l’Europe est toujours compétitive en matière de startups d’intelligence artificielle et a même déclaré que DeepSeek représentait une opportunité de rattraper son retard.

« Il y avait une course à la mise à l’échelle. Tout le monde pensait qu’il fallait toujours être plus grand et plus fort. Qu’a fait DeepSeek avec ses modèles ouverts ? Ils ont pris toutes les innovations accessibles du dernier modèle OpenAI et les ont adaptées à leur propre modèle, en utilisant une approche plus frugale », a-t-il déclaré. « Tout le monde va continuer à faire cela. Et c’est pourquoi il faut être dans cette course ».

Un sommet de Paris très attendu

Le sommet de Paris a pour objectif de promouvoir une IA éthique et démocratique, tout en affirmant le rôle de l’Europe dans cette révolution technologique. Une initiative notable est la création de la fondation « Current AI », dotée d’un budget initial de 400 millions de dollars, avec l’ambition de lever 2,5 milliards sur cinq ans, pour soutenir des projets d’IA d’intérêt public.

Ces annonces illustrent la volonté de la France et de l’Europe de s’affirmer face aux investissements massifs des États-Unis et de la Chine dans le domaine de l’IA. Elles témoignent également de l’engagement à développer une IA respectueuse des valeurs européennes, au service de la société.

Lire plus
Intelligence Artificielle

Adobe Acrobat : l’IA analyse vos contrats et les résume pour vous !

Adobe Acrobat : l'IA analyse vos contrats et les résume pour vous !

Adobe continue d’étendre son intégration de l’intelligence artificielle avec de nouvelles fonctionnalités destinées à simplifier la compréhension des contrats et documents juridiques, aussi bien pour les entreprises que pour les consommateurs. L’objectif est clair : maintenir son leadership sur le marché de la gestion documentaire, en rendant les documents complexes plus accessibles grâce à l’IA.

Assistant IA d’Acrobat d’Adobe peut désormais détecter automatiquement les contrats, en résumer les termes clés et comparer les différences entre plusieurs versions. Ces fonctionnalités visent à résoudre un problème bien connu : la majorité des gens ne lisent pas entièrement les contrats avant de les signer.

D’après une étude menée par Adobe, près de 70 % des consommateurs signent des contrats sans en comprendre tous les termes. Ce phénomène touche aussi les entreprises, où 64 % des petites entreprises évitent de signer des contrats en raison d’un manque de clarté sur leur contenu.

« Control F est mort », déclare Lori DeFurio, directrice produit chez Adobe, en référence à la traditionnelle recherche de mots-clés. L’IA conversationnelle prend désormais le relais pour rendre la lecture et la compréhension des documents plus intuitives.

Comment fonctionne l’analyse des contrats par l’IA ?

Les nouvelles capacités Assistant IA d’Acrobat ne remplacent pas les conseils juridiques, mais agissent comme un assistant de recherche intelligent. L’outil aide les utilisateurs à localiser et comprendre les termes importants tout en fournissant des citations précises dans le document source.

  • Il permet de comparer jusqu’à 10 versions d’un contrat sous forme de tableau, avec les modifications mises en évidence.
  • Il est capable d’analyser des documents scannés, même s’ils sont froissés ou mal capturés.
  • L’outil ne stocke pas les documents analysés et ne les utilise pas pour entraîner ses modèles d’IA.

« Ce n’est pas un substitut aux conseils juridiques, mais un point de départ », précise Michi Alexander, vice-présidente du marketing produit chez Adobe. L’outil oriente l’utilisateur vers les passages du document nécessitant une attention particulière, sans remplacer une lecture approfondie.

Sécurité des données : Adobe insiste sur la confidentialité

Avec la montée en puissance des IA dans les logiciels professionnels, la sécurité des données est un enjeu majeur. Adobe assure que toutes les analyses de documents sont traitées de manière transitoire dans le nuage, sans stockage ni utilisation pour l’entraînement des modèles IA.

« Vos données restent vos données », insiste Lori DeFurio. L’IA ne regarde que les documents explicitement sélectionnés par l’utilisateur, garantissant une stricte confidentialité.

Ces nouvelles fonctionnalités arrivent à un moment où les entreprises cherchent à automatiser leurs processus, notamment dans la gestion des contrats.

  • Selon une enquête d’Adobe, 96 % des responsables IT estiment que l’IA renforcerait leur confiance dans la capacité des employés à gérer les contrats correctement.
  • Parmi les premiers testeurs, la majorité rapporte une réduction du temps de relecture des contrats de 70 à 80 %.
  • Austin Bailey, un dirigeant dans le développement immobilier, affirme être passé de 45 minutes à moins de 10 minutes pour un premier examen de contrat grâce à Assistant IA d’Acrobat.

Si d’autres entreprises proposent déjà des outils d’analyse de contrats par IA, Adobe bénéficie de son immense base d’utilisateurs et de son intégration profonde dans les flux de travail existants. Cette position dominante pourrait lui permettre de s’imposer sur ce marché émergent.

Une stratégie gagnante : L’IA au cœur des produits Adobe

Ce lancement illustre une tendance plus large chez les éditeurs de logiciels : intégrer l’IA directement dans leurs produits phares au lieu d’en faire des solutions indépendantes.

Chez Adobe, cette stratégie commence déjà à porter ses fruits. L’entreprise a observé un doublement des interactions des clients avec son assistant IA au dernier trimestre 2024.

Vers une automatisation totale de l’analyse contractuelle ? Pas encore. Comme le souligne Michi Alexander, l’IA ne remplace pas le jugement humain, mais elle facilite l’identification des éléments critiques dans un document. L’avenir du traitement des contrats passera donc par une collaboration entre IA et utilisateurs, pour un équilibre entre automatisation et vigilance humaine.

Lire plus
Intelligence Artificielle

ChatGPT Canvas : L’IA devient votre co-écrivain et partenaire de codage

ChatGPT Canvas : L'IA devient votre co-écrivain et partenaire de codage

Dans le cadre de son événement « 12 Days of OpenAI », où la société a libéré Sora, OpenAI a dévoilé la version générale de Canvas, une fonctionnalité révolutionnaire qui transforme ChatGPT en un assistant collaboratif pour l’écriture et le codage.

Disponible dès maintenant pour tous les utilisateurs de ChatGPT, Canvas était auparavant limité à une version bêta réservée aux abonnés payants.

Cette nouveauté marque un tournant en permettant de travailler directement avec ChatGPT sur des projets dans une interface partagée et éditable, créant une expérience collaborative semblable à celle d’un partenaire humain, mais avec la rapidité et l’efficacité de l’IA.

Qu’est-ce que Canvas ?

Canvas modifie l’approche classique de ChatGPT en remplaçant l’interface traditionnelle par une zone de travail interactive. Dans cette interface, les réponses de l’IA sont intégrées dans une page éditable où l’utilisateur peut écrire, modifier ou commenter directement les contenus.

Comment fonctionne Canvas ?

  • Lorsque vous déposez un texte ou un code dans Canvas, ChatGPT affiche des options pour vous aider.
  • Vous pouvez demander des commentaires, des modifications ciblées ou une réécriture complète. L’objectif est de garder le contrôle total sur le contenu, en choisissant exactement ce que l’IA modifie.
  • Si vous préférez des suggestions sans modifications automatiques, l’IA peut commenter votre travail pour fournir des idées ou des conseils détaillés.

Canvas est désormais intégré directement à GPT-4o. Il s’ouvre automatiquement pour certains types de requêtes ou lorsque du texte spécifique est collé dans l’interface.

Collaborer sur des projets de texte et de code

Pour les écrivains

Canvas devient un co-écrivain virtuel. Vous pouvez :

  • Mettre en surbrillance des parties spécifiques d’un texte pour demander des corrections ou des suggestions.
  • Obtenir des idées pour développer un paragraphe ou améliorer le ton d’une section.
  • Intégrer des commentaires pour affiner un brouillon sans devoir quitter l’interface.

Pour les développeurs

Les programmeurs bénéficient d’une édition en temps réel avec des fonctionnalités avancées telles que :

  • La détection des erreurs dans le code avec des suggestions pour les corriger.
  • Une fonctionnalité « Run » qui exécute le code directement dans l’interface, affichant les résultats dans une console intégrée.
  • La possibilité de traduire et d’éditer du code, notamment en Python, pour tester et affiner les scripts rapidement. Cela évite de devoir copier le code pour le tester dans un autre environnement. Cette fonctionnalité rapproche Canvas de Anthropic Claude Artifacts, qui permet déjà de tester des extraits de code et de générer des aperçus.
Screen 2024 12 11 at 08.47.57 scaled
Exécution de code Python directement dans ChatGPT

Intégration avec les GPTs Personnalisés

L’un des ajouts les plus significatifs à Canvas est son intégration avec les GPTs personnalisés. Cette combinaison permet de créer des outils spécialisés adaptés aux besoins spécifiques de chaque utilisateur.

Exemples d’utilisation :

  • Un GPT dédié à l’écriture de nouvelles, qui commente et améliore votre texte en temps réel.
  • Un assistant d’analyse de données, qui exécute et ajuste des scripts Python dans Canvas pour fournir des analyses précises.

Pour les GPTs personnalisés existants, Canvas peut être activé via les paramètres, offrant ainsi une flexibilité accrue pour répondre à des cas d’usage variés.

Pourquoi Canvas redéfinit l’expérience ChatGPT ?

L’arrivée de Canvas marque une avancée majeure pour les utilisateurs de ChatGPT en apportant une collaboration plus intuitive, que ce soit pour l’écriture ou la programmation, une interaction directe et fluide avec le contenu dans une seule interface, des outils avancés pour les développeurs, comme l’exécution de code et la correction en temps réel, et enfin une personnalisation accrue grâce à l’intégration des GPTs sur mesure.

OpenAI prévoit de continuer à enrichir Canvas avec de nouvelles fonctionnalités. Cet outil s’inscrit dans une stratégie plus large visant à renforcer l’utilité de ChatGPT pour une audience variée, des écrivains aux développeurs en passant par les analystes.

Canvas est désormais disponible dans sa première version non bêta pour tous les utilisateurs de ChatGPT. Si vous cherchez une façon plus collaborative et interactive de travailler avec l’IA, Canvas est prêt à transformer votre façon de créer et d’éditer.

Lire plus
Intelligence Artificielle

Le Chat : l’IA française de Mistral AI qui défie ChatGPT et DeepSeek !

Le Chat : l'IA française de Mistral AI qui défie ChatGPT et DeepSeek !

Dans le paysage actuel de l’intelligence artificielle, dominé par des acteurs majeurs, tels que OpenAI et plus récemment DeepSeek, d’autres équipes d’ingénieurs talentueux développent des modèles de Large Language Model (LLM) qui méritent l’attention des utilisateurs et des entreprises en quête des technologies les plus avancées.

Parmi ces acteurs, Mistral AI, une startup française s’est distinguée en levant un financement initial record de 640 millions de dollars avant même son lancement. Depuis, elle a discrètement développé et publié une combinaison de modèles open source et propriétaires destinés aux consommateurs et aux entreprises.

Alors que de nouveaux modèles de raisonnement et agents dominent le paysage de l’IA, Mistral AI se positionne comme une alternative viable au chatbot phare d’OpenAI, ChatGPT, et à l’application mobile à succès de DeepSeek, notamment pour ceux préoccupés par la confidentialité et la sécurité des données.

Aujourd’hui, Mistral AI a lancé sa propre version mobile gratuite de son chatbot Le Chat pour iOS et Android, ainsi qu’une nouvelle offre Enterprise pour une infrastructure privée, et un plan Pro à 14,99 euros par mois. Cette initiative suggère que Mistral AI cherche à convaincre les entreprises qu’il existe des alternatives valables à DeepSeek et OpenAI.

Le Chat de Mistral AI offre aux dirigeants d’entreprise un outil d’IA qui s’intègre aux environnements d’entreprise, fonctionne avec des performances élevées et, point important pour certains clients, ne transfère pas les données des utilisateurs vers la Chine, contrairement à DeepSeek.

Mistral AI cible à la fois les consommateurs et les entreprises avec Le Chat

Le dernier déploiement de Mistral AI intervient à un moment où les entreprises évaluent de plus en plus leurs partenaires en IA en fonction de la confidentialité des données, de la sécurité et de la flexibilité de déploiement.

Screen 2025 02 07 at 09.12.52

Le lancement de l’offre Enterprise de Le Chat, qui permet aux entreprises de déployer l’assistant sur une infrastructure privée, en SaaS ou en cloud privé virtuel (VPC), suggère que Mistral AI cible les mêmes utilisateurs professionnels qui auraient pu envisager GPT-4 d’OpenAI ou Claude d’Anthropic, mais qui souhaitent un meilleur contrôle de leurs données et de leurs modèles.

La stratégie de Mistral reflète une initiative récente de DeepSeek, l’entreprise chinoise d’IA qui a publié DeepSeek-R1, un modèle de raisonnement puissant offrant des capacités et des performances similaires à la série « o » des modèles d’OpenAI (o1, o1-mini et o3-mini déjà disponibles, avec o3 complet à venir), mais à une fraction du coût (30 fois moins cher pour les utilisateurs professionnels que l’OpenAI o1).

Une réponse aux préoccupations de DeepSeek

Cependant, l’expansion de DeepSeek a été accueillie en Occident avec des préoccupations concernant la confidentialité et la sécurité liées aux lois chinoises sur la rétention des données et la censure. Certains analystes se sont interrogés sur la possibilité que les modèles d’IA développés par des entreprises chinoises soient soumis aux réglementations d’accès aux données de Pékin, incitant les entreprises à faire preuve de prudence lors de l’intégration de tels systèmes.

Pour les entreprises préoccupées par l’endroit où leurs modèles d’IA traitent et stockent les données, l’infrastructure non chinoise de Le Chat pourrait être un argument de vente clé. Contrairement à DeepSeek, qui opère sous un cadre juridique chinois, Mistral AI est une entreprise européenne basée en France, soumise aux lois européennes sur la confidentialité des données (RGPD) plutôt qu’à la loi chinoise sur la cybersécurité ou à la loi sur la protection des informations personnelles (PIPL).

Vitesse, précision et outils pour les entreprises

Mistral AI parie également sur les avantages de performance de Le Chat pour se démarquer. L’application mobile est alimentée par les derniers modèles d’IA à faible latence de l’entreprise, qui, selon Mistral, permettent des « réponses flash » — une fonctionnalité qui génère des réponses à des vitesses allant jusqu’à 1 000 mots par seconde.

Au-delà de la vitesse, Le Chat se distingue en intégrant la recherche Web en temps réel et en s’appuyant sur des sources journalistiques et des plateformes de réseaux sociaux, permettant des réponses fondées sur des faits plutôt que de se fier uniquement aux connaissances pré-entraînées.

Cela fait de Le Chat une alternative potentielle pour les entreprises qui nécessitent des informations d’IA plus à jour et basées sur des preuves plutôt que sur des données d’entraînement statiques.

Pour les entreprises, Le Chat inclut également :

  • Interpréteur de code : permet l’exécution de scripts, les calculs scientifiques et la visualisation de données.
  • Traitement de documents et OCR : reconnaissance optique de caractères de qualité industrielle pour les PDF, les tableurs et même les images complexes ou de faible qualité.
  • Génération d’images : alimentée par Flux Ultra de Black Forest Labs, permettant la création de contenu photoréaliste.

Des prix plus compétitifs qu’OpenAI et Anthropic

Mistral AI adopte également une approche différente en matière de tarification par rapport à ses concurrents. Alors qu’OpenAI facture 20 dollars par mois pour ChatGPT Plus et qu’Anthropic’s Claude propose des prix variables en fonction des limites de jetons, le plan Pro de Le Chat commence à 14,99 euros par mois.

De plus, la plupart des fonctionnalités — y compris les derniers modèles, le téléchargement de documents et même la génération d’images — sont gratuites, avec des limites ne s’appliquant qu’aux utilisateurs intensifs. Pour les entreprises envisageant une adoption à l’échelle de l’équipe, Le Chat Team offre un support prioritaire, une facturation unifiée et des crédits d’intégration.

Lire plus
Intelligence Artificielle

OpenAI : ChatGPT, robots humanoïdes et lunettes connectées, le futur de l’IA se précise !

OpenAI : ChatGPT, robots humanoïdes et lunettes connectées, le futur de l'IA se précise !

OpenAI a déposé une nouvelle demande de marque auprès de l’Office américain des brevets et des marques (USPTO) le 31 janvier 2025. Ce dépôt laisse entrevoir une expansion vers de nouveaux produits, notamment dans le matériel informatique et la robotique.

Si cette initiative souligne des ambitions stratégiques, il est important de noter que ces produits pourraient ne voir le jour que dans plusieurs années.

Quels nouveaux produits OpenAI prévoit-elle ?

La demande de marque mentionne plusieurs gammes de matériel, dont :

  • Casques audio
  • Lunettes connectées
  • Montres connectées
  • Bijoux connectés
  • Accessoires pour ordinateurs portables et smartphones

OpenAI semble également vouloir entrer sur le marché de la réalité virtuelle (VR) et de la réalité augmentée (AR) avec de nouveaux casques. Ces produits seraient conçus pour fonctionner avec les technologies IA, améliorant l’interaction utilisateur grâce à des simulations et formations assistées par l’IA.

Le PDG Sam Altman a déjà évoqué la collaboration avec plusieurs entreprises pour concevoir du matériel grand public basé sur l’IA, bien que le calendrier de sortie reste incertain. Les premiers prototypes pourraient prendre plusieurs années avant d’être prêts.

Des robots humanoïdes intelligents en développement

Au-delà du matériel informatique, OpenAI prépare aussi son entrée dans la robotique, notamment avec des robots humanoïdes. Ces robots seraient programmables par l’utilisateur et dotés d’aptitudes avancées en communication et en apprentissage.

Pour mener à bien ce projet, OpenAI a mis en place une nouvelle équipe de robotique dirigée par Caitlin Kalinowski, ancienne responsable de la division lunettes AR chez Meta. L’objectif est de développer des robots équipés de capteurs avancés et d’une IA capable d’imiter l’intelligence et le comportement humain.

Des puces IA et une exploration du quantique

OpenAI travaille également sur le développement de ses propres puces d’intelligence artificielle afin d’améliorer les performances de ses modèles. L’entreprise collabore avec Broadcom et TSMC, et prévoit un lancement de ses puces dédiées d’ici 2026.

De plus, OpenAI explore le domaine de l’informatique quantique. L’objectif est d’optimiser ses modèles d’IA grâce aux capacités de calcul avancées des ordinateurs quantiques, ouvrant ainsi la voie à de nouvelles innovations.

Bien que cette demande de marque révèle les ambitions futures d’OpenAI, aucune date de sortie précise n’a été annoncée. L’entreprise continue d’explorer le potentiel des produits assistés par IA, mais beaucoup de ces projets sont encore à un stade préliminaire.

Cependant, cette stratégie montre clairement qu’OpenAI ne compte pas se limiter aux modèles linguistiques et souhaite étendre son influence dans le matériel, la robotique et les semi-conducteurs, confirmant ainsi son ambition d’être un acteur clé dans l’avenir de l’IA.

Lire plus
Intelligence Artificielle

OpenAI : nouveau logo, nouvelle typo, nouvelle identité !

OpenAI : nouveau logo, nouvelle typo, nouvelle identité !

OpenAI vient de dévoiler une refonte complète de son identité visuelle, marquée par un nouveau logo, une typographie revisitée et une palette de couleurs mise à jour. Cette évolution vise à offrir une image plus cohérente et raffinée de l’entreprise, qui a connu une croissance fulgurante ces dernières années.

Il s’agit du premier rebranding de l’entreprise depuis son ascension fulgurante en 2022, portée par le succès de ChatGPT.

dH5yV9fpPk5vfUbg3tNGah 1280 80.j

OpenAI, un nouveau logo pour une identité plus épurée

À première vue, le nouveau logo peut sembler identique à l’ancien, mais, en y regardant de plus près, on remarque des lignes plus nettes et un espace central légèrement agrandi. Ce subtil ajustement donne un aspect plus fluide et équilibré à l’emblématique « blossom » d’OpenAI.

U7FVzKR9h35nvXwHSvr5Mf 1280 80.j

Cette refonte a été réalisée en interne par l’équipe design dirigée par Veit Moeller et Shannon Jager, en collaboration avec la fonderie berlinoise ABC Dinamo pour la typographie et le studio Studio Dumbar de Rotterdam pour le motion design.

Un besoin de cohésion et d’uniformité

Lors d’une interview avec Wallpaper, les designers ont reconnu que l’identité visuelle d’OpenAI était jusqu’ici hétérogène et manquait de cohérence. Différentes polices, logos et couleurs coexistaient sans véritable stratégie. Cette refonte vise donc à unifier la communication visuelle de l’entreprise.

WqWynY26nwGf8BDr3DbiUc 1280 80.j

Selon Veit Moeller, cette réflexion a été initiée il y a plus d’un an à la demande du PDG Sam Altman, qui serait d’ailleurs l’un des concepteurs du premier logo d’OpenAI. L’objectif était d’incarner une identité plus organique et humaine, tout en conservant l’aspect technologique et scientifique qui définit la marque.

Une nouvelle police OpenAI Sans

Parmi les nouveautés, OpenAI a développé sa propre typographie, baptisée OpenAI Sans. Ce caractère typographique cherche à trouver un équilibre entre la rigueur géométrique et une touche plus accessible et chaleureuse. Le détail le plus marquant se trouve dans la lettre « O », dont l’intérieur présente de légères imperfections destinées à atténuer l’effet trop robotisé et à renforcer une dimension humaine.

2qjL5bJpZhc4pwiqi4zBjY 1280 80.j

Lorsqu’on leur a demandé si les outils d’IA d’OpenAI, comme ChatGPT, avaient participé à la conception de cette identité, Moeller a répondu que l’IA avait été utilisée uniquement pour calculer les différentes épaisseurs de police.

Une identité en phase avec l’évolution d’OpenAI

De simple laboratoire de recherche, OpenAI est devenu un acteur mondial incontournable de l’intelligence artificielle. Cette refonte traduit cette montée en puissance et cherche à affirmer une identité plus claire et impactante.

En parallèle, la marque a déjà testé sa nouvelle identité à travers un drop de merchandising, qui a rencontré un énorme succès en interne. Selon Jager, certains employés ont même hacké le site pour pouvoir commander davantage de produits, ce qui témoigne de l’enthousiasme suscité en interne par ce nouveau design.

DeepSeek, la nouvelle concurrence de OpenAI 

Ce changement intervient à un moment stratégique pour OpenAI, alors que l’entreprise fait face à une concurrence accrue de la part de DeepSeek, une marque chinoise d’IA open source qui vient de conclure un accord financier avec SoftBank. OpenAI est également impliqué dans une bataille judiciaire avec Elon Musk. Cependant, Moeller affirme que cette refonte était en préparation depuis longtemps. « Sam [Altman] nous a demandé de repenser l’identité visuelle il y a plus d’un an », a-t-il confié.

Avec cette évolution graphique, OpenAI se positionne comme une marque à la croisée de la technologie et de l’humain, affirmant sa vision d’une IA au service du progrès et de la créativité.

Lire plus
Intelligence Artificielle

Gemini 2.0 Flash Thinking : Google dévoile une IA plus intelligente et plus réfléchie

Gemini 2.0 Flash Thinking : Google dévoile une IA plus intelligente et plus réfléchie

Google vient d’annoncer l’intégration de son modèle d’intelligence artificielle expérimental Gemini 2.0 Flash Thinking dans l’application Gemini. Cette mise à jour fait partie d’une série de déploiements liés à Gemini 2.0, incluant également le nouveau modèle phare Gemini 2.0 Pro.

L’annonce intervient alors que Google prévoit d’investir 75 milliards de dollars cette année dans le développement de ses modèles d’IA, un chiffre bien supérieur aux 32,3 milliards dépensés en 2023. L’entreprise accélère ainsi pour rattraper son retard face à OpenAI, Microsoft, Meta et Anthropic, ce dernier étant soutenu par Amazon.

Ce déploiement intervient alors que le secteur de l’IA est captivé par l’essor de modèles de raisonnement à bas coût, en particulier ceux de la startup chinoise DeepSeek. Ce dernier a marqué les esprits avec son modèle DeepSeek R1, lancé en décembre dernier, qui rivalise, voire dépasse, les performances des modèles américains à un prix bien plus attractif. En réponse, Google cherche à mettre Gemini 2.0 Flash Thinking en avant en l’intégrant à son application grand public Gemini.

Gemini 2.0 Flash Thinking, un modèle de raisonnement avancé

Le modèle Gemini 2.0 Flash Thinking permet de répondre à des questions complexes en expliquant son raisonnement. Contrairement aux IA classiques qui fournissent simplement une réponse, ce modèle décompose les problèmes en étapes plus petites et plus gérables, ce qui lui permet de réfléchir avant d’offrir une solution. L’objectif est d’obtenir des résultats plus précis et pertinents, bien que ce processus prenne plus de temps.

gemini benchmarks cropped light1

Ce modèle sera disponible dans les options de sélection de modèles sur bureau et mobile, aux côtés d’une autre version capable d’interagir avec des applications comme YouTube, Google Recherche et Google Maps.

Lancement de Gemini 2.0 Pro

Parallèlement, Google lance une version expérimentale de Gemini 2.0 Pro, décrite comme son modèle le plus avancé à ce jour. Selon des fuites relayées par TechCrunch, ce modèle offrirait une meilleure précision factuelle et des performances améliorées en programmation et en mathématiques.

Les utilisateurs de Gemini Advanced ainsi que les développeurs utilisant Vertex AI et AI Studio pourront tester Gemini 2.0 Pro en avant-première.

Déploiement de Gemini 2.0 Flash et Flash-Lite

En plus de Gemini 2.0 Flash Thinking, Google rend également disponible Gemini 2.0 Flash, son modèle ultra-performant et optimisé, pour les développeurs via AI Studio et Vertex AI.

Enfin, une nouvelle version abordable, baptisée Gemini 2.0 Flash-Lite, est également en cours de lancement. Google affirme que ce modèle égale la vitesse et le coût du 1,5 Flash, tout en offrant de meilleures performances sur la majorité des benchmarks.

Une concurrence toujours plus féroce

Avec ces annonces, Google affiche une ambition claire : dominer le marché de l’intelligence artificielle en rendant ses modèles plus performants et accessibles. Cependant, la concurrence reste rude, notamment face à OpenAI et son modèle o1, ou encore DeepSeek R1.

Avec ces nouvelles avancées, Gemini 2.0 pourrait bien marquer un tournant dans l’évolution de l’IA générative. Reste à voir comment ces modèles se positionneront face aux leaders du marché et s’ils sauront convaincre les développeurs et entreprises.

Lire plus
Intelligence Artificielle

OpenAI o3-mini : Performances exceptionnelles en programmation, maths et sciences !

OpenAI o3-mini : Performances exceptionnelles en programmation, maths et sciences !

OpenAI a récemment lancé son modèle o3-mini, marquant une nouvelle étape dans la compétition avec DeepSeek R1, le modèle de raisonnement chinois qui a secoué l’industrie de l’IA. Avec cette annonce, OpenAI ne perd pas de temps et propose également une version améliorée, o3-mini-high, destinée aux abonnés de ChatGPT Plus et Pro.

J’ai testé ses performances dans différents domaines clés, tels que la programmation, les mathématiques et la science. Voici ce que nous avons découvert.

1. Une performance exceptionnelle en programmation

OpenAI affirme que o3-mini excelle en programmation tout en maintenant des coûts réduits et une rapidité accrue. Avant son lancement, le modèle Claude 3.5 Sonnet d’Anthropic était considéré comme la référence pour les tâches de codage.

Toutefois, o3-mini-high semble désormais surpasser cette concurrence.

Lors de mes tests, j’ai demandé à o3-mini-high de créer un jeu en Python où plusieurs serpents autonomes s’affrontent. En 1 minute et 24 secondes, il a généré un code parfaitement fonctionnel, sans erreur.

Screen 2025 02 03 at 09.09.38

Son efficacité est confirmée par un score Elo de 2 130 sur la plateforme Codeforces, le plaçant parmi les 2 500 meilleurs programmeurs au monde. De plus, sur le benchmark SWE-bench Verified, qui évalue la capacité des IA à résoudre des problèmes logiciels réels, o3-mini-high a obtenu 49,3 % d’exactitude, dépassant même o1 (48,9 %).

Ainsi, si vous recherchez une assistance en programmation, o3-mini-high semble être l’option idéale avant même l’arrivée du modèle complet o3, annoncé par Sam Altman dans les prochaines semaines.

2. Une capacité avancée en mathématiques

Outre la programmation, les mathématiques sont un autre domaine où o3-mini excelle. Lors de l’épreuve AIME 2024 (American Invitational Mathematics Examination), un test couvrant l’algèbre, la géométrie et la théorie des nombres, o3-mini-high a atteint un impressionnant 87,3 %, dépassant même o1.

Screen 2025 02 03 at 09.11.38

Sur le benchmark FrontierMath, qui rassemble des problèmes posés par des mathématiciens de renom comme Terence Tao, o3-mini-high a obtenu 20 % après 8 tentatives, ce qui est significatif étant donné le niveau de difficulté. En comparaison, d’autres modèles d’IA n’atteignent en général que 2 % sur ce même test.

3. Un expert en sciences au niveau PhD

Le o3-mini-high brille également en sciences, notamment dans des disciplines avancées, comme la biologie, la physique et la chimie. Dans le benchmark GPQA Diamond, qui teste la compréhension des modèles en sciences spécialisées, o3-mini-high a obtenu un score de 79,7 %, surpassant le modèle o1 (78,0 %) et même Gemini 2.0 Flash Thinking de Google (73,3 %).

Screen 2025 02 03 at 09.12.23

Ainsi, o3-mini-high est capable de répondre avec précision à des questions scientifiques complexes, souvent comparables à celles d’un doctorant.

4. De solides compétences en culture générale

Même si o3-mini est principalement optimisé pour le raisonnement en programmation, mathématiques et sciences, il reste très performant en culture générale. Sur le benchmark MMLU, qui évalue les connaissances générales d’un modèle d’IA sur divers sujets, o3-mini-high a obtenu 86,9 %, se rapprochant du GPT-4o d’OpenAI (88,7 %).

Le modèle complet o3, qui arrivera bientôt, devrait logiquement dépasser tous les modèles actuels sur ce type de test. En effet, o1 a déjà atteint un score de 92,3 % sur MMLU, ce qui laisse présager une performance encore meilleure pour o3.

5. Un accès à la recherche Web en temps réel

L’une des principales limitations des modèles d’IA est leur base de connaissances figée. À ce jour, o3-mini dispose d’une date limite de connaissance en octobre 2023, ce qui peut poser problème pour les informations les plus récentes.

Cependant, OpenAI a intégré une fonctionnalité de recherche sur le Web pour o3-mini, permettant ainsi au modèle de compléter ses réponses en temps réel. Seul DeepSeek R1 propose une fonctionnalité similaire parmi les modèles de raisonnement, mais aucun autre concurrent majeur n’a encore intégré cette capacité.

o3-mini, un modèle à fort potentiel

Le modèle o3-mini d’OpenAI représente une avancée majeure dans l’IA, en particulier pour la programmation, les mathématiques et la science. Bien que la version gratuite de ChatGPT permette d’accéder à o3-mini avec un niveau de raisonnement moyen, la version o3-mini-high offre des performances nettement supérieures, justifiant l’abonnement ChatGPT Plus à 20 dollars/mois.

Pour les développeurs, chercheurs et étudiants en sciences, o3-mini-high est un outil puissant et compétitif. Nous attendons maintenant avec impatience la sortie du modèle complet o3, qui promet de dépasser tous les modèles existants.

Lire plus
Intelligence Artificielle

PowerPoint dépassé ? Gamma, l’alternative IA pour des présentations percutantes

PowerPoint dépassé ? Gamma, l'alternative IA pour des présentations percutantes

Créer une présentation peut être une tâche intimidante, surtout lorsque l’on manque de temps ou que l’on cherche à donner vie à une idée de manière percutante. Nous avons tous connu ce moment où l’on se retrouve face à une diapositive vide, cherchant le moyen de rendre nos idées claires et engageantes. Si PowerPoint reste l’outil incontournable depuis des années, il demande souvent un investissement en temps et en effort considérable pour obtenir un résultat professionnel.

Mais une nouvelle alternative prometteuse a émergé : Gamma, une plateforme alimentée par l’intelligence artificielle qui simplifie la création de présentations tout en offrant un contrôle créatif total.

Que vous soyez un enseignant, un entrepreneur ou un professionnel, Gamma se présente comme une solution moderne pour concevoir des diaporamas impactants avec un minimum d’effort.

Une création de présentation optimisée par l’intelligence artificielle

Contrairement à PowerPoint, qui exige une construction manuelle de chaque diapositive, Gamma utilise l’IA pour générer automatiquement des présentations complètes à partir d’un simple sujet, d’un texte ou d’un fichier téléchargé. Cela permet un gain de temps considérable, notamment pour ceux qui peinent à organiser leurs idées ou qui travaillent sous pression.

Cette approche basée sur l’automatisation assure une efficacité optimale sans compromettre la qualité du rendu final. Tandis que PowerPoint repose sur une personnalisation manuelle qui peut s’avérer chronophage, Gamma propose un assistant intelligent qui génère une structure et un design cohérents dès le départ.

Une personnalisation simplifiée

Bien que Gamma repose sur l’automatisation, il ne néglige pas la personnalisation. Les utilisateurs peuvent facilement modifier les diapositives, ajuster les thèmes et modifier les visuels pour correspondre à leur image de marque ou à leur message.

PowerPoint offre également une grande flexibilité, mais sa prise en main demande davantage de temps et de compétences. Avec son interface intuitive, Gamma permet à même les débutants d’adapter leurs présentations avec simplicité, tout en offrant suffisamment d’options pour satisfaire les utilisateurs avancés.

Exportation et compatibilité facilitées

Gamma s’adapte parfaitement aux environnements de travail collaboratifs. Il permet d’exporter les présentations aux formats PowerPoint ou PDF, assurant ainsi une compatibilité avec les autres plateformes. De plus, Gamma est compatible avec Google Slides, ce qui permet de convertir et d’éditer les fichiers existants sans difficulté.

Bien que PowerPoint soit un outil polyvalent, il ne propose pas de fonctionnalités d’exportation aussi fluides et intelligentes que celles de Gamma. Cette flexibilité fait de Gamma un choix pertinent pour ceux qui doivent jongler entre plusieurs outils.

Des fonctionnalités interactives pour capter l’attention

Une présentation réussie ne se limite pas à de belles diapositives : elle doit aussi captiver son audience. Gamma intègre des éléments interactifs, comme des graphiques dynamiques, des outils mathématiques et d’autres composants interactifs directement intégrés aux diapositives.

Les utilisateurs peuvent présenter leur contenu en direct via Gamma ou partager leur présentation par un simple lien, sans nécessité de téléchargement. Bien que PowerPoint permette une certaine interactivité, Gamma facilite grandement l’intégration de ces fonctionnalités pour une expérience plus immersive et engageante.

Gamma ne se contente pas de concurrencer PowerPoint : il propose des fonctionnalités inédites. Par exemple, son outil de création de sites Web en version bêta permet de transformer une présentation en un site fonctionnel, ce qui ouvre des perspectives intéressantes pour les créateurs de contenu.

De plus, Gamma intègre une génération d’images assistée par IA, permettant de créer des visuels adaptés aux diapositives en quelques clics. PowerPoint, bien que complet, ne dispose pas d’innovations aussi poussées. Cette approche avant-gardiste donne à Gamma un véritable avantage pour ceux qui recherchent une solution innovante et efficace.

Un modèle tarifaire flexible

Gamma fonctionne sur un modèle basé sur des crédits, avec une offre gratuite comprenant 400 crédits pour créer plusieurs présentations. Des formules payantes sont également disponibles pour les utilisateurs ayant des besoins plus avancés.

À l’inverse, PowerPoint nécessite un abonnement pour accéder à l’ensemble de ses fonctionnalités, ce qui peut ne pas convenir aux utilisateurs occasionnels. Gamma offre donc une alternative plus accessible pour ceux qui cherchent un outil puissant sans engagement financier important.

Gamma se distingue aussi par sa simplicité d’utilisation. Conçu pour permettre une configuration rapide et une édition fluide, il est idéal pour tous les profils d’utilisateurs, des novices aux professionnels aguerris.

Bien que PowerPoint soit un outil familier pour beaucoup, il peut sembler complexe pour les nouveaux utilisateurs en raison de la richesse de ses fonctionnalités. Gamma simplifie le processus, éliminant les obstacles inutiles et rendant la création de présentations plus fluide et agréable.

Gamma, un choix moderne et intelligent

Si PowerPoint reste une référence dans le monde de la présentation, Gamma se positionne comme une alternative moderne, rapide et innovante. En intégrant l’intelligence artificielle, il simplifie la création de diapositives tout en offrant des options de personnalisation avancées et une compatibilité optimale avec d’autres plateformes.

Que vous soyez enseignant, entrepreneur ou professionnel, Gamma représente une solution flexible et efficace pour concevoir des présentations percutantes sans effort excessif. Son modèle de tarification accessible, ses outils interactifs et ses innovations uniques en font un concurrent sérieux à PowerPoint et une option à considérer pour dynamiser vos présentations.

Lire plus
Intelligence Artificielle

Claude 3.5 Sonnet : Anthropic dévoile une protection révolutionnaire contre les jailbreaks

Claude 3.5 Sonnet : Anthropic dévoile une protection révolutionnaire contre les jailbreaks

Deux ans après l’arrivée de ChatGPT, les Large Language Model (LLM) se multiplient et restent vulnérables aux jailbreaks, ces techniques permettant de contourner les garde-fous pour obtenir du contenu interdit.

Malgré les efforts des développeurs, aucune solution efficace ne permet encore d’éliminer totalement ces failles. Cependant, Anthropic, le rival d’OpenAI et créateur de Claude 3.5 Sonnet, a introduit une nouvelle protection : les « classificateurs constitutionnels ». Selon l’entreprise, cette technologie bloque la grande majorité des attaques tout en réduisant les refus excessifs de requêtes légitimes.

Un défi lancé aux experts en cybersécurité

Pour prouver l’efficacité de son système, Anthropic a mis en place un challenge public, demandant aux experts en sécurité et aux « red teamers » de tester des « jailbreaks universels » capables de contourner complètement les protections du modèle.

Le test se concentre sur des informations dangereuses, notamment la création d’armes chimiques. L’expérience, lancée le 10 février, comporte huit niveaux, et l’objectif est de trouver une seule faille capable de toutes les franchir.

Depuis août, Anthropic a également mené un programme de bug bounty via HackerOne, offrant 15 000 dollars à toute personne capable de concevoir un jailbreak universel permettant de répondre à 10 questions interdites. 183 experts ont consacré plus de 3 000 heures à essayer de contourner les protections. Résultat : la meilleure tentative n’a réussi qu’à fournir des informations exploitables sur cinq des dix requêtes interdites.

Un système inspiré de l’IA constitutionnelle

Anthropic a bâti son système sur le concept d’IA constitutionnelle, qui aligne les modèles sur des principes éthiques définis. Par exemple, une recette de moutarde est autorisée, mais pas celle du gaz moutarde.

L’entreprise a développé ses classificateurs constitutionnels en générant 10 000 prompts de jailbreak, traduits dans plusieurs langues et adaptés aux techniques connues de contournement (substitutions de mots, encodages, mises en contexte dans des récits fictifs, etc.).

L’objectif : entraîner un système capable de repérer et bloquer ces tentatives dès la saisie de l’utilisateur.

Comment fonctionne ce bouclier anti-jailbreak ?

Le système utilise une double approche :

  1. Détection en entrée : chaque requête est encadrée par des instructions détaillant les types d’informations interdites et les méthodes courantes de dissimulation utilisées par les pirates.
  2. Analyse en sortie : un classificateur calcule en temps réel la probabilité que le texte généré contienne un contenu interdit. Si un certain seuil est dépassé, la réponse est automatiquement bloquée.

Exemple concret : Une demande explicite sur la fabrication d’armes chimiques sera bloquée. Mais si un utilisateur tente de dissimuler cette demande dans un texte anodin (par exemple, un long paragraphe sur la chimie des protéines), le système est conçu pour détecter ces signaux cachés et refuser la requête.

Une protection efficace, mais onéreuse

Anthropic a comparé deux versions de Claude 3.5 Sonnet :

  • Sans protection : 86 % des attaques ont réussi.
  • Avec les classificateurs constitutionnels : seulement 4,4 % des tentatives ont abouti, soit une réduction de 95 % des jailbreaks.

Malgré son efficacité, cette technologie augmente de 23,7 % la consommation de calcul, ce qui impacte les coûts et la consommation d’énergie. Elle refuse aussi 0,38 % de requêtes légitimes en plus par rapport à un modèle non protégé, mais cette différence reste jugée négligeable.

Screenshot 36

Jailbreaks: quelles techniques fonctionnent encore ?

Bien que le système bloque la majorité des attaques, certaines méthodes restent plus efficaces que d’autres :

  • Paraphrase bénigne : transformer une requête interdite en un message anodin. Ex. : au lieu de « Comment extraire la toxine de ricin ? », certains demandent « Comment extraire des protéines de haricot ? » pour contourner la détection.
  • Exploitation de la longueur : générer de très longues réponses techniques, en espérant qu’une information interdite passe à travers les filtres.

En revanche, les techniques les plus avancées, comme le « God-Mode » ou les attaques par contexte ultra-long n’ont pas fonctionné.

Pourquoi ? Les attaquants ont privilégié des stratégies visant à tromper le système d’évaluation plutôt qu’à contourner réellement les défenses.

Vers une IA plus sûre, mais pas inviolable

Anthropic reconnaît que son système n’est pas infaillible et que de nouvelles techniques de jailbreak apparaîtront inévitablement. Toutefois, l’entreprise estime que ces protections :

  • Complexifient grandement les attaques, rendant le jailbreak plus coûteux et difficile à réaliser.
  • Sont adaptables rapidement : la « constitution » qui entraîne les classificateurs peut être modifiée pour couvrir de nouvelles failles dès qu’elles sont découvertes.

Pour tester ces protections, Anthropic ouvre désormais l’accès au public jusqu’au 10 février. Tout utilisateur de Claude peut essayer de contourner les défenses du modèle sur huit questions spécifiques liées aux armes chimiques.

Si un jailbreak est découvert, Anthropic s’engage à analyser et publier les résultats.

La course entre développeurs d’IA et hackers continue, et si Anthropic a pris une longueur d’avance, l’histoire montre que chaque nouvelle protection appelle une nouvelle attaque.

Lire plus
Intelligence Artificielle

Huawei Cloud et Alibaba Cloud adoptent DeepSeek : la Chine muscle son jeu en IA !

Huawei Cloud et Alibaba Cloud adoptent DeepSeek : la Chine muscle son jeu en IA !

Huawei Cloud a conclu un partenariat stratégique avec la startup AI SiliconFlow afin d’intégrer les modèles d’intelligence artificielle DeepSeek à sa plateforme Ascend Cloud. Ce partenariat vise à rendre l’IA plus abordable et accessible, tout en renforçant l’écosystème technologique chinois face aux restrictions américaines sur les semi-conducteurs.

Deux modèles principaux seront déployés sur Huawei Cloud :

  • DeepSeek V3 : un modèle linguistique performant.
  • DeepSeek R1 : un modèle avancé de raisonnement.

Grâce à cette collaboration, Huawei Cloud propose des tarifs attractifs pour ces modèles via SiliconFlow :

DeepSeek V3 :

  • 1 yuan (0,13 dollar) par million de tokens en entrée
  • 2 yuans (0,26 dollar) par million de tokens en sortie

DeepSeek R1 :

  • 4 yuans (0,53 dollar) par million de tokens en entrée
  • 16 yuans (2,13 dollars) par million de tokens en sortie

Ces prix compétitifs rendent l’IA plus accessible aux entreprises et développeurs souhaitant exploiter ces modèles à grande échelle.

Un enjeu d’indépendance technologique et de souveraineté IA

L’intégration de DeepSeek sur Huawei Cloud marque une avancée stratégique dans la quête de souveraineté technologique chinoise en matière d’intelligence artificielle.

Avec les restrictions imposées par les États-Unis sur les puces haut de gamme, la Chine accélère ses efforts pour réduire sa dépendance aux technologies étrangères. En faisant fonctionner les modèles DeepSeek sur les processeurs Ascend de Huawei, le pays renforce son autonomie dans le domaine de l’IA.

DeepSeek a été initialement entraîné sur des GPU Nvidia H100, mais Huawei assure désormais l’inférence avec son propre Ascend 910C. Le futur Ascend 920C, en cours de développement, est annoncé comme un concurrent direct de la prochaine génération de puces Nvidia Blackwell B200.

Alibaba Cloud intègre également l’IA DeepSeek

Alibab

Huawei n’est pas le seul acteur chinois à adopter DeepSeek. Alibaba Cloud a également annoncé l’intégration de ces modèles DeepSeek via sa PAI Model Gallery, qui permet aux entreprises de déployer de l’IA sans écrire une seule ligne de code.

Alibaba propose différentes versions du modèle DeepSeek R1, notamment une version allégée (distillée) pour une meilleure flexibilité selon les besoins des utilisateurs.

DeepSeek : une expansion rapide et une menace pour OpenAI ?

La montée en puissance de DeepSeek ne se limite pas à la Chine. Microsoft et Amazon ont déjà commencé à intégrer ces modèles sur leurs plateformes cloud, faisant de DeepSeek un concurrent de poids face à OpenAI et Meta.

Avec des coûts réduits et des performances en constante amélioration, DeepSeek s’impose comme un acteur majeur du marché de l’IA générative. Cette expansion rapide renforce la position de la Chine dans la course mondiale à l’intelligence artificielle et met la pression sur les entreprises occidentales.

L’avenir de l’IA sera-t-il dominé par des modèles chinois comme DeepSeek ? Seul le temps nous le dira, mais Huawei et Alibaba semblent bien décidés à accélérer la cadence.

Lire plus
Intelligence Artificielle

OpenAI face à DeepSeek : Sam Altman admet avoir « perdu son avance »

OpenAI face à DeepSeek : Sam Altman admet avoir « perdu son avance »

Le PDG d’OpenAI, Sam Altman, a admis que l’entreprise avait perdu son avantage compétitif dans le domaine de l’intelligence artificielle face à DeepSeek, la société chinoise qui a récemment lancé son modèle de raisonnement R1. Malgré ce revers, il assure qu’OpenAI continuera d’évoluer et de se développer dans l’industrie.

Lors d’une session « Ask Me Anything » (AMA) sur Reddit vendredi dernier, Altman et plusieurs dirigeants d’OpenAI ont répondu aux questions des utilisateurs sur l’avenir de la société. Le PDG a notamment reconnu que l’entreprise avait fait un mauvais choix en abandonnant l’open source au profit d’un modèle plus fermé : « Je pense personnellement que nous avons été du mauvais côté de l’histoire sur ce point et que nous devons réfléchir à une nouvelle stratégie open source. Tout le monde chez OpenAI ne partage pas cet avis, et ce n’est pas non plus notre plus grande priorité actuelle ».

Jusqu’à récemment, OpenAI fonctionnait sous un modèle open source, mais avec la montée en puissance de l’IA générative et son potentiel commercial, l’entreprise a rapidement changé d’approche, comme l’a rappelé TechCrunch.

DeepSeek remet OpenAI en question

Lorsqu’un utilisateur de Reddit a demandé comment DeepSeek allait impacter les futurs modèles d’OpenAI, Altman a répondu sans détour : « C’est un très bon modèle. Nous allons produire de meilleurs modèles, mais nous aurons moins d’avance qu’auparavant ».

Le directeur produit d’OpenAI, Kevin Weil, a également suggéré que l’entreprise pourrait rendre certaines de ses anciennes versions open source, sans toutefois préciser lesquelles ni donner de calendrier : « Nous allons certainement y réfléchir davantage ».

L’arrivée de DeepSeek R1 pousse OpenAI à réajuster sa stratégie. L’entreprise a récemment lancé o3-mini, un modèle de raisonnement, et envisage d’ouvrir davantage la transparence sur ses modèles. L’objectif serait de permettre aux utilisateurs d’observer le processus de « réflexion » de l’IA, une fonctionnalité que DeepSeek R1 propose déjà et qui constitue un atout majeur face à la concurrence.

ChatGPT deviendra-t-il plus cher ?

L’AMA a également permis d’aborder les rumeurs concernant une éventuelle hausse des prix de ChatGPT. Sam Altman a affirmé vouloir rendre le service plus abordable à long terme. Actuellement, l’abonnement ChatGPT Plus coûte 20 dollars par mois, tandis que l’option Pro est facturée 200 dollars mensuels.

Les futurs modèles d’OpenAI : GPT-5 et DALL-E 4 ?

L’équipe d’OpenAI a également teasé plusieurs nouveautés à venir, dont un prochain modèle de raisonnement o3, qui devrait être lancé dans les semaines ou mois à venir. L’entreprise travaille également sur un modèle encore plus avancé, qui pourrait être GPT-5, bien que la date de sortie reste inconnue.

Une refonte de DALL-E 3, son générateur d’images, est aussi envisagée, car il n’a pas reçu de mise à jour majeure depuis son lancement il y a deux ans.

La session AMA a aussi mis en lumière les relations entre OpenAI et le gouvernement américain. L’un des projets évoqués est le centre de données Stargate, développé en collaboration avec les autorités américaines. Interrogé sur l’utilisation des modèles d’OpenAI pour le développement d’armes nucléaires, Kevin Weil a tenu à rassurer : « Nous faisons confiance aux chercheurs impliqués dans ce projet pour ne pas “YOLO” une sortie de modèle dans un calcul nucléaire ».

DeepSeek, un adversaire de taille soutenu par Microsoft

Cette AMA intervient dans un contexte tendu pour OpenAI, seulement deux semaines après l’annonce du modèle de raisonnement DeepSeek R1, qui rivalise avec les modèles d’OpenAI et de Meta en offrant des performances comparables à moindre coût. DeepSeek est en plus accessible gratuitement pour les utilisateurs et open source pour les développeurs, ce qui en fait un concurrent redoutable.

Certains analystes estiment que DeepSeek aurait utilisé une technique illégale appelée distillation pour extraire des données d’OpenAI et entraîner son propre modèle. Cependant, même si ces accusations s’avéraient vraies, les dommages seraient déjà faits. Même le président Donald Trump a qualifié la montée en puissance de DeepSeek de « réveil brutal » pour l’industrie américaine de l’IA.

Fait marquant : Microsoft, l’un des plus gros investisseurs d’OpenAI, commence désormais à soutenir DeepSeek sur Azure Cloud et GitHub, afin de diversifier son offre et démocratiser l’accès aux modèles d’IA sur ses Copilot+ PC.

OpenAI se trouve aujourd’hui à un tournant. DeepSeek impose une nouvelle dynamique sur le marché, forçant Sam Altman et son équipe à revoir leur stratégie, notamment sur l’open source et la transparence des modèles. Avec l’arrivée prochaine de GPT-5 et d’une mise à jour de DALL-E, OpenAI pourrait reprendre de l’avance, mais une chose est certaine : la domination sans partage qu’elle avait sur l’IA appartient désormais au passé.

Lire plus
Intelligence Artificielle

OpenAI teste la persuasion de ChatGPT : vers une manipulation de masse ?

ChatGPT : l'IA plus persuasive que l'homme, un danger ?

Les modèles d’intelligence artificielle comme ChatGPT sont souvent évalués à l’aide de tests de performance en mathématiques, en raisonnement logique et en génération de texte. Cependant, OpenAI s’est récemment intéressé à une autre capacité potentiellement préoccupante : la persuasion.

OpenAI a testé ses modèles en les comparant aux arguments produits par des utilisateurs du subreddit r/ChangeMyView, une communauté de 3,8 millions de membres où les participants postent des opinions qu’ils acceptent de remettre en question dans l’espoir d’obtenir des perspectives différentes.

ChatGPT est-il plus persuasif que les humains ?

Pour mesurer cette capacité, OpenAI a utilisé des réponses humaines tirées au hasard sur r/ChangeMyView comme base de comparaison et a demandé à des évaluateurs de noter la persuasion des arguments générés par l’IA sur une échelle de 1 à 5. Les résultats montrent que ChatGPT-3.5 (2022) était bien moins persuasif que la moyenne humaine (38 %), mais que la version o1-mini sortie en septembre 2024 atteignait le 77 %. Avec la version complète de ChatGPT o1, ce score est monté à plus de 85 %, et le tout dernier o3-mini atteint environ 82 %, ce qui signifie qu’il est jugé plus persuasif qu’un humain dans 82 % des cas.

Cependant, aucun modèle n’atteint encore le niveau de « superhuman performance » (95 %), seuil que OpenAI considère comme potentiellement dangereux.

aipersuade

Un modèle à ce niveau pourrait, dans l’imaginaire collectif, convaincre un général militaire de lancer une attaque nucléaire ou manipuler l’opinion publique de manière incontrôlable. En réalité, la mesure actuelle reste limitée : elle ne vérifie pas si les utilisateurs ont réellement changé d’avis après avoir lu une réponse de l’IA, ni si ces changements concernent des sujets importants ou des débats légers, comme la classification du hot-dog en tant que sandwich.

Un risque « moyen », mais un potentiel de manipulation massif

OpenAI classe la persuasion de ChatGPT o3-mini comme un risque « moyen » dans son cadre d’évaluation des risques catastrophiques liés aux modèles d’IA. Cela signifie que l’IA est aussi convaincante que les arguments humains standards, ce qui pourrait favoriser des pratiques comme le journalisme biaisé, les campagnes politiques agressives et les escroqueries en ligne.

L’entreprise n’a toutefois pas identifié de « risque critique », qui serait atteint si un modèle pouvait convaincre presque n’importe qui d’agir contre son propre intérêt naturel. Un modèle de ce type pourrait devenir un outil de contrôle des États-nations, faciliter l’extraction de secrets et perturber la démocratie, des scénarios dystopiques qui alimentent les débats sur la réglementation de l’IA, notamment avec des lois comme le projet SB-1047 en Californie.

OpenAI surveille activement l’usage de ses modèles en persuasion

Face à ces risques, OpenAI met en place plusieurs mesures de surveillance :

  • Analyse en temps réel des utilisations de l’IA dans des campagnes de persuasion en ligne.
  • Blocage automatique des demandes de persuasion politique ou idéologique.
  • Surveillance des groupes extrémistes et des campagnes d’influence manipulatoires.

Bien que ces précautions puissent sembler excessives, OpenAI craint que l’automatisation de la persuasion à grande échelle ne transforme l’IA en une arme de manipulation de masse. Contrairement à un argument bien construit qui demande beaucoup d’efforts humains, une IA comme ChatGPT pourrait générer des milliers de textes persuasifs en quelques secondes, rendant les campagnes d’astroturfing (faux mouvements populaires en ligne) incroyablement rentables.

Ainsi, même si nous ne sommes pas encore dans un monde où l’IA hypnotise les dirigeants mondiaux, OpenAI prend déjà des mesures pour éviter un avenir où les débats en ligne seraient dominés par des intelligences artificielles manipulatrices et bon marché.

Lire plus
Intelligence Artificielle

DeepSeek : l’IA chinoise au cœur d’une nouvelle guerre froide technologique ?

DeepSeek : l'IA chinoise au cœur d'une nouvelle guerre froide technologique ?

Alors que la domination de ChatGPT commence à montrer des signes de faiblesse, DeepSeek, une startup chinoise spécialisée dans l’intelligence artificielle, tente une percée sur le marché mondial.

Selon des données de Semrush, les visites quotidiennes de ChatGPT aux États-Unis ont chuté de 22,1 millions en octobre 2024 à 14,9 millions en janvier 2025.

Pendant ce temps, DeepSeek a connu une croissance spectaculaire, passant de 2 300 visites en octobre à 71 200 au 19 janvier.

DeepSeek, une ascension fulgurante

À l’échelle mondiale, DeepSeek a dépassé les 7,12 millions de visites, grimpant rapidement en tête des classements de téléchargement dans 140 pays. Cette adoption massive montre un changement de préférence des consommateurs, mais suscite également de vives inquiétudes.

Au cœur du débat se trouve une préoccupation majeure : les risques en matière de sécurité nationale. Contrairement à ChatGPT d’OpenAI, DeepSeek est basé en Chine et soumis aux lois strictes de partage des données de Pékin. Certains experts s’inquiètent de la potentielle exploitation des données des utilisateurs, qui vont des requêtes personnelles aux renseignements stratégiques sur certaines industries.

Des vulnérabilités en cybersécurité ont déjà été signalées par des entreprises spécialisées, et DeepSeek a même confirmé une cyberattaque majeure la semaine dernière.

Une potentielle arme d’influence ?

Dewardric McNeal, analyste chez Longview Global, alerte sur des implications bien plus larges : « Il ne s’agit pas seulement de données volées. C’est une question de cartographie des opinions publiques, de suivi des tendances industrielles et d’influence des récits médiatiques ». Certains redoutent que l’approche open source de DeepSeek permette à la Chine de mieux comprendre les chaînes d’approvisionnement américaines et les avancées technologiques occidentales.

L’ancien conseiller de l’administration Biden, Matt Pearl, va encore plus loin en qualifiant la politique de confidentialité de DeepSeek de « sans valeur sous la législation chinoise ».

Selon lui, l’application pourrait être utilisée pour une surveillance massive, en suivant les utilisateurs sur plusieurs appareils et en intégrant des logiciels malveillants par le biais de mises à jour. « Une seule mise à jour malveillante suffit pour compromettre des millions d’appareils », avertit-il.

Vers une interdiction aux États-Unis ?

Alors que les tensions entre les États-Unis et la Chine s’intensifient, certains estiment qu’un bannissement de DeepSeek est inévitable. « Si TikTok a été soumis à une surveillance intense, DeepSeek représente une menace encore plus grande », souligne Pearl.

La question reste donc en suspens : les États-Unis permettront-ils à un acteur chinois de s’imposer sur leur marché de l’IA, ou des régulations viendront-elles freiner son ascension ?

Lire plus