fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Grok 3 : Deep Search, Big Brain et jeux vidéo, l’IA de xAI se met à jour !

Grok 3 : Deep Search, Big Brain et jeux vidéo, l'IA de xAI se met à jour !

xAI, l’entreprise d’IA dirigée par Elon Musk, a annoncé Grok-3, son dernier modèle d’IA, lors d’une diffusion en direct. L’objectif est clair : combler rapidement les lacunes pratiques pour rendre son chatbot accessible au grand public, plutôt que de se contenter de discours sur la compréhension de l’univers.

Grok -3 se distingue par ses capacités de « raisonnement avancé », lui permettant de décomposer les instructions en tâches plus petites et de vérifier ses propres réponses avant de les fournir.

Grok -3 se décline en deux versions : Grok-3 et Grok-3 mini, cette dernière étant optimisée pour les environnements à faible puissance de calcul. Grok -3 offre des fonctionnalités telles que DeepSearch, Think et Big Brain. Selon les benchmarks de l’entreprise, Grok-3 surpasse GPT-4o d’OpenAI, Gemini, Claude et DeepSeek dans des tâches telles que le codage, les mathématiques et la résolution de problèmes scientifiques. Une version preview de Grok-3 a atteint 1 400 points sur le classement Chatbot Arena (LMSYS), dépassant Gemini 2.0 Flash Thinking et DeepSeek.

Elon Musk affirme que Grok-3 est une « IA qui recherche la vérité au maximum, même si cette vérité est parfois en contradiction avec le politiquement correct ». Les précédentes versions du chatbot xAI ont été critiquées pour avoir diffusé de la désinformation électorale et avoir eu moins de garde-fous sur la génération de texte en image.

Un défi de taille : l’accès et l’adoption

Malgré ses performances, Grok-3 devra relever le défi de l’adoption par le grand public. L’accès initial sera réservé aux abonnés X Premium+, actuellement le niveau d’abonnement X le plus élevé, au prix de 25,20 euros par mois ou 262,80 euros par an. Les utilisateurs éligibles auront accès aux fonctionnalités de Grok-3 telles que le raisonnement, DeepSearch, des limites d’utilisation plus élevées et un accès anticipé aux nouveaux outils.

Un abonnement SuperGrok distinct offrira un accès prioritaire à Grok-3 et des limites de génération d’images plus élevées, limité à l’application mobile Grok et au site Web Grok.com (pas encore disponible en Europe).

Rattraper les tendances 

xAI semble vouloir rattraper son retard sur les tendances actuelles du marché des chatbots :

  • Raisonnement et réflexion améliorés : Grok-3 met l’accent sur le raisonnement et la réflexion, avec son mode Think, analogue aux modèles de la série o d’OpenAI. Les utilisateurs peuvent voir le cheminement de la pensée en temps réel, ce qui améliore les performances dans les domaines scientifiques, mathématiques et liés au codage. L’outil Big Brain de Grok-3 permet de gérer des scénarios plus complexes.
  • Agents d’IA : xAI se lance également dans la course aux agents d’IA avec DeepSearch, analogue à Deep Research de Google Gemini et aux produits concurrents de Perplexity et OpenAI. DeepSearch effectue une recherche sur le Web, compile un rapport complet et cite ses sources.
  • Interaction vocale : Un mode d’interaction vocale avec mémoire conversationnelle sera bientôt disponible sur Grok, analogue au mode vocal avancé de ChatGPT et Gemini Live de Google Gemini.

Trouver l’attrait pour le grand public

Malgré ses efforts, xAI a encore du chemin à parcourir pour rivaliser avec OpenAI et Google en matière d’agents d’IA. OpenAI propose Operator, un agent capable d’effectuer des tâches Web complexes, et un système de plugins ChatGPT qui intègre des plateformes comme Zapier, Expedia et Slack.

Google tire parti de son vaste écosystème d’applications et de produits, avec une intégration profonde avec Android et Workspace. DeepSeek a déjà été adopté par des marques comme Honor, tandis qu’Apple a intégré une pile d’intelligence ChatGPT sur des millions d’appareils et a conclu un accord avec Alibaba pour la Chine.

xAI a fait preuve d’ambition avec Grok-3, en proposant un chatbot performant avec des fonctionnalités innovantes. Le défi majeur reste de trouver l’attrait pour le grand public et de convaincre les entreprises d’adopter Grok-3. La stratégie de prix et la capacité de xAI à conclure des partenariats stratégiques seront déterminantes pour le succès de Grok-3.

Lire plus
Intelligence Artificielle

Grok 3 : l’IA surpuissante de xAI est enfin là !

GkC4AwUaQAAQxk4

Elon Musk et l’équipe de xAI ont dévoilé Grok 3 lors d’un live stream en soirée lundi, annonçant un modèle nettement plus performant que son prédécesseur. Selon l’équipe, Grok 3 est « une magnitude plus capable » que Grok 2, ce qui signifie qu’il possède 10 à 15 fois plus de puissance. Ils affirment également qu’il surpasse ses concurrents, notamment DeepSeek et Google Gemini.

L’équipe xAI a précisé que Grok 3 a été perfectionné au cours des derniers mois et qu’il se distinguera par son humour. Ils ont également souligné l’évolution fulgurante du projet, rappelant qu’il y a seulement 17 mois, Grok 1 voyait le jour. Aujourd’hui, Grok 3 a été testé sur plusieurs défis académiques, dont l’American Invitational Mapping Foundation, où il a obtenu des résultats prometteurs.

Lors de la démonstration, Grok 3 a montré sa capacité à accomplir des tâches complexes, comme planifier une mission spatiale aller-retour entre la Terre et Mars, ou encore concevoir un jeu combinant Tetris et Bejeweled. Une fonctionnalité notable appelée « Big Brain » a également été introduite, permettant un raisonnement plus approfondi dans le traitement des requêtes.

Screenshot 2025 02 17 at 11.30.0

Musk a souligné qu’en seulement 17 mois, Grok est passé d’un niveau de lycée à un niveau universitaire, illustrant les progrès spectaculaires réalisés. En parallèle, l’équipe a annoncé le développement d’un studio de jeux vidéo basé sur l’IA ainsi qu’une nouvelle fonction baptisée « Deep Search », qui constituera la version xAI des agents intelligents.

Grok 3 est disponible pour les abonnés X Premium+

Grok 3 est désormais disponible pour les abonnés Premium+. Par ailleurs, un nouvel abonnement nommé « SuperGrok » sera lancé, offrant un accès encore plus poussé aux capacités de l’IA ainsi que des fonctionnalités exclusives.

L’équipe de xAI a précisé que Grok 3 doit encore être considéré comme une version bêta et que les utilisateurs doivent rester attentifs aux éventuelles erreurs. Enfin, ils ont confirmé que Grok 2 deviendra open source une fois que Grok 3 aura atteint une stabilité suffisante.

Lire plus
Intelligence Artificielle

Anthropic : un nouveau modèle d’IA révolutionnaire, plus flexible et plus puissant !

Anthropic : un nouveau modèle d'IA révolutionnaire, plus flexible et plus puissant !

Dans les prochaines semaines, Anthropic s’apprête à dévoiler un nouveau modèle d’IA hybride, capable d’alterner entre raisonnement approfondi et réponses rapides selon les besoins.

Cette avancée pourrait challenger directement OpenAI, qui prépare également son modèle GPT-5.

Un modèle IA à « double mode »

Contrairement aux modèles actuels qui séparent les IA de conversation et les IA de raisonnement avancé, Anthropic cherche à fusionner ces capacités en une seule entité fluide.

Ce que cela signifie :

  • Un mode réactif et rapide pour les tâches conversationnelles.
  • Un mode raisonnement profond pour la programmation avancée et l’analyse de données complexes.
  • Un contrôle ajustable des performances et du coût, avec une option « échelle coulissante » permettant aux développeurs de gérer la consommation de puissance de calcul.

À son niveau maximal, ce modèle excellerait en programmation et en gestion de gros projets de code.

Pourquoi ce modèle Anthropic est un tournant ?

Ce nouveau modèle serait très important, car il offrirait davantage de contrôle pour les développeurs avec la possibilité d’adapter les performances selon le besoin est une vraie innovation.

En outre, il s’agirait d’une alternative crédible à OpenAI : il se murmure que Anthropic dispose déjà d’un modèle surpassant le fameux « o3 » d’OpenAI, mais qu’il n’a pas encore été lancé pour des raisons de sécurité.

Dario Amodei, PDG d’Anthropic, insiste sur l’unification du langage et du raisonnement plutôt que leur séparation en modèles distincts.

Le duel avec OpenAI s’intensifie

Alors que OpenAI s’apprête à lancer GPT-5, intégrant directement son propre moteur de raisonnement avancé, Anthropic joue une carte analogue avec son approche hybride.

Qui proposera l’IA la plus avancée ?
Ce match entre OpenAI et Anthropic marque une nouvelle phase dans la course à l’intelligence artificielle, où la flexibilité et la performance deviennent des critères clés.

Lire plus
Intelligence Artificielle

DeepSeek : plus transparent, plus performant, moins cher que ChatGPT ?

DeepSeek : plus transparent, plus performant, moins cher que ChatGPT ?

Depuis quelques semaines, DeepSeek, le LLM chinois, fait beaucoup parler de lui. DeepSeek n’est pas d’un simple clone bon marché de ChatGPT, mais d’une réelle avancée dans l’intelligence artificielle. Alors, qu’est-ce qui le distingue vraiment de ChatGPT ?

1. Une meilleure gestion de la « chaîne de pensée » (Chain of Thought)

L’un des aspects les plus importants d’un LLM est sa capacité à raisonner étape par étape, plutôt que de donner une réponse instantanée et parfois erronée. DeepSeek excelle particulièrement dans ce domaine.

Pourquoi est-ce important ?

  • Il montre son raisonnement, permettant à l’utilisateur de vérifier chaque étape du processus.
  • Cela facilite la correction ou l’ajout de précisions en cas de besoin.
  • Il est capable de répondre à des questions complexes et de justifier ses choix, ce qui le rend plus fiable.

2. Un système de cache avancé pour un coût réduit

ChatGPT a des limitations de mémoire et efface rapidement l’historique des échanges (selon le plan d’abonnement). DeepSeek, en revanche, utilise une technique de « Content Caching on Disk », qui optimise la gestion des réponses précédentes.

Avantages du cache DeepSeek :

  • Il détecte les entrées en double et récupère des réponses passées au lieu de recalculer.
  • Cela réduit le coût énergétique et informatique, rendant DeepSeek moins cher à exploiter.
  • Les utilisateurs peuvent construire des échanges plus longs et plus cohérents, un atout majeur pour les professionnels et chercheurs.

3. Une optimisation des prompts facilitée

Grâce à son cache et à la transparence sur son fonctionnement, DeepSeek aide les utilisateurs à améliorer leur manière de rédiger leurs prompts.

Conseil pour optimiser un prompt sur DeepSeek :

  • Placer les informations fixes au début du prompt pour maximiser leur réutilisation.
  • Mettre les données variables au milieu ou à la fin pour éviter d’impacter les réponses précédentes.

Ce niveau de transparence est un vrai plus par rapport à GPT, qui reste plus fermé sur son fonctionnement interne.

DeepSeek, un futur leader de l’IA ?

Avec ses avancées en raisonnement, en gestion mémoire et en coût d’exploitation, DeepSeek pourrait bien bousculer la domination d’OpenAI. Ce n’est pas une simple alternative bon marché, mais un modèle réellement innovant, qui pousse l’intelligence artificielle dans une nouvelle direction.

Le début d’un basculement vers une IA plus performante et accessible ? À suivre de près.

Lire plus
Intelligence Artificielle

OpenAI : l’offre de rachat de Musk rejetée, la guerre de l’IA continue !

OpenAI : l'offre de rachat de Musk rejetée, la guerre de l'IA continue !

Le conseil d’administration d’OpenAI a officiellement répondu à la tentative de rachat d’Elon Musk. Dans une déclaration publiée sur X, le président du conseil, Bret Taylor, a affirmé que « OpenAI n’est pas à vendre, et le conseil a rejeté à l’unanimité la dernière tentative de M. Musk de perturber sa concurrence ».

Au début du mois, Elon Musk et un groupe d’investisseurs avaient proposé d’acheter OpenAI pour 97,4 milliards de dollars. En réponse, le PDG d’OpenAI, Sam Altman, a rapidement réagi sur X en lançant une pique à Musk : « Non merci, mais nous pouvons acheter Twitter pour 9,74 milliards de dollars si vous voulez ».

Une situation complexe pour OpenAI

Cette proposition de rachat intervient alors que OpenAI est en pleine transition vers un modèle à but lucratif. Le conseil d’administration doit donc justifier que le plan de scission de Sam Altman est une meilleure option que l’offre de Musk pour préserver la mission d’OpenAI.

Mercredi dernier, les avocats de Musk ont déclaré dans un dossier judiciaire que le milliardaire retirerait son offre si OpenAI acceptait de rester une organisation à but non lucratif. Cependant, Bret Taylor a laissé entendre que cette option était exclue. Il a ajouté que toute réorganisation d’OpenAI visera à renforcer son engagement envers sa mission principale : garantir que l’AGI bénéficie à toute l’humanité.

Un affrontement aux enjeux stratégiques

L’opposition entre Musk et OpenAI reflète une bataille plus large sur l’avenir de l’intelligence artificielle et la manière dont elle doit être développée et contrôlée. Musk, qui a été l’un des premiers soutiens financiers d’OpenAI avant de s’en éloigner, critique régulièrement la direction prise par l’entreprise et plaide pour une approche plus prudente et transparente dans le développement de l’IA.

Avec la montée en puissance des modèles d’IA générative, la gouvernance d’OpenAI devient un enjeu stratégique. Reste à voir comment cette bataille entre Musk et OpenAI influencera l’avenir du marché de l’IA et l’équilibre des pouvoirs entre les grandes entreprises technologiques.

Lire plus
Intelligence Artificielle

« Un pays de génies » : l’IA va créer une nouvelle forme d’intelligence, selon Anthropic

"Un pays de génies" : l'IA va créer une nouvelle forme d'intelligence, selon Anthropic.

Le PDG d’Anthropic, Dario Amodei, a prédit que les modèles d’IA pourraient dépasser les capacités humaines et produire un « pays de génies » d’ici deux à trois ans, après avoir critiqué le sommet sur l’IA qui s’est tenu cette semaine à Paris.

Dans un article de blog publié mardi, Amodei prévoit que d’ici 2026 ou 2027, les systèmes d’IA seront si avancés que l’on assistera à l’émergence d’un tout nouvel état d’êtres hautement intelligents sur la scène mondiale. Le cofondateur d’Anthropic a écrit que ce serait l’équivalent d’un « pays de génies dans un centre de données », avec les profondes implications économiques, sociétales et sécuritaires que cela impliquerait.

Le sommet de Paris est une « occasion manquée » d’aider l’IA à surpasser l’homme

L’entrepreneur a toutefois qualifié le sommet de Paris d’« occasion manquée », dénonçant la lenteur des efforts mondiaux pour réglementer l’IA. Sa mise en garde intervient à un moment charnière, où les nations démocratiques et autoritaires font la course pour dominer le développement de l’IA.

Il a souligné trois points essentiels qui doivent être abordés pour garantir l’atténuation des risques liés à l’IA. Il s’agit notamment de faire en sorte que les sociétés démocratiques prennent l’initiative en matière d’IA en régissant la chaîne d’approvisionnement de la technologie. Amodei a également souligné que les discussions internationales sur l’IA « doivent davantage prendre en compte les risques croissants de la technologie en matière de sécurité ».

Enfin, si l’IA a le potentiel d’accélérer la croissance économique à l’échelle mondiale, elle pourrait aussi être très perturbatrice. C’est pourquoi Anthropic a publié mardi l’indice économique Anthropic, qui suit la répartition des activités économiques pour lesquelles les gens utilisent actuellement ses systèmes d’IA.

La réglementation de l’IA pose problème

Le sommet a mis en évidence les divisions croissantes dans la manière dont les pays abordent la réglementation de l’IA. Le vice-président américain JD Vance s’est élevé contre les propositions européennes, les qualifiant de « massives » et de trop restrictives. De leur côté, les États-Unis et le Royaume-Uni sont restés sur leurs positions et ont refusé de signer les engagements pris lors du sommet.

Anthropic a été créée en 2021 par Amodei et sa sœur, Daniela Amodei, ainsi que par 5 autres anciens employés d’OpenAI. L’entreprise est ensuite devenue un concurrent sérieux d’OpenAI, s’affrontant avec des modèles tels que GPT-4 et ChatGPT. Dernièrement, son modèle Claude 3.5 Sonnet a reçu beaucoup d’éloges de la part des utilisateurs d’IA et continue de se classer en tête des tests de référence de l’industrie.

Lire plus
Intelligence Artificielle

Gemini Live : l’IA de Google devient plus interactive et connectée !

Gemini Live : l'IA de Google devient plus interactive et connectée !

Google continue d’améliorer son assistant IA Gemini Live en lui ajoutant de nouvelles fonctionnalités, telles que le partage d’écran et la diffusion vidéo en direct, tout en renforçant ses capacités de compréhension linguistique.

Dans un e-mail adressé aux utilisateurs, Google a annoncé que Gemini Live bénéficie désormais de son dernier modèle d’intelligence artificielle, ce qui améliore sa capacité à comprendre différentes langues, accents et dialectes. Cette mise à jour inclut également des améliorations en traduction et introduit le partage d’écran et le streaming vidéo en direct, rendant l’interaction avec l’IA plus dynamique et engageante.

Toutefois, comme pour toute amélioration des assistants IA, ces avancées impliquent une collecte accrue de données personnelles. Google souhaite stocker les données audio, vidéo et de partage d’écran des utilisateurs dans leur historique d’activité Gemini Apps, bien que cette option puisse être désactivée. Actuellement, seules les transcriptions de conversations sont enregistrées si l’utilisateur a activé cette fonctionnalité.

Ces nouveautés s’appuient vraisemblablement sur l’API Multimodal Live, introduite avec Gemini 2.0 à la fin de l’année dernière. Cette API permet aux développeurs de traiter divers types d’entrées — texte, audio, vidéo — et de générer des réponses adaptées sous forme de texte ou de son.

L’évolution de Gemini Live s’inscrit dans une tendance plus large vers des IA multimodales, capables de traiter différents types de données de manière fluide, rendant leur utilisation plus intuitive et polyvalente. Google considère Gemini 2.0 comme le début de « l’ère des agents », où l’IA ne se contente plus de répondre aux requêtes, mais anticipe les besoins et agit de manière proactive.

Gemini Live profite de Gemini 2.0

L’un des premiers modèles à exploiter cette évolution est Gemini 2.0 Flash, qui est 2x plus rapide que son prédécesseur, Gemini Pro 1.5. Ce modèle marque un tournant dans le développement des IA, en passant de simples chatbots conversationnels à des agents capables de raisonner et d’agir de manière autonome.

Cette transformation pourrait révolutionner des secteurs tels que le service client, l’éducation, la santé et la productivité personnelle. Cependant, elle pose aussi la question de la confidentialité, car ces systèmes nécessitent un accès accru aux données des utilisateurs pour fonctionner de manière optimale.

Les mises à jour de Gemini Live sont en cours de déploiement et offrent une expérience IA plus interactive et intelligente, pour ceux qui choisiront d’activer ces nouvelles fonctionnalités.

Lire plus
Intelligence Artificielle

DeepSeek : L’IA chinoise qui défie les géants et inquiète l’Occident !

DeepSeek : L'IA chinoise qui défie les géants et inquiète l'Occident !

L’entreprise chinoise spécialisée dans l’intelligence artificielle, DeepSeek, a récemment fait trembler l’industrie technologique mondiale avec ses innovations révolutionnaires. Leur modèle V3, prédécesseur du célèbre modèle R1, a été formé pour un coût dérisoire de 5,576 millions de dollars, défiant les géants de la tech comme OpenAI avec des performances supérieures et une efficacité accrue de 50 à 75 % par rapport à ses concurrents.

Depuis le lancement du modèle R1, DeepSeek a connu une adoption massive à travers le monde. Des géants technologiques comme Microsoft ont intégré DeepSeek dans leurs infrastructures, tandis que des entreprises chinoises, telles que Huawei, Honor, OPPO, et ZTE collaborent avec DeepSeek pour développer des versions optimisées du modèle R1 pour leurs appareils.

Cependant, cette adoption rapide a déclenché une vague de ventes massives d’actions liées à l’IA, notamment celles de Nvidia, qui a perdu 600 milliards de dollars de valorisation en une seule journée. Les investisseurs craignent que les modèles d’IA moins coûteux de DeepSeek ne réduisent la demande pour les puces AI haut de gamme, bouleversant ainsi le marché technologique.

Préoccupations sécuritaires et réactions internationales

L’ascension fulgurante de DeepSeek a soulevé des préoccupations majeures en matière de sécurité nationale, notamment aux États-Unis. Le CEO d’Arm a prédit que le gouvernement américain pourrait bientôt interdire DeepSeek en raison de ses liens avec le gouvernement chinois. Des institutions comme la NASA et la marine américaine ont déjà pris des mesures pour bloquer l’utilisation de DeepSeek sur leurs systèmes.

Plusieurs pays, dont l’Australie, l’Italie, et Taïwan ont également interdit l’utilisation de DeepSeek sur les appareils gouvernementaux en raison de préoccupations similaires.

Le modèle open source de DeepSeek, qui peut être exécuté localement, complique encore les efforts pour restreindre son utilisation.

Innovations techniques et avantages concurrentiels

DeepSeek se distingue par son approche innovante de la formation des modèles d’IA. En contournant les restrictions imposées par les États-Unis sur les exportations de puces vers la Chine, DeepSeek a réussi à développer un modèle performant avec des ressources limitées. Cette prouesse technique montre que des limitations peuvent parfois stimuler l’innovation, forçant les entreprises à optimiser leurs processus et à trouver des solutions créatives.

DeepSeek représente à la fois une opportunité et un défi pour l’industrie technologique mondiale. Alors que ses innovations promettent de rendre l’IA plus accessible et efficace, les préoccupations sécuritaires et les tensions géopolitiques pourraient freiner son adoption. Les prochains mois seront cruciaux pour observer comment les gouvernements et les entreprises naviguent dans ce paysage complexe, où l’innovation et la sécurité nationale s’entrechoquent.

Lire plus
Intelligence Artificielle

Reddit : OpenAI paie 70 millions de dollars pour utiliser son contenu !

1447303 open ai

Le dernier rapport financier de Reddit, publié mercredi 12 février, révèle combien OpenAI paie pour utiliser le contenu de la plateforme.

Selon Adweek, environ 10 % des revenus de Reddit proviennent des accords de licence avec des entreprises d’intelligence artificielle, soit environ 130 millions de dollars. On sait que Google a payé 60 millions de dollars pour son partenariat avec Reddit, laissant penser que OpenAI aurait payé le reste, soit 70 millions de dollars.

Reddit choisit avec soin ses partenaires IA

Jen Wong, la directrice des opérations de Reddit, a déclaré que la licence de contenu reste une petite partie des revenus, mais qu’elle demeure précieuse. L’entreprise affirme collaborer uniquement avec des partenaires respectant des conditions spécifiques, notamment en matière de protection de la vie privée des utilisateurs et d’image de la marque.

Par ailleurs, Reddit cherche également à concurrencer les géants technologiques en lançant son propre outil d’IA, Reddit Answers, destiné à améliorer la recherche sur la plateforme et potentiellement réduire le trafic des recherches sur Google, où les utilisateurs ajoutent souvent « Reddit » à leurs requêtes.

Reddit se stabilise entre publicité et IA après son entrée en bourse

Reddit a déposé son prospectus d’introduction en bourse (IPO) auprès de la SEC en février dernier et a déclaré son premier bénéfice en octobre.

  • Revenus du quatrième trimestre 2024 : 427,7 millions de dollars
  • Hausse des revenus publicitaires : +60 % en un an

Malgré cette croissance, l’action Reddit a chuté jusqu’à 18 % après la publication des résultats, en raison d’une croissance des utilisateurs plus faible que prévu.

Le PDG Steve Huffman a expliqué que le trafic avait subi une baisse en fin d’année suite à des changements dans l’algorithme de Google Search. Toutefois, il a assuré que le trafic provenant de Google s’est stabilisé début 2025, redonnant confiance aux investisseurs.

Lire plus
Intelligence Artificielle

Thomson Reuters gagne son procès : l’IA ne peut pas copier son contenu !

Thomson Reuters gagne son procès : l'IA ne peut pas copier son contenu !

Ce mardi, un juge a déclaré qu’un ancien concurrent de Thomson Reuters n’était pas autorisé à copier le contenu de l’entreprise pour créer une plateforme juridique basée sur l’IA, conformément à la législation américaine sur le droit d’auteur.

Cette décision marque un tournant dans le monde de l’IA, l’entreprise canadienne étant un géant technologique axé sur le contenu qui couvre l’actualité et propose des outils dans diverses catégories. Elle propose notamment plusieurs solutions basées sur l’IA. L’affaire concerne son service de recherche juridique en ligne et sa base de données propriétaire, Westlaw. C’est le juge Stephanos Bibas qui a pris la décision, devenant ainsi la première décision américaine sur le thème de l’usage loyal dans les litiges de droit d’auteur liés à l’IA.

C’est cette théorie juridique du « fair use » qui est devenue un moyen de défense essentiel pour les entreprises technologiques dans les affaires de droits d’auteur intentées par des auteurs, des maisons de disques, des artistes, etc.

Thomson Reuters est la société mère de Reuters News, dont un porte-parole a donné plus de détails sur le résultat dans un article : « Nous sommes heureux que le tribunal ait rendu un jugement sommaire en notre faveur et ait conclu que le contenu éditorial de Westlaw, créé et mis à jour par nos avocats rédacteurs, est protégé par le droit d’auteur et ne peut être utilisé sans notre consentement ».

La copie de notre contenu n’était pas une « utilisation équitable ».

L’affaire Thomson Reuters sur l’IA et le droit d’auteur devient la première décision sur le sujet

Cette affaire n’est pas la première à soulever une situation analogue dans laquelle une partie est accusée d’avoir entraîné l’IA sur la base du contenu d’une autre partie. C’est devenu un argument contre de nombreux nouveaux outils d’IA, mais on ne sait pas grand-chose de l’orientation juridique qu’il prendra à l’avenir. Il s’agit notamment de l’essor des générateurs d’images, dont certains sont capables de créer des représentations de personnalités publiques.

On ne sait pas comment il est possible de créer des images aussi réalistes de personnes réelles, mais un cabinet d’avocats spécialisé dans les technologies a soulevé la question en août dernier.

L’avocat Charles-Theodore Zerner, du cabinet Munck Wilson Mandala basé aux États-Unis, a déclaré dans un article de blog que Grok 2 présentait « très peu de garanties ». Il a averti que la plateforme était capable de créer des « deepfakes, des personnages protégés par des droits d’auteur et des contenus potentiellement offensants ».

Certaines grandes entreprises technologiques, comme OpenAI, Meta et Microsoft, font l’objet de poursuites judiciaires concernant l’utilisation de contenus écrits.

Lire plus
Intelligence Artificielle

GPT-5 : OpenAI annonce une IA unifiée, plus puissante et accessible d’ici fin 2025 !

GPT-5 : OpenAI annonce une IA unifiée, plus puissante et accessible d'ici fin 2025 !

Le PDG d’OpenAI, Sam Altman, a annoncé mercredi une feuille de route détaillant les plans de la société pour le lancement de GPT-5, le successeur très attendu de GPT-4. D’après Altman, GPT-5 arrivera dans « quelques mois », ce qui suggère un lancement d’ici la fin 2025.

Avant cela, OpenAI prévoit de déployer GPT-4.5, connu en interne sous le nom de « Orion », dans les prochaines « semaines ». Ce sera le dernier modèle OpenAI sans raisonnement simulé. Ensuite, GPT-5 intégrera une fusion des différentes technologies existantes, combinant les modèles conventionnels, les modèles à raisonnement simulé (SR) et des outils spécialisés, comme la recherche sur le Web et l’analyse approfondie.

Avec l’arrivée de GPT-5, OpenAI veut réduire la complexité de son offre actuelle. Aujourd’hui, les utilisateurs Pro de ChatGPT doivent choisir parmi une dizaine de modèles, chacun ayant ses propres forces et faiblesses. Altman reconnaît que cette diversité rend la navigation confuse pour de nombreux utilisateurs.

Nous détestons le sélecteur de modèles autant que vous, et nous voulons revenir à une intelligence unifiée et magique.

GPT-5 permettra ainsi de :

  • Éliminer les choix fastidieux en fusionnant les modèles GPT et séries o.
  • Utiliser dynamiquement les outils d’OpenAI pour optimiser chaque requête.
  • Adapter le niveau d’intelligence selon l’abonnement :
    • Version gratuite : accès illimité à GPT-5 avec intelligence standard.
    • ChatGPT Plus : accès à GPT-5 avec un niveau d’intelligence supérieur.
    • ChatGPT Pro : intelligence encore plus avancée et accès aux outils premium.

Les nouvelles capacités de GPT-5

GPT-5 intégrera des fonctionnalités avancées, comme :

  • Mode vocal avancé : interaction vocale fluide et conversation en temps réel.
  • Canvas: génération et manipulation de contenu multimodal (texte, image, etc.).
  • Recherche & Deep Research : recherches Web approfondies et génération de rapports.

De plus, GPT-5 sera un système unifié, combinant les forces des modèles actuels, comme :

  • GPT-4o : modèle standard performant en compréhension et en génération de texte.
  • o3-mini et o1 pro mode : modèles spécialisés dans le raisonnement complexe.
  • Modèles hybrides : intégration des meilleures fonctionnalités IA d’OpenAI.

Screen 2025 02 13 at 21.37.01

Un marché de l’IA en pleine accélération

Cette annonce intervient alors que la concurrence entre DeepSeek, Anthropic, Meta et Google s’intensifie. Chaque entreprise accélère le développement de ses modèles IA, rendant la bataille encore plus féroce. OpenAI veut donc simplifier son offre et conserver son avance en proposant une intelligence artificielle toujours plus performante et facile d’accès pour les utilisateurs.

La sortie de GPT-4.5 dans les prochaines semaines et de GPT-5 d’ici fin 2025 marquera une évolution majeure dans l’IA générative, avec une expérience utilisateur radicalement améliorée.

Lire plus
Intelligence Artificielle

Gemini : L’IA de Google se souvient de vos conversations pour des réponses plus pertinentes !

Gemini : L'IA de Google se souvient de vos conversations pour des réponses plus pertinentes !

Google déploie une nouvelle fonctionnalité de mémoire contextuelle pour les abonnés Gemini Advanced, permettant à l’IA de se souvenir des conversations précédentes et d’utiliser ces informations pour fournir des réponses plus pertinentes.

Dès aujourd’hui, les abonnés au plan AI Premium de Google One peuvent bénéficier de cette nouveauté : Gemini pourra se souvenir des échanges passés et utiliser ces données pour enrichir ses réponses. Si un utilisateur pose une question liée à une discussion précédente, l’IA pourra s’appuyer sur ce contexte, améliorant ainsi la précision et la pertinence des réponses.

L’IA est également capable de :

  • Synthétiser vos discussions passées.
  • Poursuivre des projets en cours en s’appuyant sur des échanges antérieurs.
  • Se souvenir de vos préférences, une fonction déjà en place, mais désormais optimisée avec une meilleure gestion des références aux discussions passées.

Ce système donne aux utilisateurs un contrôle total sur la mémoire de Gemini. Il est possible de :

  • Consulter et supprimer l’historique des discussions.
  • Définir une durée de conservation des informations.
  • Désactiver totalement la fonctionnalité depuis le paramètre « Gemini Apps Activity » dans « Mon Activité ».
  • Voir quand Gemini utilise des conversations passées, grâce à un indicateur visuel affiché dans le résumé des réponses.

Gemini, comment se compare-t-il à ChatGPT ?

Contrairement à ChatGPT, qui utilise une table de mémoire structurée contenant uniquement les informations essentielles, Gemini semble conserver l’intégralité des discussions passées et y puise lorsque nécessaire.

Si cette approche peut permettre une compréhension plus riche du contexte, elle pourrait aussi être moins efficace, car elle nécessite plus de ressources pour parcourir l’historique des conversations à chaque requête. Il reste à voir si cette méthode sera aussi fluide et efficace que celle de ChatGPT.

Disponibilité et perspectives

Pour l’instant, cette fonctionnalité est uniquement accessible en anglais aux abonnés Gemini Advanced via l’offre Google One AI Premium, disponible sur le Web et l’application mobile.

Google prévoit néanmoins d’étendre cette capacité à d’autres langues ainsi qu’aux utilisateurs professionnels et entreprises de Google Workspace.

Avec cette avancée, Gemini cherche à proposer une expérience plus personnalisée, tout en restant attentif aux questions de confidentialité et de contrôle des données.

Google renforce la mémoire de Gemini AI pour offrir des réponses plus pertinentes à ses abonnés Gemini Advanced via Google One AI Premium.

Lire plus
Intelligence Artificielle

Grok 3 : L’IA « effrayante » d’Elon Musk arrive dans deux semaines !

Grok 3 : L’IA « effrayante » d’Elon Musk arrive dans deux semaines !

Elon Musk a confirmé que Grok 3, la nouvelle version de son chatbot basé sur l’intelligence artificielle, sera finalisé et disponible dans les deux prochaines semaines, selon Reuters.

Lors d’un appel vidéo au Sommet des Gouvernements Mondiaux à Dubaï, Musk a décrit l’outil comme « effrayamment intelligent », mettant en avant ses capacités de raisonnement avancées.

« Grok 3 possède des capacités de raisonnement très puissantes. Dans nos tests, il surpasse tout ce qui a été publié à ce jour, à notre connaissance. C’est bon signe. » — Elon Musk

Un lancement dans un contexte de forte concurrence en IA

L’annonce de Musk s’inscrit dans une course effrénée à l’intelligence artificielle. Ces dernières semaines, plusieurs entreprises du secteur ont dévoilé de nouveaux modèles d’IA ou mis à jour leurs outils, notamment la startup chinoise DeepSeek avec son modèle R1, qui s’est distingué par ses capacités de raisonnement avancées et son coût réduit.

Musk ne compte pas être en reste et a construit le supercalculateur Colossus Supercluster à Memphis, Tennessee, pour soutenir le développement de Grok. Son entreprise xAI prévoit d’embaucher des milliers de « tuteurs IA » en 2024 pour affiner l’apprentissage du modèle. Actuellement, xAI compte environ 900 employés.

Grok 3: un outil encore limité par son intégration à X (ex-Twitter)

Contrairement aux modèles concurrents comme DeepSeek ou OpenAI, Grok est étroitement lié à la plateforme X, bien qu’il soit également disponible via une interface web et des applications iOS et Android.

La première version de Grok était open-source, mais depuis, Musk a fait le choix d’une approche fermée et propriétaire. Cette stratégie pourrait limiter l’adoption du chatbot, selon Tech.co, d’autant que son accès reste exclusif aux utilisateurs de X.

Grok face aux défis réglementaires et aux tensions avec OpenAI

Alors que Grok se prépare à entrer sur le marché, Musk fait face à plusieurs obstacles juridiques et réglementaires :

  • DeepSeek, son rival chinois, a été interdit dans plusieurs pays et certaines administrations américaines (Texas, New York…) ont banni son utilisation sur des appareils gouvernementaux.
  • Musk est engagé dans une bataille juridique contre OpenAI, l’accusant de ne pas respecter son engagement initial en tant qu’organisation à but non lucratif.
  • En août 2023, Musk a intenté un procès pour bloquer la transition d’OpenAI vers un modèle commercial.
  • Plus récemment, il a proposé 97,4 milliards de dollars pour acquérir les actifs d’OpenAI, mais l’entreprise a rejeté cette offre.

De Twitter à l’intelligence artificielle : la stratégie de Musk

Elon Musk a créé Grok en novembre 2023, un an après avoir racheté Twitter. Il s’agit d’un retour à l’IA pour Musk, qui avait cofondé OpenAI en 2015 avant de quitter le projet lorsque sa vision s’est éloignée de celle de l’équipe dirigeante. Il souhaitait notamment intégrer l’IA d’OpenAI à Tesla, une idée qui n’a pas fait l’unanimité.

Désormais, avec Grok 3, Musk entend reprendre sa place dans la course à l’IA, en promettant un modèle de raisonnement supérieur à tout ce qui existe. Reste à voir si cette avancée suffira à concurrencer OpenAI, DeepSeek, Google ou Anthropic, qui dominent actuellement le marché.

Lire plus
Intelligence Artificielle

Deep Research : OpenAI dévoile ses tarifs et la disponibilité de son agent IA révolutionnaire !

Deep Research : OpenAI dévoile ses tarifs et la disponibilité de son agent IA révolutionnaire !

Au début du mois, OpenAI a présenté un nouvel agent d’intelligence artificielle alimenté par son futur modèle d’intelligence artificielle à raisonnement complet o3, appelé « Deep Research ».

À l’instar de l’agent Deep Research de Google, alimenté par Gemini et lancé à la fin de l’année dernière, l’idée derrière Deep Research d’OpenAI est de fournir un assistant largement autonome qui peut parcourir le Web et d’autres sources savantes numériques à la recherche d’informations sur un sujet ou un problème fourni par l’utilisateur, puis compiler le tout dans un rapport soigné pendant que l’utilisateur vaque à ses autres occupations dans d’autres onglets ou abandonne complètement son ordinateur pour vivre sa vie, fournissant le rapport final plusieurs minutes ou même plusieurs heures plus tard par le biais d’une notification.

Contrairement à Deep Research de Google, la valeur de OpenAI o3 Deep Research a été immédiatement perçue par de nombreuses personnes extérieures à la communauté de l’IA, dont l’économiste Tyler Cowen, qui l’a qualifiée d’« étonnante ».

Bien qu’initialement dévoilé comme un produit limité aux abonnés de ChatGPT Pro (200 dollars par mois), OpenAI a déclaré à l’époque qu’il arriverait à d’autres niveaux d’abonnement, comme ChatGPT Plus (20 dollars par mois) et Team (30 dollars par mois), ainsi que vers les plans Edu et Enterprise (prix variables).

Aujourd’hui, le cofondateur et PDG d’OpenAI, Sam Altman, a clarifié la pensée actuelle de l’entreprise concernant la mise à disposition plus large de o3 Deep Research, en citant un autre utilisateur sur X, @seconds_0, qui a écrit : « ok, OAI Deep Research vaut probablement 1000 dollars par mois pour moi. Cela transforme radicalement la façon dont mon cerveau s’engage dans le monde. Je suis plus qu’amoureux et un peu émerveillé ».

Altman a répondu : « Je pense que nous allons initialement proposer 10 utilisations par mois pour ChatGPT Plus et 2 par mois pour le niveau gratuit, avec l’intention d’augmenter ces utilisations au fil du temps. Pour certains utilisateurs, cela vaut probablement 1000 dollars par mois, mais je suis impatient de voir ce que tout le monde va en faire ! ».

Screen 2025 02 13 at 07.34.59

Vers une utilisation progressive de OpenAI Deep Research

Alors que 10 utilisations par mois pour le niveau ChatGPT Plus semblent réalisables, 2 utilisations par mois me semblent presque triviales. Je suppose que si vous êtes un utilisateur gratuit, l’objectif est de vous convaincre de la qualité du service et de vous encourager à passer à un plan plus coûteux, en vous tirant vers le haut de l’entonnoir — ou ce que les vendeurs aiment à dire.

Néanmoins, il est utile de savoir à quoi OpenAI pense lorsqu’il s’agit de la disponibilité de ses nouveaux produits et agents puissants. Si vous êtes un utilisateur gratuit de ChatGPT, vous feriez mieux de vous assurer que vos deux utilisations mensuelles de Deep Research concernent des questions auxquelles vous voulez ou avez vraiment besoin d’une réponse.

Comparé à Deep Research, qui est gratuit (bien qu’alimenté par le modèle Gemini 1.5 Pro de la dernière génération), OpenAI ferait mieux d’espérer que son o3 Deep Research en vaille le prix.

Lire plus
Intelligence Artificielle

Qu’est-ce que Mistral AI, l’IA française qui défie OpenAI et Google !

Qu'est-ce que Mistral AI, l'IA française qui défie OpenAI et Google !

Mistral AI est une startup française spécialisée dans les modèles d’intelligence artificielle open source. Fondée en 2023 par d’anciens chercheurs de Google DeepMind et Meta, elle s’est rapidement imposée grâce à ses modèles ouverts, portables, personnalisables et économiques, qui nécessitent moins de ressources informatiques que d’autres modèles de LLM populaires.

Avec un soutien financier important de la part d’investisseurs tels que Microsoft et Andreessen Horowitz, la startup a atteint une valorisation de 6 milliards de dollars après son dernier tour de financement.

Mistral AI se positionne ainsi comme un concurrent sérieux sur le marché de l’IA générative, rivalisant avec des géants comme Google, OpenAI et Anthropic.

Les modèles de Mistral AI : fonctionnement et innovations

Les modèles de Mistral AI reposent sur des architectures avancées et offrent plusieurs innovations clés.

Une architecture « Mixture of Experts » (MoE)

Certains modèles de Mistral, comme Mixtral 8x7B et 8x22B, utilisent une architecture Mixture of Experts (MoE). Contrairement aux architectures standard des transformeurs, cette approche divise le modèle en plusieurs sous-modèles appelés « experts », qui ne sont activés qu’en fonction du contexte.

Cela permet d’améliorer la performance tout en réduisant la consommation de ressources informatiques.

Open source et personnalisation

Une grande partie des modèles de Mistral AI sont open source, permettant aux utilisateurs d’accéder librement au code, aux données et aux poids des modèles. Cela favorise la transparence, l’adaptabilité et l’optimisation pour des besoins spécifiques. Particulièrement utile pour les secteurs réglementés (banques, hôpitaux), cette approche garantit un contrôle total sur la gestion des données.

Capacités de Function Calling

Les modèles Mistral Large 2, Large, Small, 8x22B et NeMo intègrent des fonctionnalités de Function Calling, facilitant leur intégration avec d’autres systèmes et leur utilisation pour l’extraction de données en temps réel, les calculs complexes et l’accès aux bases de données.

Multilingue par nature

Contrairement à certains LLM qui ne maîtrisent qu’une seule langue, les modèles de Mistral AI sont nativement fluents en anglais, français, espagnol, allemand et italien. Certains, comme Mistral Large 2, couvrent plus de 80 langues de programmation ainsi que le chinois, japonais, coréen, arabe et hindi.

Les modèles phares de Mistral AI

Mistral AI propose des modèles commerciaux et open source, chacun ayant ses spécificités et avantages.

000000098296

Modèles commerciaux (via API uniquement)

  • Mistral Large 2 :
    • Modèle le plus avancé, avec une fenêtre de contexte de 128k tokens
    • Proficient en 80+ langages de programmation
    • Disponible en plusieurs langues européennes et asiatiques
  • Mistral Large :
    • Idéal pour les tâches complexes (génération de texte et de code)
    • Fenêtre de contexte de 32k tokens
    • Rivalise avec GPT-4 sur plusieurs benchmarks
  • Mistral Small :
    • Pensé pour les tâches à faible latence et le traitement en masse
    • Fenêtre de contexte de 32k tokens
  • Mistral Embed :
    • Modèle spécialisé en conversion de texte en représentations numériques
    • Utilisé pour l’analyse de sentiment et la classification de texte

Modèles open source (sous licence Apache 2.0)

  • Mistral 7B :
    • Léger et rapide, avec 32k tokens de contexte
    • Surpasse Llama 2 (13B) et égale des modèles de 30B paramètres
  • Mixtral 8x7B :
    • Basé sur une architecture MoE (utilise 12B sur 45B paramètres)
    • Surpasse Llama 2 (70B) et GPT-3.5 (175B)
  • Mixtral 8x22B :
    • Version plus avancée de Mixtral 8x7B (39B sur 141B paramètres actifs)
    • Conçu pour la synthèse de documents volumineux et la génération massive de texte
  • Codestral Mamba :
    • Conçu pour le codage avec une fenêtre de contexte de 256k tokens
    • Rivalise avec les meilleurs modèles transformeurs spécialisés en programmation
  • Mathstral :
    • Conçu pour les problèmes mathématiques complexes
    • Équilibre précision et rapidité
  • Mistral NeMo :
    • Spécialisé en raisonnement et connaissances générales
    • Fenêtre de contexte de 128k tokens
    • Prend en charge plus de 10 langues, y compris le chinois, l’arabe et le portugais

Le Chat : L’alternative de Mistral à ChatGPT

le chat mistral

Mistral AI propose également Le Chat, un chatbot analogue à ChatGPT, Gemini ou Claude. Il permet de choisir entre différents modèles selon l’usage souhaité :

  • Mistral Large : Raisonnement avancé
  • Mistral Small : Rapidité et coût réduit
  • Mistral Next : Réponses concises et efficaces
  • Mistral Large 2 : Expérimentations et tests avancés

Le Chat est gratuit et accessible sur chat.mistral.ai/chat, avec une version payante prévue pour les entreprises.

Mistral AI vs. OpenAI : Qui est le meilleur ?

Le modèle Mistral Large 2 est comparable à GPT-4o, bien que GPT-4o surpasse Mistral sur les benchmarks de génération de code. Cependant, Mistral excelle en function calling et en rapport coût-performance.

Modèle Performance globale Prix (1M tokens entrée) Prix (1M tokens sortie)
GPT-4o Supérieur 5 dollars 15 dollars
Mistral Large 2 Très compétitif 3 dollars 9 dollars

Avec une différence de quelques points seulement en génération de code, Mistral Large 2 est un choix rentable pour les entreprises cherchant une IA performante à moindre coût.

Où utiliser les modèles Mistral AI ?

Les modèles de Mistral AI sont disponibles sur :

  • La Plateforme, l’environnement de développement et de déploiement de Mistral
  • Amazon Bedrock, Databricks, Snowflake Cortex, Azure AI
  • Le Chat pour tester les modèles en direct

Les modèles de Mistral AI s’intègrent dans diverses applications :

  • Chatbots et assistants virtuels
  • Résumé de texte et génération de contenu
  • Génération et optimisation de code
  • Analyse de texte et classification

Avec sa philosophie open source, ses modèles performants et sa stratégie de coût optimisé, Mistral AI se positionne comme un acteur clé du marché de l’IA générative. En poursuivant son développement, elle pourrait bien remettre en cause la domination d’OpenAI et Google.

Que pensez-vous des modèles de Mistral AI ? Seriez-vous prêt à les utiliser dans vos projets ?

Lire plus