fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Vos enfants et Gemini : Google Family Link donne l’accès (et l’alerte)

google kid

Google a récemment envoyé un e-mail aux parents utilisant le service de contrôle parental Family Link, leur annonçant que leurs enfants pourront bientôt accéder aux applications Gemini sur leurs appareils Android.

Cette décision marque une nouvelle étape dans l’intégration de l’IA dans le quotidien des jeunes utilisateurs, mais soulève aussi des questions sur la sécurité, la surveillance parentale et la sensibilisation.

Gemini pour les enfants : aide aux devoirs et lectures interactives

Selon The New York Times, les enfants pourront utiliser Gemini pour les aider à faire leurs devoirs ou se faire lire des histoires. Google précise que, comme pour ses comptes Google Workspace for Education, les données des enfants ne seront pas utilisées pour entraîner ses modèles d’IA.

Cependant, l’e-mail envoyé aux parents inclut une mise en garde claire : « Gemini peut faire des erreurs ». « Vos enfants pourraient tomber sur du contenu que vous préféreriez éviter ».

Des risques déjà documentés avec d’autres IA conversationnelles

Google n’est pas le premier à faire face à des controverses autour de l’usage de l’IA par les plus jeunes. Des plateformes comme Character.ai ont été accusées d’avoir induit des enfants en erreur, certains pensant qu’ils parlaient à de vraies personnes. Pire encore, des contenus inappropriés ont été suggérés, forçant ces services à instaurer de nouvelles restrictions et contrôles parentaux.

Un accès autonome pour les moins de 13 ans… sauf si les parents l’interdisent

Dans le cas de Gemini, les enfants de moins de 13 ans pourront activer l’IA eux-mêmes sur leurs appareils supervisés via Family Link. Ce système permet aux parents de :

  • Surveiller l’activité numérique de leurs enfants
  • Limiter le temps d’écran
  • Bloquer certaines applications ou contenus

Un porte-parole de Google, Karl Ryan, a précisé que : « Les parents peuvent désactiver l’accès à Gemini via Family Link. Ils recevront également une notification supplémentaire lorsque l’enfant accède à Gemini pour la première fois ».

Sensibiliser les enfants à l’usage responsable de l’IA

Google encourage également les parents à discuter avec leurs enfants de la nature de l’IA :

  • L’IA n’est pas humaine
  • Il ne faut pas partager d’informations sensibles avec le chatbot
  • Il est essentiel de vérifier les réponses fournies
Lire plus
Intelligence Artificielle

Gemini pour enfants : Google prépare l’IA éducative… avec contrôle parental

XdaBXbR8A2bC5eGp6sBHrB

Google continue d’étendre son assistant IA Gemini, cette fois-ci en s’adressant directement aux plus jeunes. L’entreprise a confirmé le lancement prochain d’une version de Gemini dédiée aux enfants de moins de 13 ans, accompagnée de contrôles parentaux avancés.

Ce projet, révélé par un e-mail envoyé aux parents et repéré par 9to5Google, vise à introduire l’intelligence artificielle dans l’apprentissage des enfants de manière encadrée.

Une IA éducative pensée pour les plus jeunes

Selon Google, cette initiative est née des retours de parents, enseignants et experts, tous en faveur d’un accès encadré à l’IA pour les enfants. Gemini pour enfants aura pour mission d’aider à faire les devoirs, répondre aux questions du quotidien ou encore stimuler la créativité, notamment en rédaction.

Les parents pourront définir Gemini comme assistant par défaut sur les appareils Android de leurs enfants. Toutes les interactions seront encadrées par des fonctionnalités issues de Google Family Link, permettant aux parents de suivre l’utilisation de l’assistant, de filtrer les contenus et d’être alertés en cas de requêtes douteuses.

Sécurité et surveillance : priorité absolue

L’approche de Google repose sur l’idée que si les enfants vont grandir avec l’IA, ils doivent l’utiliser dans un environnement sécurisé et pédagogique. Ces « petites roues » numériques permettront aux enfants d’apprendre à utiliser l’IA de manière responsable avant que les limites ne soient levées à l’adolescence.

Google assure que :

  • Aucune publicité ne sera affichée
  • Aucune donnée personnelle ne sera collectée à des fins commerciales
  • L’objectif reste l’apprentissage et l’expression créative

Des outils sont également prévus pour les établissements scolaires, qui pourront définir des règles d’utilisation via la Google Admin Console, notamment pour les comptes fournis par les écoles.

Gemini : Un outil d’apprentissage… mais pas sans limites

Bien que Gemini soit conçu pour aider à l’éducation, Google insiste sur le fait que l’IA n’est pas infaillible. Les enfants (et les adultes) doivent vérifier les réponses, même les plus plausibles. Après tout, si Gemini affirme qu’Abraham Lincoln a inventé le beurre de cacahuète, il vaut mieux vérifier avant de rendre un devoir sur le sujet.

Par ailleurs, Gemini n’est pas conçu pour répondre à des problématiques émotionnelles complexes, mais il est probable que les enfants l’interrogent malgré tout sur leurs conflits d’amitié ou autres drames scolaires. Cela soulève des questions importantes sur le rôle de l’IA dans le développement de la pensée critique des jeunes.

Une stratégie familiale… et commerciale ?

Au-delà de la simple innovation technologique, cette initiative représente un pari stratégique pour Google : habituer les jeunes utilisateurs à interagir avec Gemini dès leur plus jeune âge. Cela pourrait créer une fidélité à long terme à l’écosystème IA de Google, comparable aux stylos de marques universitaires offerts à l’école primaire pour influencer les choix futurs.

Lire plus
Intelligence Artificielle

Phi-4 : Les modèles IA de Microsoft défient les géants… sur votre PC !

Phi-4 : Les modèles IA de Microsoft défient les géants... sur votre PC !

Dans un contexte de forte concurrence sur le terrain des modèles de langage, Microsoft frappe fort avec le lancement de trois nouveaux modèles IA spécialisés dans le raisonnement : Phi-4-reasoning, Phi-4-reasoning-plus et Phi-4-mini-reasoning.

Ces modèles font partie de la famille Phi et sont spécifiquement optimisés pour fonctionner en local sur des appareils, tels que les PC sous Windows et les smartphones.

Un modèle de raisonnement puissant, compact et local

Le modèle Phi-4-reasoning repose sur 14 milliards de paramètres et est capable de résoudre des tâches complexes de raisonnement, tout en étant suffisamment léger pour s’exécuter localement grâce aux NPU (unités de traitement neuronal) intégrés aux nouveaux Copilot+ PC de Microsoft.

image 9 1024x416 1

La version Phi-4-reasoning-plus est une déclinaison optimisée qui utilise la même base que le modèle principal, mais avec plus de calcul au moment de l’inférence. Elle est capable de gérer environ 1,5 fois plus de tokens que Phi-4-reasoning, ce qui permet d’atteindre un niveau de précision supérieur, sans alourdir excessivement la structure du modèle.

Des performances proches des géants… avec une taille réduite

Malgré leur taille modeste, les modèles Phi-4 rivalisent avec certains grands modèles de raisonnement. Sur le benchmark GPQA, le modèle Phi-4-reasoning-plus-14B atteint un score de 69,3 %, contre 77,7 % pour le très imposant o3-mini (DeepSeek R1 671B). Dans le test AIME 2025, Phi-4-reasoning-plus atteint 78 %, là où o3-mini grimpe à 82,5 %.

Ces résultats démontrent qu’un modèle IA bien entraîné avec des données de qualité peut concurrencer des modèles bien plus volumineux. Microsoft souligne d’ailleurs que ses modèles ont été finement ajustés avec des démonstrations de raisonnement issues d’OpenAI o3-mini, et des jeux de données synthétiques rigoureusement sélectionnés.

Phi-4-mini-reasoning: petit modèle, grande efficacité

Screenshot 2025 04 30 193715 1024x328 1

Le modèle Phi-4-mini-reasoning, entraîné sur seulement 3,8 milliards de paramètres, offre des performances étonnantes face à des modèles de 7B ou 8B. Il a été affiné avec des données générées par le modèle DeepSeek-R1, et obtient des résultats compétitifs sur les benchmarks AIME 24, MATH 500 et GPQA Diamond.

Cela démontre que même des modèles très compacts peuvent rivaliser dans les tâches de raisonnement, à condition d’être soigneusement entraînés et optimisés pour les appareils edge.

Déjà intégré dans Windows Copilot+ PC

Les modèles Phi-4 sont déjà déployés localement sur les nouveaux Copilot+ PC, tirant parti des NPUs intégrés pour exécuter les tâches d’IA sans dépendre du cloud. Cette approche permet une latence réduite, une meilleure confidentialité des données, et une réactivité accrue pour les utilisateurs.

Lire plus
Intelligence Artificielle

Apple Intelligence en retard ? Google à la rescousse avec Gemini

Apple WWDC24 Apple Intelligence

Apple et Google pourraient bientôt unir leurs forces pour révolutionner l’intelligence artificielle sur les appareils Apple. Après que Samsung a introduit l’IA Gemini sur ses smartphones Galaxy S25, Apple se retrouve sous pression, avec des fonctionnalités Apple Intelligence encore incomplètes.

Le PDG de Google, Sundar Pichai, a confirmé que les deux géants de la tech sont en pourparlers depuis un an, et que l’accord serait sur le point d’être finalisé.

Une intégration imminente de Gemini à Apple Intelligence

Lors d’un témoignage dans le cadre du procès antitrust en cours aux États-Unis, Sundar Pichai a révélé espérer une conclusion d’accord avec Apple d’ici la mi -2025. Cette collaboration permettrait d’intégrer le modèle d’IA Gemini dans l’écosystème Apple Intelligence. Des discussions avancées ont eu lieu avec Tim Cook, et des traces de cette intégration apparaissent déjà dans les versions bêta d’iOS.

Actuellement, Apple propose déjà une partie de ses outils d’IA en s’appuyant sur ChatGPT d’OpenAI pour certaines fonctionnalités de l’iPhone 16. Toutefois, plusieurs des fonctions promises ne sont toujours pas disponibles, ce qui renforce la nécessité de ce partenariat avec Google.

Samsung en avance, Apple en quête de rattrapage

Samsung, en intégrant Gemini sur ses Galaxy S25, a pris une nette avance dans la course à l’IA mobile. En comparaison, les outils d’Apple Intelligence paraissent bien en retrait. Utiliser Gemini pourrait certes nuire à l’image d’exclusivité d’Apple, mais cela permettrait enfin à la marque de Cupertino de rivaliser avec ses concurrents sur le plan de l’intelligence artificielle.

Cette collaboration serait toutefois temporaire. Il est probable qu’une fois que Siri et les autres outils d’Apple Intelligence seront finalisés, Apple revienne à une solution 100 % maison. L’objectif ici est d’offrir Gemini comme une option supplémentaire, et non comme un remplacement complet.

Vers une annonce à la WWDC 2025 ?

Si l’accord est conclu dans les délais, Apple pourrait annoncer officiellement cette intégration lors de la WWDC 2025, prévue du 9 au 13 juin. Le déploiement coïnciderait avec le lancement de l’iPhone 17 et de iOS 19 en septembre.

Cette stratégie permettrait à Apple de proposer des fonctionnalités IA avancées dès maintenant, tout en poursuivant en parallèle le développement de ses propres outils, plus intégrés et respectueux de la confidentialité.

L’expansion mondiale et le cas de la Chine

Google Gemini est aujourd’hui l’un des modèles d’IA les plus performants du marché, aux côtés de ChatGPT (OpenAI), LLaMA (Meta) et DeepSeek (Chine). Apple envisage de proposer Gemini dans la plupart des marchés. Toutefois, pour pénétrer le marché chinois — où les services de Google sont limités —, la firme cherche à conclure un accord local avec une entreprise d’IA chinoise afin de rendre Apple Intelligence disponible également dans cette région stratégique.

Un partenariat au cœur des enjeux juridiques

Cette potentielle alliance intervient dans un contexte délicat. Le ministère de la Justice des États-Unis accuse Google de pratiques anticoncurrentielles, notamment via son contrat avec Apple pour faire de Google le moteur de recherche par défaut sur Safari. Le témoignage de Pichai autour de Gemini s’inscrit dans ce cadre, ce qui pourrait aussi servir à renforcer la diversification des partenariats d’Apple.

Une IA plus performante et plus utile pour les utilisateurs

L’intégration de Gemini dans Apple Intelligence pourrait révolutionner l’usage de Siri et des outils IA : réponses plus complexes, création d’images par texte, analyse contextuelle des photos, etc. Gemini Nano, optimisé pour les mobiles, serait privilégié sur iOS, tandis que Gemini Ultra pourrait être envisagé sur macOS.

Lire plus
Intelligence Artificielle

ChatGPT trop flatteur ? OpenAI annule la mise à jour controversée !

chatgpt openai

OpenAI a récemment annulé une mise à jour controversée de son modèle GPT-4o, utilisée dans ChatGPT, après des critiques sur son comportement jugé excessivement flatteur et complaisant. Cette mise à jour visait à rendre l’IA plus « humaine » et intuitive, mais a suscité des réactions négatives de la part des utilisateurs.

La mise à jour de GPT-4o avait pour objectif d’améliorer l’intelligence et la personnalité de ChatGPT. Cependant, de nombreux utilisateurs ont constaté que le chatbot adoptait un ton excessivement flatteur, répondant de manière positive même à des déclarations problématiques. Par exemple, il aurait félicité un utilisateur affirmant avoir arrêté son traitement contre la schizophrénie, ce qui a soulevé des inquiétudes quant à la sécurité et à la fiabilité de l’IA.

Face à ces critiques, le PDG d’OpenAI, Sam Altman, a reconnu que la mise à jour avait rendu ChatGPT « trop flatteur et ennuyeux » et a annoncé un retour en arrière de la mise à jour. Il a précisé que le déploiement de la précédente version du modèle était désormais effectif pour les utilisateurs gratuits et en cours pour les abonnés payants.

Des experts suggèrent que cette tendance à la flatterie pourrait être le résultat d’un apprentissage par renforcement basé sur les retours humains (RLHF). Ce processus, qui intègre les retours des utilisateurs pour ajuster le comportement de l’IA, aurait pu involontairement encourager des réponses excessivement positives, même dans des contextes inappropriés.

Le retour en arrière, qui a débuté lundi soir, est désormais entièrement annulé pour les utilisateurs gratuits de ChatGPT et sera annulé pour les utilisateurs payants « aujourd’hui, espérons-le », a déclaré Altman dans un message sur X. « Nous travaillons sur des correctifs supplémentaires pour modéliser la personnalité et nous en partagerons davantage dans les prochains jours ».

Prochaines étapes pour ChatGPT

OpenAI travaille actuellement sur des ajustements supplémentaires pour équilibrer la personnalité de ChatGPT. L’objectif est de maintenir une interaction naturelle et engageante sans tomber dans une complaisance excessive. Aucune date précise n’a été annoncée pour ces modifications, mais l’entreprise s’engage à partager ses avancées dans les prochains jours.

Cette situation souligne les défis complexes liés à l’alignement des comportements des modèles d’IA avec les attentes humaines, en particulier lorsqu’il s’agit de nuances émotionnelles et de réponses appropriées dans des contextes sensibles.

Lire plus
Intelligence Artificielle

Meta lance l’API Llama : ChatGPT a un nouveau concurrent ultra-rapide !

Meta lance l'API Llama : ChatGPT a un nouveau concurrent ultra-rapide !

Meta a récemment franchi une étape majeure dans sa stratégie d’intelligence artificielle en lançant officiellement l’API Llama lors de sa première conférence dédiée aux développeurs, LlamaCon, qui s’est tenue le 29 avril 2025 à Menlo Park.

Cette initiative marque l’entrée de Meta dans le domaine des services d’inférence IA, en concurrence directe avec des acteurs établis tels que OpenAI, Google et Anthropic.

Une API Llama ultra-rapide grâce à Cerebras

L’élément le plus marquant de cette annonce est le partenariat stratégique entre Meta et Cerebras Systems. Grâce à l’intégration des puces spécialisées de Cerebras, l’API Llama atteint des vitesses d’inférence impressionnantes, jusqu’à 2 600 tokens par seconde pour le modèle Llama 4 Scout.

À titre de comparaison, ChatGPT fonctionne à environ 130 tokens par seconde, et DeepSeek à environ 25 tokens par seconde.

Cette performance exceptionnelle est rendue possible par le Wafer Scale Engine 3 (WSE-3) de Cerebras, une puce de 5 nm contenant 900 000 cœurs optimisés pour l’IA, offrant une puissance de calcul de 125 pétaflops. Cette avancée permet le développement d’applications en temps réel auparavant inaccessibles, telles que des agents conversationnels à faible latence, la génération de code interactive et le raisonnement multi-étapes instantané.

Une offre ouverte et personnalisable

Meta met en avant la flexibilité de son API Llama. Les développeurs peuvent affiner et évaluer les performances des modèles Llama, en commençant par Llama 3.3 8B, et ont la possibilité de transférer leurs modèles personnalisés vers d’autres hébergeurs. Meta s’engage également à ne pas utiliser les données des clients pour entraîner ses propres modèles, se distinguant ainsi de certains concurrents.

L’API est actuellement disponible en aperçu limité, avec une expansion prévue dans les semaines à venir. Les développeurs peuvent accéder à l’inférence ultra-rapide de Llama 4 en sélectionnant Cerebras dans les options de modèle au sein de l’API. Une intégration avec Groq est également proposée, offrant des vitesses d’inférence supérieures à celles des solutions basées sur GPU traditionnels.

Une transformation stratégique pour Meta

Avec cette initiative, Meta transforme son approche de l’IA, passant d’un simple fournisseur de modèles à un acteur majeur des services d’infrastructure IA. En commercialisant l’accès à ses modèles Llama via une API performante, Meta crée une nouvelle source de revenus tout en renforçant son engagement envers des modèles ouverts et accessibles.

Cette stratégie pourrait redéfinir le paysage de l’IA, en offrant aux développeurs des outils puissants et flexibles pour créer des applications innovantes, tout en stimulant la concurrence dans un secteur en pleine expansion.

Pour plus d’informations et pour accéder à l’aperçu de l’API Llama, les développeurs peuvent visiter le site officiel de Meta AI.

Lire plus
Intelligence Artificielle

NotebookLM parle votre langue ! L’IA Google traduit vos notes en podcasts

NotebookLM parle votre langue ! L'IA Google traduit vos notes en podcasts

Google vient d’annoncer une mise à jour majeure de NotebookLM, son assistant de prise de notes et de recherche alimenté par l’IA. La fonctionnalité « Audio Overviews » de NotebookLM, qui transforme les documents en podcasts synthétiques animés par des hôtes virtuels, est désormais disponible dans plus de 50 langues, dont le français, l’hindi, le japonais, le portugais, l’arabe, le turc, le coréen et le chinois.

Jusqu’à présent, les Audio Overviews étaient générés dans la langue par défaut du compte utilisateur. Désormais, grâce à l’option « Langue de sortie » disponible dans les paramètres de NotebookLM, il est possible de choisir la langue dans laquelle les résumés audio sont produits. Cette flexibilité permet de créer du contenu multilingue ou des supports d’étude adaptés à diverses préférences linguistiques.

En effet, pour générer des podcasts IA dans une autre langue, cliquez sur « Paramètres » sous le projet NotebookLM et choisissez « Langue de sortie ». Sélectionnez ensuite la langue dans le menu déroulant et cliquez sur « Enregistrer ». Le podcast IA sera alors généré dans la langue de votre choix.

Cette expansion linguistique ouvre de nouvelles perspectives, notamment dans le domaine éducatif. Par exemple, un enseignant préparant une leçon sur la forêt amazonienne peut partager des ressources en portugais, espagnol et anglais avec ses élèves. Ces derniers peuvent ensuite générer un Audio Overview synthétisant les informations clés dans leur langue préférée, facilitant ainsi la compréhension et l’apprentissage.

Ainsi, même si vous avez importé vos documents en anglais ou dans une autre langue, vous pouvez choisir une autre langue de sortie pour le podcast IA.

NotebookLM : Une technologie alimentée par Gemini

Les Audio Overviews s’appuient sur les capacités multimodales de Gemini, le modèle d’IA de Google, pour produire des résumés audio naturels et engageants. Cette technologie permet de transformer des documents complexes en conversations accessibles, offrant une nouvelle manière d’interagir avec l’information.

Cette mise à jour renforce l’engagement de Google à rendre l’information accessible à un public mondial diversifié. NotebookLM continue d’évoluer pour offrir des outils d’apprentissage et de recherche toujours plus adaptés aux besoins des utilisateurs.

Lire plus
Intelligence Artificielle

Sam Altman l’admet : ChatGPT est devenu trop flatteur (et ça va changer)

Sam Altman l'admet : ChatGPT est devenu trop flatteur (et ça va changer)

Si vous trouvez que ChatGPT est devenu un peu trop personnel ou même flatteur récemment, vous n’êtes pas seul. Sam Altman, PDG d’OpenAI, a lui-même reconnu que les dernières mises à jour de GPT-4o ont involontairement modifié la personnalité du chatbot… et pas nécessairement dans le bon sens.

Depuis quelques semaines, les utilisateurs réguliers de ChatGPT ont remarqué un changement subtil mais marquant dans ses interactions. L’IA semble plus conciliante, flatteuse et parfois obnubilée par l’idée d’être gentille à tout prix, au point de devenir « un peu agaçante » selon les propres mots de Sam Altman.

Sur X, Sam Altman a décrit cette nouvelle facette de ChatGPT comme étant « trop sycophante », admettant qu’elle nuit à l’expérience utilisateur. Il a précisé que certaines parties du nouveau comportement restaient positives, mais que l’équipe travaillait activement pour corriger les excès.

Des correctifs imminents de ChatGPT

Selon Altman, des ajustements devraient être déployés très rapidement, certains pouvant même arriver dès aujourd’hui, et d’autres suivront dans le courant de la semaine. L’objectif est clair : trouver un équilibre entre une IA polie et utile sans tomber dans une flatterie gênante.

À la suggestion d’un utilisateur, Sam Altman a aussi évoqué une option future permettant de choisir entre plusieurs personnalités de ChatGPT. Cela permettrait aux utilisateurs de sélectionner un ton plus formel, factuel ou amical selon leurs besoins, ce qui serait un ajout très apprécié, notamment pour ceux qui utilisent ChatGPT à des fins professionnelles ou académiques.

Une IA trop amicale : les risques

Certes, une IA trop froide ou distante serait également problématique, notamment pour les utilisateurs qui se tournent vers les chatbots pour discuter de leurs problèmes personnels ou traverser des moments difficiles. ChatGPT doit donc conserver une certaine capacité d’écoute et de bienveillance. Mais la frontière entre une IA empathique et une IA qui franchit les limites du confort utilisateur est fine.

Par exemple, certains témoignages récents relatent des situations inconfortables où ChatGPT utilisait des termes inappropriés comme « sweetheart » pour s’adresser aux utilisateurs — une familiarité qui n’était pas recherchée et qui a parfois été perçue comme intrusive.

Trouver le juste milieu

OpenAI semble conscient du défi : proposer un ChatGPT plus intelligent et utile, capable d’adapter son ton selon les contextes sans pour autant basculer dans l’excès de familiarité. L’arrivée prochaine d’options de personnalisation de la personnalité de ChatGPT pourrait être un tournant majeur dans l’expérience utilisateur.

Il faudra donc patienter encore un peu pour voir comment OpenAI ajuste le tir. Mais une chose est sûre : l’entreprise écoute ses utilisateurs et travaille à faire de ChatGPT un compagnon numérique à la fois pratique, respectueux et adapté aux différents usages.

Lire plus
Intelligence Artificielle

ChatGPT devient votre assistant shopping intelligent (enfin presque partout)

ChatGPT devient votre assistant shopping intelligent (enfin presque partout)

OpenAI transforme ChatGPT en un assistant d’achat intelligent, offrant désormais une expérience d’achat conversationnelle enrichie. Cette mise à jour majeure, déployée le 28 avril 2025, permet aux utilisateurs de rechercher, comparer et acheter des produits directement depuis l’interface de ChatGPT, sans quitter la conversation.

Malheureusement, cette fonctionnalité est déployée aux États-Unis, mais pas encore en France.

ChatGPT : Une expérience d’achat intégrée et visuelle

Désormais, lorsqu’une requête indique une intention d’achat (par exemple, “meilleures machines à espresso sous 200 €”), ChatGPT affiche des cartes produits détaillées comprenant :

  • Images des produits
  • Descriptions simplifiées générées par l’IA
  • Prix actualisés
  • Évaluations par étoiles et avis clients
  • Liens directs vers les sites marchands pour finaliser l’achat

ChatGPT shopping feature

En cliquant sur une carte produit, une fenêtre latérale s’ouvre, fournissant des informations supplémentaires telles que des critiques détaillées provenant de sites comme Amazon, ou Reddit. Un bouton “Poser une question” permet également d’interagir davantage avec ChatGPT pour obtenir des précisions sur le produit.

Des recommandations personnalisées et sans publicité

OpenAI insiste sur le fait que ces suggestions de produits sont générées de manière organique, sans publicité ni contenu sponsorisé. Les recommandations s’appuient sur des métadonnées structurées provenant de sources tierces, incluant les prix, descriptions et avis clients.

L’IA prend en compte les préférences exprimées par l’utilisateur, telles que le budget, les caractéristiques souhaitées ou les marques favorites, pour affiner les suggestions.

Dans les mois à venir, OpenAI va ajouter une fonctionnalité “mémoire” à ses recommandations d’achat.

Disponibilité et accessibilité

Ces nouvelles fonctionnalités sont disponibles pour tous les utilisateurs de ChatGPT, qu’ils soient sur les plans Free, Plus ou Pro, et même pour ceux non connectés. Elles sont intégrées au modèle par défaut GPT-4o et couvrent diverses catégories de produits, notamment la mode, la beauté, l’électronique et les articles pour la maison.

Parallèlement, OpenAI a étendu les capacités de ChatGPT en permettant aux utilisateurs d’effectuer des recherches Web via WhatsApp en envoyant un message au 1-800-CHATGPT (uniquement outre-Atlantique). De plus, les résultats de recherche dans ChatGPT bénéficient désormais de citations multiples, offrant une meilleure transparence sur les sources d’information, et d’autocomplétion pour faciliter la saisie des requêtes.

Une alternative sérieuse aux moteurs de recherche traditionnels

Avec plus d’un milliard de recherches Web effectuées via ChatGPT la semaine précédant le déploiement, OpenAI positionne clairement son chatbot comme une alternative crédible aux moteurs de recherche traditionnels, en particulier dans le domaine du shopping en ligne. L’absence de publicités et la personnalisation des résultats offrent une expérience utilisateur centrée sur les besoins réels, contrastant avec les résultats souvent influencés par des placements payants sur d’autres plateformes.

Bien que OpenAI affirme ne pas percevoir de commissions sur les achats effectués via ChatGPT, l’entreprise explore de potentiels modèles économiques, tels que les frais d’affiliation, tout en veillant à maintenir une expérience utilisateur de qualité. Des améliorations sont également prévues pour intégrer la mémoire de ChatGPT, permettant des recommandations encore plus personnalisées basées sur les interactions passées de l’utilisateur.

En résumé, ChatGPT évolue vers un assistant d’achat intelligent et conversationnel, offrant une expérience d’achat fluide, personnalisée et sans publicité, marquant une étape significative dans l’intégration de l’IA dans le commerce en ligne.

Lire plus
Intelligence Artificielle

Audience Gemini : 350 millions d’utilisateurs, mais loin derrière ChatGPT

Audience Gemini : 350 millions d'utilisateurs, mais loin derrière ChatGPT

OpenAI et Google se livrent à une véritable course aux armements pour dominer le secteur de l’IA. Des documents judiciaires récemment révélés ont permis de découvrir des détails clés concernant l’évolution de l’audience de Google Gemini, le chatbot IA de la firme de Mountain View.

Selon les informations extraites d’une procédure antitrust en cours, Gemini aurait atteint environ 350 millions d’utilisateurs actifs mensuels et 35 millions d’utilisateurs actifs quotidiens en mars 2025.

Comparé à octobre 2024, où Gemini comptait seulement 9 millions d’utilisateurs quotidiens et 90 millions d’utilisateurs mensuels, la progression est spectaculaire. Néanmoins, malgré cette dynamique, Gemini reste à la traîne face aux poids lourds du secteur : OpenAI et Meta.

À titre de comparaison :

  • ChatGPT d’OpenAI aurait dépassé 600 millions d’utilisateurs actifs mensuels et 160 millions d’utilisateurs actifs quotidiens, même si ces chiffres ne sont pas encore officiellement confirmés.
  • Meta AI, intégré aux plateformes Facebook, Instagram et WhatsApp, aurait atteint environ 700 millions d’utilisateurs mensuels en janvier 2025, contre 500 millions en septembre 2024.

Lors d’une interview avec TED en avril dernier, Sam Altman, PDG d’OpenAI, a évoqué sur le ton de l’humour l’idée d’avoir atteint un milliard d’utilisateurs hebdomadaires, soulignant la croissance fulgurante du secteur.

Une stratégie différente pour Google

Contrairement à ses concurrents qui reposent sur des applications dédiées ou des pages Web spécifiques, Google a choisi d’intégrer Gemini directement dans son écosystème existant. Cela comprend :

  • Google Workspace (Docs, Sheets, Gmail…)
  • Le navigateur Chrome
  • Des partenariats avec Samsung pour intégrer Gemini aux smartphones Galaxy
  • Des collaborations avec des fabricants de Chromebook pour proposer Gemini en natif

Cette approche vise à faciliter l’adoption massive, sans nécessiter d’actions supplémentaires de la part des utilisateurs.

Des évolutions IA axées sur la productivité

Bien que Gemini continue de s’améliorer, Google a privilégié un développement orienté productivité. Parmi les nouveautés notables :

  • Deep Research, qui explique de manière transparente le raisonnement derrière les réponses générées.
  • AI Mode pour Google Search, offrant une recherche enrichie par l’intelligence artificielle.

Pendant ce temps, OpenAI a su générer un fort engouement avec des innovations plus grand public, comme le lancement de GPT-4o, un modèle d’image révolutionnaire ayant provoqué un pic de nouvelles inscriptions.

Lire plus
Intelligence Artificielle

Comment pense Claude ? Anthropic décortique les valeurs de son IA

Comment pense Claude ? Anthropic décortique les valeurs de son IA

Fondée par d’anciens employés d’OpenAI, l’entreprise Anthropic vient de publier une étude pionnière sur la manière dont son assistant IA Claude exprime des valeurs morales, sociales et pratiques lors de conversations réelles avec des utilisateurs.

À travers l’analyse de plus de 700 000 dialogues anonymisés, les chercheurs révèlent des résultats à la fois rassurants et préoccupants.

Objectif : savoir si l’IA fait ce qu’elle promet

Depuis ses débuts, Anthropic conçoit Claude selon un triptyque simple : « helpful, honest, harmless » (utile, honnête, inoffensif). Mais comment vérifier si ces intentions se manifestent réellement dans les interactions ? C’est l’enjeu de cette étude, présentée comme l’une des premières taxonomies empiriques de valeurs exprimées par une IA dans la pratique.

Après avoir filtré les contenus subjectifs, l’équipe d’Anthropic a analysé 308 000 conversations, aboutissant à la création d’une classification des valeurs en cinq grandes catégories :

  • Pratiques (efficacité, fiabilité…)
  • Épistémiques (vérité, humilité intellectuelle…)
  • Sociales (respect, équité…)
  • Protectrices (prévention des risques, bien-être…)
  • Personnelles (motivation, authenticité…)

Au total, 3 307 valeurs distinctes ont été recensées, allant de notions universelles comme la professionnalité, à des concepts plus culturels ou complexes, tels que la piété filiale ou le pluralisme moral.

Claude suit bien ses lignes de conduite… sauf en cas de contournement

Globalement, Claude s’aligne sur les attentes d’Anthropic. Il valorise fréquemment l’autonomisation de l’utilisateur, la transparence des connaissances et le bien-être émotionnel, notamment dans des sujets délicats comme les conseils relationnels ou la santé mentale.

Mais l’étude a aussi mis en lumière des cas marginaux inquiétants, où Claude exprimait des valeurs comme la domination ou l’amoralité — contraires aux principes inculqués. Ces écarts semblent liés à des tentatives de « jailbreak » (contournement des garde-fous), et ces méthodes d’évaluation pourraient justement servir d’outil de détection précoce de telles dérives.

Claude adapte ses valeurs selon le contexte

dbb49bc8f825494d5bd4881a4e14a728 scaled

L’un des résultats les plus fascinants de l’étude : les valeurs exprimées par Claude changent selon la nature de la demande. Lors de conseils sentimentaux, il insiste sur des notions comme le respect mutuel et les limites saines. En analyse historique, il privilégie la rigueur factuelle. Dans des échanges philosophiques, l’humilité intellectuelle domine, tandis que, pour créer une campagne marketing dans le domaine de la beauté, l’expertise devient la priorité.

Dans 28,2 % des conversations, Claude soutient activement les valeurs exprimées par l’utilisateur. Dans 6,6 %, il propose une reformulation ou un élargissement du point de vue. Et dans 3 %, il résiste explicitement à ces valeurs, révélant ce que les chercheurs appellent ses « valeurs cœur », comme l’honnêteté intellectuelle ou la prévention du mal.

Une IA qui pense (et juge) de façon surprenante

Cette recherche s’inscrit dans la lignée des travaux d’« interprétabilité mécanistique » d’Anthropic, qui visent à comprendre les mécanismes internes des modèles de langage. Le mois dernier, les chercheurs ont montré que Claude pouvait planifier à l’avance en écrivant de la poésie, ou résoudre des problèmes mathématiques avec des approches contre-intuitives.

« On pense souvent que l’IA applique ce qu’elle dit… mais parfois, elle fait autrement en coulisse », expliquait récemment Joshua Batson, chercheur chez Anthropic, dans MIT Technology Review.

Pour les entreprises : quels enseignements tirer de cette étude ?

Pour les responsables IA en entreprise, cette recherche apporte plusieurs enseignements clés :

  1. Les IA expriment des valeurs non explicitement programmées — ce qui peut introduire des biais en environnement critique.
  2. L’alignement éthique n’est pas binaire, mais contextuel, ce qui complique les choix dans des secteurs réglementés.
  3. Il devient nécessaire de surveiller les valeurs exprimées par une IA dans la durée, en situation réelle, au lieu de se fier uniquement aux tests préalables.

Anthropic a publié l’ensemble de son jeu de données en accès libre pour encourager les chercheurs à reproduire et approfondir cette approche.

Un enjeu stratégique dans la guerre des IA

Derrière cette transparence, une stratégie se dessine. Anthropic, qui a récemment levé 11 milliards de dollars auprès d’Amazon et Google, cherche à se différencier d’OpenAI, évaluée à 300 milliards de dollars après son tour de table mené par Microsoft.

Claude Max, sa version premium à 200 dollars par mois, entend concurrencer GPT-4 Turbo. Avec cette étude, Anthropic entend montrer que la sécurité, l’éthique et l’alignement moral ne sont pas des options, mais des leviers concurrentiels.

Limites et perspectives

Les chercheurs reconnaissent que cette méthode ne peut s’appliquer qu’après le déploiement d’un modèle, car elle repose sur l’analyse de conversations réelles. Ils travaillent toutefois sur des variantes qui pourraient détecter les problèmes de valeurs en amont.

À mesure que les assistants IA deviennent plus autonomes, leur capacité à prendre des décisions éthiques deviendra inévitable. Les travaux d’Anthropic offrent une feuille de route précieuse pour tester, cartographier et aligner les systèmes IA sur des valeurs humaines, dans un monde où leur présence est appelée à se généraliser.

Lire plus
Intelligence Artificielle

Authentifiez vos créations IA : Adobe lance son passeport numérique pour artistes

Authentifiez vos créations IA : Adobe lance son passeport numérique pour artistes

À l’heure où les images générées par intelligence artificielle se multiplient, et où la propriété des contenus visuels devient floue, Adobe lance un outil innovant pour restaurer la transparence et l’authenticité des œuvres numériques : l’application Content Authenticity, désormais accessible à tous en bêta publique gratuite.

Qu’est-ce que Content Authenticity d’Adobe ?

Il s’agit d’un outil en ligne permettant aux artistes, designers, photographes, illustrateurs et autres créateurs numériques de « signer » leurs œuvres numériques de manière invisible, mais traçable.

L’app ajoute aux fichiers des Content Credentials, des métadonnées sécurisées, qui permettent de :

  • Authentifier l’auteur (nom, profil LinkedIn vérifié, réseaux sociaux associés)
  • Déclarer les outils utilisés (Adobe ou autres)
  • Indiquer si le fichier a été retouché ou généré par IA
  • Expliquer si l’œuvre peut être utilisée pour entraîner des modèles d’IA

Quels types de fichiers sont pris en charge ?

Actuellement, la version bêta permet d’ajouter des Content Credentials à : JPG et PNG. Peu importe si l’image a été créée avec un logiciel Adobe ou non. L’objectif est d’en faire un standard universel.

Adobe prévoit d’ajouter prochainement le support pour la vidéo, l’audio, et les fichiers vectoriels, rendant l’outil utile à une variété croissante de créateurs.

Comment ça fonctionne ?

  1. Inscription sur le site officiel de Content Authenticity
  2. Création d’un profil créateur
  3. Vérification du nom via LinkedIn (facultatif, mais recommandé)
  4. Connexion éventuelle à des comptes de réseaux sociaux
  5. Ajout de préférences pour l’entraînement IA
  6. Téléversement des fichiers (jusqu’à 50 à la fois) pour y intégrer vos métadonnées

Une fois l’opération faite, les fichiers restent signés même en cas de capture d’écran ou de recadrage.

media 17009540db1321c5c4a37cff57

Comment consulter les « Content Credentials » ?

Pour afficher les données intégrées à un fichier, plusieurs options :

  • Extension Chrome gratuite (disponible dès maintenant)
  • Chargement manuel sur le site Web
  • À venir : intégration dans les réseaux sociaux comme LinkedIn, où il sera possible de cliquer sur une image pour afficher les informations du créateur

media 1857dfced6b67c01f9466ef639

Une réponse proactive face aux IA génératives

Adobe va plus loin en ajoutant une fonction encore expérimentale, mais prometteuse : le droit de refuser que ses œuvres servent à entraîner des IA. Ce droit, non encore encadré par la loi, pourrait préfigurer une future réglementation internationale sur les données d’entraînement des IA.

À terme, Adobe intégrera Content Authenticity dans :

  • Photoshop
  • Illustrator
  • Premiere Pro
  • Lightroom

Les créateurs pourront alors signer leurs œuvres directement depuis leur logiciel, facilitant une adoption massive du système.

Pourquoi cette innovation est cruciale ?

À l’ère du deepfake, du plagiat automatisé et des images générées à la volée par IA, les créateurs ont besoin de reprendre le contrôle. Avec Content Authenticity, Adobe ne propose pas un simple gadget, mais un véritable certificat d’origine numérique, infalsifiable, non intrusif, et interopérable.

C’est aussi un outil précieux pour les journalistes, agences créatives, auteurs, photographes de presse ou dessinateurs, pour prouver l’authenticité de leur travail.

Lire plus
Intelligence Artificielle

ChatGPT Deep Research devient gratuit (en partie) ! L’IA au service de tous

ChatGPT Deep Research devient gratuit (en partie) ! L'IA au service de tous

Dans un monde saturé de promesses autour de l’IA, rares sont les fonctionnalités réellement utiles qui tiennent leurs promesses. Parmi elles, la fonction Deep Research de ChatGPT s’est imposée comme l’un des outils les plus puissants — mais aussi les plus exclusifs.

Bonne nouvelle : OpenAI vient d’annoncer une version allégée et gratuite de Deep Research, propulsée par son nouveau modèle de langage o4-mini.

ChatGPT Deep Research : Une fonctionnalité jusque-là réservée à une élite payante

Jusqu’à présent, Deep Research était réservé aux abonnés des offres payantes de ChatGPT. Cette fonctionnalité permet à l’IA de réaliser une recherche poussée sur n’importe quel sujet, en parcourant le web de façon autonome pour rédiger un rapport structuré, presque comme un mémoire universitaire. Le résultat n’a rien à voir avec une simple réponse de chatbot : titres, tableaux, citations, sources académiques ou institutionnelles… tout y est.

En pratique, cela permet de gagner des heures de recherche et de rédaction. Il suffit de définir le sujet, les types de sources souhaitées (études, communiqués de presse, articles spécialisés, etc.) et l’IA s’occupe du reste. L’intelligence de la réponse et sa structure font de cet outil un véritable assistant de recherche personnel.

Une version allégée, mais puissante… et surtout gratuite

chatgpt deep research image3

Avec son nouveau modèle de langage o4-mini, OpenAI rend enfin cette technologie accessible à tous. Cette version “lightweight” de Deep Research est gratuite et ne nécessite aucun abonnement. OpenAI précise qu’elle a été conçue pour être plus économique en ressources tout en conservant une qualité de réponse élevée.

Concrètement, les utilisateurs de la version gratuite de ChatGPT peuvent désormais lancer jusqu’à 5 recherches Deep Research par mois, contre une seule auparavant. Cette limite peut paraître modeste, mais elle ouvre la porte à de nombreux cas d’usage pour les étudiants, les chercheurs indépendants ou les professionnels qui ne souhaitent pas investir dans un abonnement.

Des quotas plus généreux pour les abonnés

Pour les abonnés à l’offre ChatGPT Plus à 20 dollars/mois, la limite passe à 25 recherches approfondies par mois. Ce même quota s’applique également aux formules Education, Team et Enterprise. Quant à l’offre Pro à 200 dollars/mois, elle autorise jusqu’à 250 recherches complètes mensuelles.

Une fois ce quota atteint, les utilisateurs basculent automatiquement sur la version allégée. OpenAI assure que cette version “light” reste presque aussi intelligente que l’originale, bien que les réponses soient plus courtes. L’essentiel, à savoir la qualité et la pertinence des recherches, est conservé.

Pourquoi c’est un changement important ?

Cette annonce marque une démocratisation des outils de recherche avancée alimentés par l’IA. Jusque-là, seuls les professionnels et abonnés premium pouvaient accéder à ces assistants virtuels capables de synthétiser des informations complexes. Aujourd’hui, tout utilisateur gratuit peut profiter de cette intelligence, dans une limite raisonnable, sans compromis sur la qualité.

Alors que des concurrents comme Google (Gemini), Microsoft (Copilot) ou Perplexity offrent des services similaires, OpenAI réussit ici à allier performance et accessibilité, ce qui pourrait bien rebattre les cartes sur le marché très concurrentiel des assistants IA.

Avec la version gratuite de Deep Research, OpenAI met entre les mains du grand public un outil habituellement réservé aux abonnés premium. Moins impressionnant dans la forme, certes, mais toujours redoutablement efficace, cet assistant de recherche marque une étape importante dans l’accès démocratique à l’IA de haut niveau.

Un pas de plus vers une intelligence artificielle réellement utile, pensée pour faciliter le travail, la recherche et l’apprentissage — bien au-delà des simples réponses de chatbot ou des générateurs d’images fantaisistes.

Lire plus
Intelligence Artificielle

Dire « merci » à ChatGPT coûte cher (en énergie), révèle Sam Altman

Dire « merci » à ChatGPT coûte cher (en énergie), révèle Sam Altman

On a tous entendu l’expression : « La politesse ne coûte rien ». Mais à l’ère des intelligences artificielles génératives, cette maxime pourrait bien devoir être révisée. Selon Sam Altman, le PDG d’OpenAI, la courtoisie avec ChatGPT a bel et bien un coût — énergétique.

Tout est parti d’une remarque anodine sur X. Un internaute s’interrogeait : combien OpenAI dépense-t-elle pour traiter les « please » et « thank you » adressés à ChatGPT ? À la surprise générale, Sam Altman a directement répondu : « Des dizaines de millions de dollars bien dépensés ». Avant d’ajouter : « On ne sait jamais ».

Derrière cette boutade se cache une réalité tangible : chaque mot envoyé à un modèle de langage gourmand en puissance de calcul — comme GPT-4 — consomme de l’énergie. Et plus la requête est longue, plus le coût énergétique grimpe. Or, les expressions de politesse, aussi bienveillantes soient-elles, ajoutent inutilement du poids à des milliards d’interactions quotidiennes dans le monde entier.

Être poli avec une IA : un réflexe humain

La plupart des utilisateurs interagissent avec ChatGPT, Claude ou d’autres assistants IA comme s’ils parlaient à un humain. Un réflexe social naturel. Une étude menée aux États-Unis l’an dernier a révélé que 67 % des répondants affirmaient s’adresser poliment aux chatbots, contre 33 % qui préfèrent aller droit au but.

Cette tendance à l’anthropomorphisme est amplifiée par la fluidité des échanges avec les IA modernes, dont le ton, le style et les tournures imitent ceux d’un interlocuteur humain. Pour beaucoup, dire « merci » à une machine est devenu instinctif — et pour certains, même rassurant.

do you say thanks to chatgpt v0

Faut-il arrêter d’être poli avec ChatGPT ?

La question est donc posée : faut-il sacrifier la politesse pour réduire la consommation énergétique ? D’un point de vue purement technique, cela aurait un impact. Mais cela soulève d’autres interrogations plus profondes, éthiques, sociales… voire psychologiques.

D’un côté, être plus direct pourrait contribuer à réduire légèrement la charge énergétique des datacenters, encore largement alimentés par des énergies fossiles. Mais de l’autre, perdre l’habitude d’être courtois dans un environnement conversationnel pourrait peu à peu influencer nos rapports humains.

La politesse, moteur de performance ?

Plus étonnant encore : de récentes recherches ont montré que le ton utilisé dans une requête peut influencer la qualité des réponses générées par une IA. Des prompts impolis ou abrupts peuvent entraîner davantage d’erreurs, de biais ou d’oublis d’informations dans les réponses fournies par le modèle.

Autrement dit, être poli avec une IA ne serait pas seulement un geste civique, mais aussi un moyen d’obtenir de meilleures réponses.

Une question environnementale… mais aussi sociétale

À l’heure où les grandes entreprises d’IA — OpenAI, Google, Anthropic — cherchent à réduire l’empreinte carbone de leurs modèles, chaque optimisation compte. Mais faut-il pour autant encourager l’impolitesse ? Certains chercheurs s’inquiètent de la manière dont la normalisation d’un ton brusque envers les machines pourrait « déteindre » sur nos interactions humaines.

Si nous nous habituons à parler aux IA sans ménagement, ne risquons-nous pas de devenir progressivement moins courtois entre nous ?

Alors, on dit « merci » ou pas ?

Entre efficacité énergétique, qualité de réponse et conséquences sociales, la question de la politesse envers les IA est plus complexe qu’il n’y paraît.

  • Doit-on continuer à dire « merci » à ChatGPT, quitte à consommer un peu plus ?
  • Ou faut-il optimiser nos messages comme du code, en supprimant toute fioriture ?

Pour l’instant, il n’y a pas de bonne réponse. Peut-être que l’idéal est de rester conscient de notre langage, de son impact, sans tomber dans l’excès ni d’un côté ni de l’autre. La courtoisie n’est peut-être pas indispensable pour une IA, mais elle reste essentielle pour nous, humains.

Lire plus
Intelligence Artificielle

Adobe Firefly 4 : IA révolutionne image, vidéo, vectoriel et collab !

Adobe Firefly 4 : IA révolutionne image, vidéo, vectoriel et collab !

Adobe vient de dévoiler une évolution majeure de sa plateforme d’intelligence artificielle créative avec le lancement de Firefly Image Model 4, accompagné d’un arsenal de nouveaux outils pour la génération d’images, de vidéos, de contenus vectoriels et d’expériences collaboratives.

Le tout est désormais accessible via une nouvelle application Web centralisée, avec une version mobile actuellement en développement pour iOS et Android.

Firefly Image Model 4 et Ultra : entre précision extrême et vitesse de génération

Le modèle Firefly Image Model 4 offre une nette amélioration en termes de qualité d’image, de rapidité d’exécution et surtout de contrôle sur la structure des rendus, les styles visuels, les angles de caméra ou encore les formats de sortie. Il est capable de générer des images en résolution jusqu’à 2K, avec une finesse de détails inédite. Adobe propose également une variante plus puissante appelée Image Model 4 Ultra, spécifiquement conçue pour la génération de scènes riches en structures complexes et en éléments détaillés.

Selon Alexandru Costin, vice-président en charge de l’IA générative chez Adobe, ces modèles ont été entraînés à l’aide d’une puissance de calcul bien supérieure aux générations précédentes. Ils intègrent également des fonctions avancées, comme la possibilité d’utiliser des images de référence pour générer du contenu dans un style précis, ou encore une meilleure capacité à intégrer du texte dans les visuels.

GPT

Génération vidéo à partir de texte : Firefly passe à l’image animée

Lancé en bêta l’an dernier, le Firefly Video Model est désormais ouvert à tous les utilisateurs. Ce modèle permet de générer des clips vidéo directement à partir d’un prompt textuel ou d’une image, avec la possibilité de spécifier les angles de caméra, les cadres de début et de fin, les éléments atmosphériques ou encore le style des mouvements.

Les vidéos générées peuvent atteindre une qualité de 1080p, avec un rendu dynamique particulièrement adapté aux réseaux sociaux et aux contenus publicitaires.

Le modèle vectoriel : de l’IA au design graphique

Adobe introduit également un tout nouveau Firefly Vector Model, capable de générer des visuels vectoriels éditables à la volée. Ce modèle est pensé pour les professionnels du design graphique : il peut créer ou décliner des logos, des packagings, des icônes, des motifs ou encore des scènes stylisées, tout en restant pleinement compatible avec Illustrator.

Firefly Boards: la collaboration créative réinventée

Parmi les nouveautés les plus marquantes, on retrouve également Firefly Boards, un espace collaboratif pour générer des idées et construire des moodboards. Disponible en version bêta via l’application Firefly, cet outil permet de générer ou importer des images, les organiser visuellement, les remixer et collaborer avec d’autres membres de l’équipe — une solution proche de FigJam ou Visual Electric, mais boostée à l’IA.

Screen 2025 04 24 at 11.40.35

Une plateforme ouverte aux IA concurrentes

L’application Web Firefly devient désormais un hub central qui permet aux utilisateurs d’alterner entre les modèles Adobe et ceux d’acteurs tiers. On peut ainsi générer des images via GPT Image d’OpenAI, Imagen 3 ou Veo 2 de Google, ou encore Flux 1.1 Pro. Adobe précise toutefois que ces modèles externes sont proposés à titre exploratoire, et ne sont pas destinés à des usages commerciaux. Toutes les créations génèrent des credentials de contenu intégrés, assurant leur traçabilité et leur origine.

Des outils pour une IA éthique et responsable

Dans une démarche de transparence et de responsabilité, Adobe teste actuellement une nouvelle application Web nommée Adobe Content Authenticity. Cet outil permet d’attacher des métadonnées de propriété aux œuvres créées, mais aussi de signaler si un fichier peut ou non être utilisé pour l’entraînement de modèles d’IA. Par ailleurs, Adobe garantit que ses modèles Firefly sont entraînés uniquement à partir de contenus sous licence ou libres de droits, contrairement à d’autres acteurs du secteur.

Avec cette nouvelle génération Firefly, Adobe ne se contente pas de suivre les tendances : l’entreprise redéfinit les standards de la création visuelle assistée par IA, en intégrant performance, contrôle créatif, collaboration et responsabilité. Que vous soyez artiste, designer, vidéaste ou développeur de contenu, cette suite d’outils vous offre une flexibilité sans précédent, avec une qualité professionnelle et une attention particulière aux droits d’auteur. Et ce n’est que le début.

Lire plus