fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Rumeurs sur le projet « Strawberry » : OpenAI prépare-t-elle GPT-5 ?

Rumeurs sur le projet « Strawberry » : OpenAI prépare-t-elle GPT-5 ?

Alors que la concurrence commence à rattraper OpenAI et son célèbre modèle GPT-4o, l’attention se tourne vers les prochaines innovations du géant de la recherche en IA. Cette semaine, Sam Altman, fondateur de l’entreprise, a peut-être teasé la nouvelle version tant attendue : « Strawberry », alias GPT-5.

Le mercredi 7 août, Altman a partagé sur X (anciennement Twitter) une photo de fraises poussant dans des jardinières, accompagnée de la légende « j’adore l’été dans le jardin ». Ce qui pourrait passer pour un post anodin a pourtant déclenché une vague de spéculations parmi ses abonnés et la communauté IA.

Une subtile allusion au nouveau modèle GPT-5 ?

Depuis un certain temps, des rumeurs circulent concernant les futurs projets d’OpenAI. La principale évoque le développement d’un modèle de fondation appelé « Strawberry », que beaucoup soupçonnent d’être la future version tant attendue, potentiellement le fameux GPT-5.

Bindu Reddy, PDG d’une startup IA, a clarifié cette référence en déclarant : « C’est une allusion au Projet Strawberry (le nouveau Q*) — un projet de raisonnement sur lequel OpenAI travaillerait depuis plus d’un an maintenant… ».

Le projet « Strawberry » a été évoqué pour la première fois dans un article de Reuters le 12 juillet. Selon ce rapport, OpenAI travaillerait sur une approche novatrice de ses modèles d’intelligence artificielle, sous le nom de code « Strawberry ». Un informateur anonyme, ainsi que des documents internes consultés par Reuters, confirment l’existence de ce projet.

D’après cette source, « le fonctionnement de Strawberry est un secret bien gardé, même au sein d’OpenAI ». Les documents décrivent l’objectif du projet comme étant capable de « non seulement générer des réponses à des requêtes, mais également planifier suffisamment pour naviguer de manière autonome et fiable sur Internet ».

Lorsque Reuters a interrogé OpenAI sur ce sujet, un porte-parole a déclaré : « Nous voulons que nos modèles d’IA voient et comprennent le monde comme nous le faisons. La recherche continue sur de nouvelles capacités d’IA est une pratique courante dans l’industrie, avec la conviction partagée que ces systèmes s’amélioreront en raisonnement au fil du temps ». Cependant, aucune réponse directe n’a été donnée concernant le projet supposé. Néanmoins, la récente publication d’Altman sur les réseaux sociaux a été perçue comme une confirmation implicite de ces rumeurs.

Vers une nouvelle ère de l’intelligence artificielle ?

Si le projet Strawberry est bel et bien en cours de développement, cela pourrait marquer un tournant majeur dans l’évolution des modèles d’intelligence artificielle. L’ambition d’OpenAI de créer des modèles capables de comprendre et d’interagir avec le monde de manière plus humaine ouvre la voie à des applications plus sophistiquées et autonomes.

Alors que la communauté attend avec impatience des informations officielles, la spéculation autour de « Strawberry » continue de croître. Si ces rumeurs se confirment, OpenAI pourrait une fois de plus redéfinir les standards de l’intelligence artificielle.

Cependant, la question reste : que réserve vraiment le projet Strawberry ? Une chose est certaine, l’été au jardin semble avoir pris une toute nouvelle signification pour Sam Altman et OpenAI.

Lire plus
Intelligence Artificielle

Apple Intelligence+ : La nouvelle offre d’abonnement IA d’Apple en préparation

Apple Intelligence+ : La nouvelle offre d’abonnement IA d’Apple en préparation

Apple pourrait bientôt révolutionner la manière dont ses utilisateurs interagissent avec son écosystème en transformant certaines de ses fonctionnalités d’intelligence artificielle (IA) avancées en services d’abonnement payants. Selon des rapports récents, cette nouvelle stratégie pourrait coûter jusqu’à 20 dollars par mois aux utilisateurs, reflétant l’accent croissant d’Apple sur la monétisation des logiciels et des services.

Les services d’abonnement payants sont monnaie courante parmi les géants de la technologie. Par exemple, l’extension de stockage sur Google Drive commence à 2 euros par mois pour 100 Go supplémentaires. De même, Microsoft propose son Xbox Game Pass Core à 10 euros par mois. Apple ne fait pas exception à cette tendance.

En juillet, Mark Gurman de Bloomberg a révélé que Apple Intelligence serait initialement gratuit, mais que la stratégie à long terme de la société pourrait inclure une version premium, potentiellement nommée « Apple Intelligence+ ». Ce service, analogue à iCloud+, offrirait des fonctionnalités améliorées pour un tarif mensuel, fournissant aux utilisateurs des capacités d’IA avancées justifiant le coût supplémentaire.

Attentes en matière de tarification et modèle Apple One pour Apple Intelligence

Neil Shah, analyste chez Counterpoint Research, a indiqué à CNBC qu’Apple pourrait intégrer ces fonctionnalités IA dans une version modifiée de son abonnement Apple One. Shah a estimé que le prix de ce service amélioré pourrait varier entre 10 et 20 dollars par mois. Actuellement, Apple One coûte 19,95 euros par mois et inclut des services populaires tels qu’Apple Music, Apple TV+, Apple Fitness+ et du stockage cloud supplémentaire. Ajouter des fonctionnalités basées sur l’IA pourrait rendre ce package encore plus attractif pour les utilisateurs.

« Apple a réussi à monétiser des services à valeur ajoutée dans son écosystème de produits, et l’IA pourrait être la prochaine frontière », a déclaré Shah.

Il s’agirait d’un modèle similaire utilisé par d’autres produits d’intelligence artificielle proposés par des sociétés comme OpenAI, Google et Microsoft. Vous pouvez utiliser gratuitement des produits comme ChatGPT 3.5, Gemini et Copilot, mais les modèles d’IA plus avancés et les fonctionnalités comme Gemini Advanced nécessitent un abonnement. Il est à noter que cela correspond également à des rumeurs antérieures selon lesquelles Apple ferait payer l’Apple Intelligence+.

Pour toutes ces entreprises, l’idée est en partie de se décharger de certains des coûts élevés liés à la prise en charge de ces modèles d’IA. Il s’agit notamment des coûts de recherche et de développement, des coûts des serveurs et des coûts énergétiques, qui dépassent la demande en matière d’IA pour le grand public et les entreprises. Même OpenAI fonctionnant à perte, après avoir dépensé 8,5 milliards de dollars en formation et en personnel pour l’IA, il reste à voir si Apple est capable de monétiser l’Apple Intelligence. Si c’est le cas, cela pourrait être un modèle pour le reste de l’industrie ou simplement parce qu’Apple est mieux placé que ses concurrents pour monétiser ces offres en raison de sa position sur le marché.

Précédent des services payants

Ben Wood, chef de la recherche chez CCS Insight, a souligné qu’Apple a déjà établi un précédent solide en facturant des services premium. Il ne serait donc pas surprenant que la société étende cette approche à ses offres d’IA. Wood a également mentionné que Apple pourrait introduire un nouveau palier au sein d’Apple One, regroupant divers services sous un prix unique et unifié.

Cette stratégie s’aligne avec les objectifs plus larges d’Apple d’expansion de ses revenus issus des services, qui ont connu une croissance substantielle. Au seul trimestre de juin, Apple a rapporté un chiffre d’affaires record de 24,2 milliards de dollars provenant des services, contre 21,2 milliards de dollars l’année précédente. Les analystes pensent que, en intégrant des fonctionnalités d’IA à ce flux de revenus, Apple pourrait compenser le rythme plus lent de l’innovation matérielle et répercuter les coûts élevés associés au développement de l’IA sur les clients.

Lire plus
Intelligence Artificielle

Raspberry Pi et Cambridge lancent un guide pour intégrer l’IA en classe

Raspberry Pi et Cambridge lancent un guide pour intégrer l’IA en classe

Le Raspberry Pi Computing Education Research Centre, en collaboration avec la faculté d’éducation de l’université de Cambridge, a publié un guide complet destiné à aider les enseignants à comprendre et à utiliser l’IA générative dans le cadre de l’enseignement.

Le guide de l’IA pour les enseignants aborde les avantages et les défis de l’IA générative, en offrant des conseils pratiques et des ressources pour les enseignants et les écoles.

L’IA générative : remodeler le paysage éducatif

Les outils d’IA générative transforment l’éducation en créant de nouvelles opportunités pour l’enseignement et l’apprentissage. Ces outils puissants peuvent :

  • Générer du contenu éducatif
  • Aider les étudiants à effectuer des tâches de programmation
  • Fournir des expériences d’apprentissage personnalisées

Cependant, l’intégration de l’IA dans l’éducation soulève également des inquiétudes concernant la confidentialité des données et le risque de plagiat. En tant qu’enseignant, il est essentiel de comprendre ces implications pour garantir une utilisation responsable et efficace de l’IA dans votre classe.

Permettre aux enseignants d’utiliser des stratégies d’enseignement de l’IA

Enseigner les concepts de l’IA et de l’apprentissage automatique peut s’avérer difficile, en particulier pour les enseignants qui ne connaissent pas ces sujets. Le guide recommande des ressources telles que « Experience AI », qui fournissent des connaissances de base et vous permettent de présenter plus facilement ces sujets complexes à vos élèves. En outre, le guide propose des activités créatives en classe qui peuvent aider les élèves à comprendre les limites et les inexactitudes de l’IA, en favorisant l’esprit critique. Ces activités attrayantes permettent non seulement de capter l’attention des élèves, mais aussi de souligner l’importance de la vérification du contenu généré par l’IA.

L’IA générative est sur le point de transformer l’enseignement de la programmation. En intégrant l’IA dans les environnements de programmation, vous pouvez améliorer l’expérience d’apprentissage de vos étudiants. Le guide met en évidence les recherches en cours et les séries de séminaires qui fournissent des informations précieuses sur la manière dont l’IA peut être utilisée pour enseigner plus efficacement la programmation textuelle. En restant informé des dernières tendances et méthodologies, vous pouvez vous assurer que vos pratiques d’enseignement restent pertinentes et efficaces.

Exploiter les outils d’IA pour soutenir l’enseignement et l’apprentissage

Les outils d’IA ont le potentiel d’augmenter de manière significative la productivité dans les environnements éducatifs. Par exemple, l’IA peut résumer des textes et générer des questions, ce qui vous permet d’économiser du temps et des efforts. Toutefois, le guide souligne l’importance de vérifier l’exactitude du contenu généré par l’IA afin de s’assurer qu’il répond aux normes éducatives. Ce processus de vérification est essentiel pour maintenir la qualité et la fiabilité des informations fournies à vos élèves.

Mise en œuvre de politiques d’IA à l’échelle de l’établissement

Pour maintenir un environnement d’apprentissage sûr et éthique, le guide recommande de mettre en œuvre une politique d’utilisation acceptable (PUA) pour les outils d’IA.

Des exemples de PUA et de lignes directrices sont fournis pour vous aider à garantir la sécurité électronique, la protection de la vie privée et la transparence dans votre école. Le guide souligne l’importance d’impliquer un large éventail de parties prenantes dans le processus d’élaboration de la politique afin de répondre aux diverses préoccupations et de parvenir à un consensus sur l’utilisation acceptable de l’IA.

Préparer l’avenir de l’IA dans l’éducation

Le domaine de l’IA est en constante évolution et il est essentiel pour les enseignants de se tenir informés des impacts actuels et des orientations futures. Le guide fournit une vue d’ensemble détaillée de ces aspects, vous aidant à vous préparer aux changements à venir. Des exemples de cas d’utilisation illustrent des applications pratiques de l’IA dans le domaine de l’éducation, vous offrant une feuille de route pour l’intégration de ces technologies dans vos pratiques d’enseignement.

Le Raspberry Pi Computing Education Research Centre et la faculté d’éducation de l’université de Cambridge ont mis au point une ressource inestimable pour les éducateurs qui cherchent à exploiter la puissance de l’IA générative. En vous dotant des connaissances et des outils nécessaires pour naviguer dans la complexité de l’intégration de l’IA, ce guide vous permet d’améliorer les expériences d’enseignement et d’apprentissage tout en abordant des questions cruciales telles que la confidentialité des données, le plagiat et la création de politiques. Adoptez l’avenir de l’éducation en suivant les recommandations du guide et intégrez en toute confiance l’IA dans vos pratiques éducatives.

Lire plus
Intelligence Artificielle

Reddit introduit la recherche par IA et explore les subreddits premium

Reddit introduit la recherche par IA et explore les subreddits premium

Reddit se prépare à lancer des pages de résultats de recherche alimentées par l’IA, rejoignant ainsi Google et Microsoft dans cette tendance croissante. Steve Huffman, co-fondateur et PDG de Reddit, a annoncé cette initiative lors du dernier appel de résultats de la société.

Ces nouvelles pages auront pour but de « résumer et recommander du contenu », aidant les utilisateurs à « approfondir » leurs recherches et à découvrir de nouvelles communautés sur Reddit.

Huffman a expliqué que Reddit utilisera un mélange de technologies internes et tierces pour alimenter cette nouvelle fonctionnalité. Les tests devraient débuter d’ici la fin de l’année. Cette initiative fait suite à des partenariats stratégiques, notamment avec OpenAI et Google, visant à intégrer des modèles de langage avancés et à optimiser les performances publicitaires.

Outre les résultats de recherche alimentés par l’IA, Reddit explore de nouvelles sources de revenus en dehors de la publicité traditionnelle. Huffman a mentionné la possibilité d’introduire des subreddits payants, offrant du contenu exclusif et des zones privées. Cela permettrait à Reddit de diversifier ses sources de revenus tout en offrant de nouvelles opportunités aux créateurs de contenu.

Je pense que la version existante, altruiste et gratuite de Reddit continuera d’exister et de prospérer comme elle l’a toujours fait. Mais maintenant, nous ouvrirons la porte à de nouveaux cas d’utilisation, à de nouveaux types de subreddits qui pourront être construits avec du contenu exclusif ou des zones privées, ce genre de choses. — Steve Huffman, co-fondateur et PDG de Reddit, août 2024

Impressionnante croissance de Reddit

Lors du deuxième trimestre, Reddit a rapporté 342,3 millions d’utilisateurs actifs hebdomadaires, une augmentation de 57 % par rapport à l’année précédente. Les revenus ont également grimpé à 281,2 millions de dollars, surpassant les estimations de Wall Street fixées à 253,8 millions de dollars.

Plus tôt cette année, Reddit s’est associé à OpenAI pour développer des fonctionnalités pilotées par l’IA destinées aux utilisateurs et aux modérateurs. Cet accord permet également à OpenAI d’utiliser les données de Reddit pour améliorer ses modèles. Reddit a également signé un accord similaire avec Google et a récemment acquis la startup Memorable AI pour améliorer les performances publicitaires sur la plateforme.

Ces initiatives montrent clairement que Reddit se positionne pour tirer parti des technologies de l’IA, non seulement pour améliorer l’expérience utilisateur, mais aussi pour explorer de nouvelles avenues de monétisation et de croissance. Alors que la communauté Reddit continue de croître, ces innovations pourraient offrir des opportunités intéressantes tant pour les utilisateurs que pour les créateurs de contenu.

Lire plus
Intelligence Artificielle

John Schulman rejoint Anthropic, OpenAI perd un autre cofondateur

OpenAI perd un autre cofondateur : John Schulman rejoint Anthropic

John Schulman, cofondateur de OpenAI, a quitté OpenAI et a décidé de rejoindre le laboratoire d’IA concurrent, Anthropic. D’autre part, Greg Brockman, président d’OpenAI et l’un des cofondateurs, a pris un « congé sabbatique » jusqu’à la fin de l’année.

D’abord rapporté par The Information, et officiellement confirmé par Schulman et Brockman sur X, il semble que la direction de OpenAI traverse à nouveau une période de transition.

Après que Jan Leike a démissionné d’OpenAI et rejoint Anthropic en mai en raison d’un manque de calcul pour la recherche sur l’alignement et de problèmes de sécurité, John Schulman est devenu le chef de la recherche sur l’alignement au sein de l’entreprise. Schulman a également été récemment nommé membre du comité de sécurité de OpenAI. Dans ce contexte, la démission semble particulièrement surprenante.

Cela dit, Schulman déclare : « Pour être clair, je ne pars pas en raison d’un manque de soutien à la recherche sur l’alignement au sein de OpenAI. Au contraire, les dirigeants de l’entreprise se sont engagés à investir dans ce domaine ».

Sa décision de rejoindre Anthropic est « personnelle » et vise à acquérir « de nouvelles perspectives et à faire de la recherche aux côtés de personnes profondément engagées dans les sujets qui m’intéressent le plus ».

Après le départ de John Schulman, il reste seulement 3 membres fondateurs de OpenAI

Greg Brockman, qui est considéré comme un proche confident du PDG d’OpenAI, Sam Altman, déclare : « Je prends un congé sabbatique jusqu’à la fin de l’année. C’est la première fois que je me détends depuis que j’ai cofondé OpenAI il y a 9 ans. La mission est loin d’être achevée ; il nous reste à construire un AGI sûr ».

Il convient de noter que Ilya Sutskever, cofondateur d’OpenAI et ancien scientifique en chef, a lui aussi récemment quitté la société et lancé sa nouvelle entreprise, Safe Superintelligence Inc. Après le départ de nombreux membres fondateurs, seuls trois d’entre eux font encore partie d’OpenAI : Sam Altman, Greg Brockman et Wojciech Zaremba.

Lire plus
Intelligence Artificielle

Pourquoi OpenAI hésite à lancer son outil de filigrane pour ChatGPT ?

Pourquoi OpenAI hésite à lancer son outil de filigrane pour ChatGPT ?

OpenAI, la société à l’origine de ChatGPT, a mis au point un outil permettant de déterminer si le grand modèle linguistique a généré un morceau de texte, mais elle hésite à le diffuser en raison des réactions négatives de ses clients.

L’outil de détection consiste à filigraner le texte, c’est-à-dire à modifier légèrement la façon dont ChatGPT sélectionne ses mots de manière à ce qu’un outil connaissant le filigrane puisse le détecter avec un degré élevé de précision.

Selon le Wall Street Journal, il suffirait d’appuyer sur un bouton pour que l’outil de détection soit disponible, mais les résultats d’une enquête ont montré que près de 30 % des utilisateurs de ChatGPT utiliseraient moins l’outil d’intelligence artificielle (IA) s’il utilisait le filigrane alors que les chatbots concurrents ne le faisaient pas.

Pourquoi OpenAI n’a-t-elle pas publié l’outil de détection du ChatGPT ?

Selon une porte-parole de OpenAI, « la méthode de filigrane que nous développons est techniquement prometteuse, mais comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives ». « Nous pensons que l’approche délibérée que nous avons adoptée est nécessaire étant donné les complexités impliquées et de son impact probable sur l’écosystème élargi au-delà de OpenAI ».

L’entreprise a également mis à jour une page de son site Web pour développer certains de ses raisonnements. L’une de ses principales préoccupations est le fait que le filigrane pourrait « avoir un impact disproportionné sur certains groupes », en particulier les personnes dont l’anglais n’est pas la langue maternelle et qui utilisent l’IA comme outil d’écriture.

Ils s’inquiètent également de la facilité avec laquelle le filigrane pourrait être contourné, déclarant : « Alors qu’il s’est avéré très précis et même efficace contre les altérations localisées, telles que la paraphrase, il est moins robuste contre les altérations globales, telles que l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d’insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère — ce qui le rend facile à contourner par de mauvais acteurs ».

Sur la même page, OpenAI mentionne également qu’elle s’est concentrée sur le développement d’outils de détection de contenu audiovisuel, car les images, le son et les vidéos « sont largement considérés comme présentant des niveaux de risque plus élevés à ce stade des capacités de nos modèles ».

Pourquoi une détection efficace de l’IA est-elle si importante ?

Selon le Wall Street Journal, une récente enquête menée par le Center for Democracy and Technology a montré que 59 % des enseignants de collège et de lycée sont certains que certains élèves utilisent l’IA dans leur travail, contre 42 % l’année précédente, et les débats sur l’IA dans l’éducation font rage.

L’un des problèmes réside dans le manque d’outils efficaces de détection de l’IA. Il en existe de nombreux, mais les plus performants sont bloqués derrière des abonnements, et même ces outils ne sont pas à l’abri de faux positifs et d’autres défaillances. Il existe quelques moyens de savoir si une IA a écrit un texte, mais au fur et à mesure que la technologie qui sous-tend ces LLM devient plus sophistiquée, il sera de plus en plus difficile de la détecter.

Au fur et à mesure que les parties internes à OpenAI comprennent que la méthode du filigrane n’affectera pas la qualité des résultats de ChatGPT, les pressions internes pour retenir l’outil s’intensifient. « Notre capacité à défendre notre absence de filigrane textuel est faible maintenant que nous savons qu’il ne dégrade pas les résultats », ont déclaré des employés qui ont participé aux tests de l’outil, selon des documents internes consultés par le Wall Street Journal. « Sans cela, nous risquons de perdre notre crédibilité en tant qu’acteurs responsables », peut-on lire dans un résumé d’une récente réunion sur la question de la détection de l’IA.

 

Lire plus
Intelligence Artificielle

OpenAI renforce les restrictions d’accès pour les développeurs chinois

OpenAI renforce les restrictions d’accès pour les développeurs chinois

OpenAI a récemment intensifié ses mesures pour empêcher les développeurs chinois d’accéder à ses Large Language Model (LLM) et à ses API, rendant ainsi l’utilisation de ces technologies impossible pour les développeurs basés en Chine. Cette décision fait suite à la mise en place d’un blocage initial le 9 juillet, après que de nombreux développeurs chinois ont contourné les restrictions en utilisant des VPN.

Le motif exact de ces nouvelles restrictions n’a pas été clairement communiqué. Cependant, il est largement supposé que ces mesures font partie des sanctions technologiques imposées par les États-Unis à la Chine, qui se concentraient initialement sur le matériel. La rivalité technologique croissante entre les États-Unis et la Chine joue également un rôle majeur dans cette interdiction.

ChatGPT, le célèbre chatbot d’OpenAI, était déjà interdit en Chine, bloqué derrière le pare-feu du pays. Malgré cette interdiction, certains développeurs parvenaient à accéder aux technologies d’OpenAI via des VPN. Cependant, avec la nouvelle interdiction, OpenAI cible désormais également ces accès contournés, fermant ainsi toute possibilité d’utilisation pour les développeurs chinois.

Face à ces restrictions, la Chine continue de développer ses propres solutions d’IA. Baidu, l’un des géants technologiques chinois, a récemment introduit Ernie 4.0 Turbo AI, un rival direct de ChatGPT. Cette avancée montre la détermination de la Chine à rester compétitive dans le domaine de l’IA malgré les sanctions et les restrictions américaines.

Implications pour l’avenir de l’IA en Chine

Ces restrictions renforcées d’OpenAI marquent un tournant significatif dans la dynamique technologique mondiale. La Chine, avec ses entreprises leaders dans le domaine de l’IA, pourrait accélérer ses propres développements technologiques en réponse aux blocages imposés par les États-Unis.

La guerre technologique entre les deux superpuissances ne fait que s’intensifier, impactant l’innovation et la collaboration internationales.

Lire plus
Intelligence Artificielle

Google Gemini s’enrichit d’une nouvelle voix : Choisissez l’accent de votre assistant IA

Google Gemini s’enrichit d'une nouvelle voix : Choisissez l’accent de votre assistant IA

Google Assistant permet de choisir parmi une douzaine de voix différentes, mais jusqu’à présent, Google Gemini, l’IA générative que Google prévoit de remplacer Google Assistant, n’avait qu’une seule voix. Il semble que cela soit en train de changer.

Il y a environ un mois, il a été découvert que Google travaillait sur un nouveau paramètre de voix pour Gemini. À ce moment-là, la fonctionnalité n’était pas opérationnelle et offrait l’option de choisir entre deux voix, indépendamment des paramètres de voix de Google Assistant. Cependant, il n’était pas clair à l’époque que ce réglage était destiné à Gemini.

Mais maintenant, Gemini commence à obtenir une nouvelle voix. La première voix semblait masculine (même si l’IA n’a pas de genre, vous savez), et maintenant une voix féminine fait son apparition.

Il semble que ce changement soit pour le moment un test limité et qu’il ne soit pas encore disponible mondialement.

Une excellente évolution pour Gemini

Cette nouvelle mise à jour n’est pas révolutionnaire, mais elle constitue certainement un raffinement attendu des assistants numériques. Pouvoir choisir la voix avec laquelle les assistants numériques s’expriment est un élément essentiel, et comme j’aime le dire, les options de personnalisation sont toujours une bonne chose.

Ainsi, lorsque cette mise à jour sera déployée mondialement (aucun calendrier n’est encore disponible), vous pourrez au moins choisir l’ambiance générale avec laquelle Gemini pourra vous parler. Espérons que d’autres options de voix seront ajoutées à l’avenir.

Lire plus
Intelligence Artificielle

Google introduit des extensions Gemini pour Keep, Tasks et Agenda

Google introduit des extensions Gemini pour Keep, Tasks et Agenda

Google s’apprête à lancer de nouvelles extensions pour Gemini, son modèle d’intelligence artificielle conversationnelle. Ces extensions de Gemini permettront aux utilisateurs d’interagir avec divers services Google tels que Keep, Tasks et Agenda.

Découvertes lors d’une analyse approfondie d’un fichier APK, ces fonctionnalités ont été présentées pour la première fois lors de la conférence Google I/O en mai et pourraient offrir davantage de possibilités que celles dévoilées lors des premières présentations.

L’extension Google Keep permettra aux utilisateurs de créer de nouvelles notes et listes, d’ajouter des informations aux notes existantes et de modifier les listes en ajoutant ou en supprimant des éléments. Les utilisateurs pourront ainsi créer des notes et des listes à partir de zéro ou ajouter ou retirer des informations aux notes existantes simplement en donnant des instructions à Gemini.

L’extension Google Tasks offrira la possibilité de créer de nouvelles tâches, telles que des rappels, et de consulter les tâches existantes ainsi que leurs dates d’échéance via Gemini. Cette fonctionnalité simplifiera la gestion des tâches et des rappels pour les utilisateurs.

Avec l’extension Google Agenda, les utilisateurs pourront créer de nouveaux événements dans leur calendrier, consulter les événements à venir ou ceux d’une date spécifique, et modifier les événements existants par l’intermédiaire de Gemini. Cela facilitera la planification et la gestion des rendez-vous et des événements personnels.

Des fonctionnalités Gemini encore en développement

Bien que ces fonctionnalités soient encore en cours de développement, leur apparition dans l’analyse de l’APK laisse présager des améliorations significatives de la fonctionnalité de Gemini et de son intégration avec les autres services Google. Cependant, il est important de noter que certaines de ces fonctionnalités pourraient ne pas être incluses dans la version finale.

L’ajout de ces extensions pourrait rendre Gemini encore plus utiles pour les utilisateurs, en leur permettant de gérer plus efficacement leurs notes, tâches et événements calendaires. Cela démontre également l’engagement de Google à élargir les capacités de son modèle d’IA et à en faire une partie intégrante de son écosystème.

Bien que l’étendue complète des capacités de ces extensions reste à voir, leur potentiel impact est clair. Elles pourraient transformer la manière dont les utilisateurs interagissent avec les services Google, rendant la gestion de divers aspects de leur vie plus facile et intuitive. Cela pourrait également rapprocher Gemini du niveau de fonctionnalité de l’Assistant Google, permettant ainsi à Gemini de devenir un véritable remplaçant à terme.

Lire plus
Intelligence Artificielle

OpenAI révolutionne avec GPT-4o Long Output : 64 000 tokens pour des réponses ultra-détaillées

OpenAI révolutionne avec GPT-4o Long Output : 64 000 tokens pour des réponses ultra-détaillées

OpenAI continue de surprendre le monde de l’IA avec des innovations, malgré de récentes préoccupations financières. La société, leader dans le domaine de l’IA générative, vient de dévoiler discrètement une nouvelle variante de son modèle GPT-4o : le GPT-4o Long Output.

Ce nouveau modèle offre une capacité de sortie étendue de 64 000 tokens, contre 4 000 pour le modèle initial, soit une augmentation de 16x.

Qu’est-ce qu’un token et pourquoi est-ce nécessaire ?

Les tokens sont des représentations numériques de concepts, constructions grammaticales et combinaisons de lettres et chiffres, organisés selon leur signification sémantique dans un modèle de langage. Par exemple, le mot « Bonjour » est un token, tout comme « Salut ». Vous pouvez explorer une démonstration interactive des tokens via le Tokenizer d’OpenAI.

Cette extension répond au retour des clients d’OpenAI qui nécessitent des contextes de sortie plus longs.

La phase de test alpha durera quelques semaines, permettant à OpenAI de collecter des données sur l’efficacité de cette capacité étendue. Cette nouvelle fonctionnalité est particulièrement avantageuse pour les applications nécessitant des sorties détaillées et étendues, comme l’édition de code et l’amélioration de l’écriture. En offrant des sorties plus longues, le modèle GPT-4o peut fournir des réponses plus complètes et nuancées, bénéfique pour ces cas d’utilisation.

Distinction entre contexte et sortie

Depuis son lancement, GPT-4o offrait une fenêtre contextuelle maximale de 128 000 tokens, incluant à la fois les tokens d’entrée et de sortie. Pour GPT-4o Long Output, cette fenêtre reste la même, mais la capacité de sortie est portée à 64 000 tokens, contre 4 000 auparavant. Cela signifie que les utilisateurs peuvent désormais fournir jusqu’à 64 000 tokens d’entrée pour recevoir jusqu’à 64 000 tokens en sortie, s’ils souhaitent privilégier des réponses plus longues.

Tarification compétitive

Le modèle GPT-4o Long Output est proposé à un tarif de 6 dollars par million de tokens d’entrée et 18 dollars par million de tokens de sortie. En comparaison, le tarif du GPT-4o classique est de 5 dollars par million de tokens d’entrée et 15 dollars par million de tokens de sortie, et le GPT-4o mini est à 0,15 dollar par million de tokens d’entrée et 0,60 dollar par million de tokens de sortie. Cette tarification agressive reflète la volonté d’OpenAI de rendre l’IA puissante accessible à un large éventail de développeurs.

L’alpha test en cours fournira des insights précieux sur les applications pratiques et les avantages potentiels du modèle à sortie longue. Si les retours des premiers partenaires sont positifs, OpenAI pourrait envisager d’étendre cette capacité à un plus large public, permettant ainsi à un plus grand nombre d’utilisateurs de bénéficier de sorties améliorées.

Avec le lancement de GPT-4o Long Output, OpenAI espère répondre à une gamme encore plus large de demandes clients et alimenter des applications nécessitant des réponses détaillées.

Lire plus
Intelligence Artificielle

Apple Intelligence : Les premiers pas de l’IA générative avec du matériel Google

uzpud32gsn

La version bêta pour développeurs d’Apple Intelligence, bien qu’encore accessible sur liste d’attente, suscite déjà beaucoup d’enthousiasme. Récemment, une nouvelle recherche en intelligence artificielle publiée par Apple a révélé que la société de Cupertino a utilisé du matériel Google pour les premières bases de son projet d’IA générative, Apple Intelligence.

L’article de recherche, intitulé « Apple Intelligence Foundation Language Models », détaille les sources connues du modèle de langage à la base de l’IA générative d’Apple. Un passage intrigant de cet article suggère qu’Apple aurait utilisé le matériel de Google dans les premières phases de développement.

Selon le document, le modèle de base d’Apple (AFM) et la technologie de serveur utilisée ont été initialement construits sur des « clusters Cloud TPU v4 et v5p » en utilisant des logiciels Apple. Un rapport de CNBC indique que Apple aurait loué du temps sur des clusters de serveurs hébergés par Google. Cependant, la recherche ne mentionne pas directement Google ou Nvidia, laissant plutôt penser qu’Apple a acheté le matériel à la société pour l’utiliser dans ses propres centres de données.

Malgré cette dépendance initiale au matériel de Google, l’impact sur l’avenir de la technologie reste limité. Apple prévoit d’optimiser ses applications d’IA au sein de ses propres datacenters, en s’appuyant sur du matériel basé sur Apple Silicon pour traiter les requêtes liées à Apple Intelligence.

Apple projette d’investir plus de 5 milliards de dollars dans l’amélioration de ses serveurs d’IA au cours des deux prochaines années. L’objectif est de rivaliser avec Microsoft et Meta en matière de capacités technologiques en IA, avec des plans d’acquisition de dizaines de milliers d’unités de serveurs d’IA.

Des perspectives prometteuses pour Apple Intelligence

Apple semble prendre l’IA générative très au sérieux. Les fonctionnalités d’Apple Intelligence pour iOS 18, présentées lors de la conférence de développement de l’entreprise, ont suscité un vif intérêt. Si toutes les fonctionnalités annoncées fonctionnent comme prévu, Apple pourrait rapidement dépasser les leaders actuels du marché de l’IA générative.

Ce nouvel élan d’Apple dans l’IA pourrait bien transformer l’industrie et redéfinir les standards de la technologie générative. Avec des investissements massifs et une vision claire, Apple se positionne pour devenir un acteur majeur dans le domaine de l’IA.

Lire plus
Intelligence Artificielle

OpenAI risque des pertes de 5 milliards de dollars en 2024 : L’IA générative en danger ?

openai cover

La recherche de l’intelligence artificielle générale (AGI) vaut-elle la peine de mettre en péril la stabilité financière ? Cette question se pose avec acuité alors que OpenAI, la force pionnière à l’origine de ChatGPT, est confrontée à une potentielle perte de plusieurs milliards de dollars au cours de l’année à venir.

En effet, une analyse réalisée par The Information révèle que OpenAI pourrait subir des pertes stupéfiantes allant jusqu’à 5 milliards de dollars cette année en raison des coûts énormes liés à l’exploitation de ses produits d’intelligence artificielle comme ChatGPT.

Le paysage de l’IA évolue rapidement, mais à quel prix pour ses pionniers ? Cette révélation a provoqué une onde de choc dans l’industrie technologique, soulevant des questions sur la durabilité du développement de l’IA à un rythme aussi effréné.

Avec une valorisation estimée à 80 milliards de dollars en février, OpenAI prévoit de dépenser jusqu’à 7 milliards de dollars cette année pour former et faire fonctionner son chatbot. Cela implique que la société doit lever davantage de fonds, alors que la voie vers la rentabilité devient de plus en plus incertaine à cause de la concurrence croissante.

La course à l’armement en matière d’IA : une entreprise coûteuse

La course au développement de modèles d’IA avancés s’avère être une entreprise coûteuse. Les difficultés financières d’OpenAI sont en grande partie dues aux coûts énormes associés à la formation des modèles d’IA et aux dépenses opérationnelles.

L’un des principaux postes de dépenses de OpenAI est le fonctionnement quotidien de ChatGPT. L’outil d’IA est coûteux, même s’il compte plus de 100 millions d’utilisateurs hebdomadaires. Les rapports indiquent que le fonctionnement de ChatGPT coûte à l’organisation environ 700 000 dollars par jour. Cela se traduit par une dépense annuelle d’environ 255,5 millions de dollars pour le seul maintien de ce service. En outre, jusqu’à 3 milliards de dollars supplémentaires sont consacrés à la formation des modèles d’IA avec de nouvelles données, y compris des accords avec des éditeurs pour l’utilisation de leur contenu protégé par des droits d’auteur.

OpenAI est également estimée à dépenser 1,5 milliard de dollars par an en coûts de main-d’œuvre pour ses 1 500 employés, selon The Information. Ces estimations sont basées sur des données précédemment non divulguées et des entretiens avec « des personnes impliquées dans l’entreprise ».

Pour mettre ces chiffres en perspective, le rival d’OpenAI, Anthropic, soutenu par Amazon, prévoit un taux d’absorption de 2,7 milliards de dollars pour la même période. Ce contraste saisissant met en évidence l’approche agressive adoptée par l’organisation dans sa quête d’une technologie d’IA de pointe.

La question de la rentabilité de OpenAI

« Les investisseurs devraient se demander : quelle est leur barrière à l’entrée ? Une technologie unique ? » écrit Gary Marcus, expert en intelligence artificielle et professeur à l’Université de New York, sur X (anciennement Twitter). « Quelle est leur voie vers la rentabilité quand Meta offre une technologie similaire gratuitement ? Ont-ils une application incontournable ? La technologie sera-t-elle jamais fiable ? Qu’est-ce qui est réel et qu’est-ce qui n’est qu’une démonstration ? » ajoute Marcus.

GettyImages 1778708098 jpg

Alors que les coûts d’exploitation et de formation de l’IA continuent de grimper, la recherche de solutions moins coûteuses devient cruciale. Voici quelques pistes pour rendre l’IA plus abordable :

  1. Optimisation des algorithmes : L’amélioration des algorithmes de manière à ce qu’ils nécessitent moins de puissance de calcul pourrait réduire significativement les coûts. Les chercheurs peuvent se concentrer sur des modèles plus efficaces et moins gourmands en ressources.
  2. Utilisation de matériel moins coûteux : Explorer des alternatives matérielles plus économiques, comme les processeurs spécifiques à l’IA ou les puces personnalisées, pourrait offrir des performances similaires à moindre coût.
  3. Partage des ressources : Les entreprises peuvent collaborer pour partager des ressources et des infrastructures, réduisant ainsi les dépenses individuelles. Des initiatives de cloud computing collaboratif peuvent aider à mutualiser les coûts.
  4. Formation décentralisée : L’entraînement des modèles d’IA en utilisant des méthodes décentralisées, comme la fédération d’apprentissage, peut répartir les coûts sur plusieurs partenaires ou utilisateurs, rendant le processus plus économique.
  5. Modèles pré-entraîneés : Utiliser des modèles pré-entraînés et les adapter à des tâches spécifiques peut réduire les coûts de formation. Cette approche utilise le transfert de connaissance d’un modèle généraliste vers des applications spécifiques, diminuant ainsi le besoin de grandes quantités de données et de puissance de calcul.

Les sources de revenus : Une lueur d’espoir ?

Malgré ses dépenses considérables, OpenAI n’est pas dépourvue de revenus. L’entreprise gagne de l’argent grâce à deux sources principales :

  • ChatGPT : Revenus potentiels pouvant atteindre 2 milliards de dollars par an.
  • Frais d’accès au LLM : Contribution d’environ 1 milliard de dollars par an

Ces sources de revenus se traduisent par un revenu annuel total compris entre 3,5 et 4,5 milliards de dollars. Bien que substantiel, ce montant ne suffit pas à couvrir les dépenses prévues, d’où la perte anticipée de 5 milliards de dollars.

La situation financière d’OpenAI soulève des questions plus générales sur l’économie du secteur de l’IA. Alors que les géants de la technologie comme Microsoft, Apple et NVIDIA ont vu leur valeur de marché grimper en flèche grâce aux investissements dans l’IA, les acteurs plus modestes sont confrontés à d’importants défis pour concilier l’innovation et la viabilité financière.

OpenAI fait face à des défis financiers considérables, mais en explorant des alternatives plus économiques et en optimisant ses processus, l’entreprise peut peut-être trouver une voie plus durable vers la rentabilité. La quête de solutions moins coûteuses est essentielle non seulement pour OpenAI, mais aussi pour l’ensemble de l’industrie de l’intelligence artificielle, alors que la demande continue de croître et que les ressources se raréfient.

Lire plus
Intelligence Artificielle

ChatGPT Plus : Le mode vocal avancé débute son déploiement

ChatGPT Plus : Le mode vocal avancé débute son déploiement

Certains membres de ChatGPT Plus peuvent commencer à utiliser le mode vocal avancé, mais d’autres devront attendre des mois.

Présenté pour la première fois en mai dans le cadre du lancement de GPT-4o, le mode vocal avancé de ChatGPT promet la possibilité de créer des voix de personnages personnalisables ou d’agir en tant que traducteur en direct. Certains utilisateurs de ChatGPT Plus semblent déjà avoir accès à la nouvelle fonctionnalité, ce qui suggère que le déploiement a commencé — mais pas aussi complètement qu’on pourrait l’espérer.

Lors de l’événement organisé par OpenAI, le nouveau mode vocal s’est avéré nettement plus performant que le mode vocal actuel de ChatGPT. Sur scène, les employés d’OpenAI ont pu interrompre le chatbot et lui demander de raconter une histoire de différentes manières, et le chatbot a profité de ces interruptions pour ajuster ses réponses.

Sam Altman, PDG d’OpenAI, a promis un déploiement « la semaine prochaine » lorsqu’il a été interrogé sur X, précisant que les abonnés Plus seraient les premiers à accéder au mode vocal avancé. Les utilisateurs se sont rendus sur le subreddit ChatGPT de reddit pour partager un nouveau message au bas de l’application ChatGPT, qui se lit comme suit : « Le mode vocal avancé arrive ». « Notre déploiement du mode vocal avancé a commencé, et nous enrôlons lentement les utilisateurs dans l’alpha pour assurer la qualité de l’expérience », poursuit le message. « Tous les utilisateurs Plus y auront accès d’ici la fin de l’automne — nous vous le ferons savoir dès que vous en ferez partie ».

La fin de l’automne pourrait être aussi tardive que novembre et le message est suffisamment vague pour englober n’importe quelle période avant la fin de l’année. Si vous voulez être prudent, vous pouvez opter pour « d’ici la fin de l’année 2024 », qui est une date plus réaliste.

Pourquoi le mode vocal avancé arrive-t-il plus tard ?

OpenAI a fait une déclaration publique sur le X en juin, précisant que des problèmes de sécurité avaient entraîné un retard dans le déploiement du mode.

« Nous avions prévu de commencer à déployer ce mode en version alpha auprès d’un petit groupe d’utilisateurs de ChatGPT Plus à la fin du mois de juin, mais nous avons besoin d’un mois supplémentaire pour atteindre notre barre de lancement », peut-on lire sur X. « Nous améliorons par exemple la qualité de la voix et de l’image, ce qui nous permet d’être plus efficaces. Par exemple, nous améliorons la capacité du modèle à détecter et à refuser certains contenus. Nous travaillons également à l’amélioration de l’expérience utilisateur et à la préparation de notre infrastructure pour qu’elle puisse évoluer vers des millions d’utilisateurs tout en maintenant des réponses en temps réel ».

L’entreprise semble s’en être tenue à cette extension d’un mois, puisqu’un déploiement au moins partiel a eu lieu presque exactement un mois plus tard.

Lors de l’événement organisé par OpenAI, l’une des principales critiques formulées à l’encontre du nouveau mode a été la ressemblance de la voix sur scène, baptisée « Sky », avec celle de Johansson, qui a joué le rôle d’une personnalité IA dans le film Her. Bien que la voix ait été présente dans ChatGPT avant la démonstration d’OpenAI au printemps, l’entreprise l’a retirée peu après que Johansson a révélé avoir envoyé des lettres à OpenAI pour demander comment la voix avait été fabriquée. Christianson précise que le nouveau mode de ChatGPT n’utilisera que 4 voix prédéfinies qu’il a créées avec des acteurs vocaux, ajoutant : « Nous avons fait en sorte que ChatGPT ne puisse pas se faire passer pour la voix d’autres personnes, qu’il s’agisse d’individus ou de personnalités publiques, et qu’il bloque les sorties qui diffèrent de l’une de ces voix prédéfinies ».

Lire plus
Intelligence Artificielle

Canva acquiert Leonardo.AI pour booster ses capacités en IA générative

Canva acquiert Leonardo.AI pour booster ses capacités en IA générative

La plateforme de conception graphique Canva a acquis Leonardo.AI dans le but d’étendre ses capacités en matière d’IA générative. Bien que les conditions financières n’aient pas été divulguées, l’accord permettra à Canva d’accéder à la gamme de générateurs texte-image et texte-vidéo personnalisables de Leonardo.ai.

En activité depuis 2012 et comptant aujourd’hui plus de 100 millions d’utilisateurs, Canva est utilisée comme plateforme de conception graphique par les particuliers et les entreprises. Bien qu’elle ait introduit certains de ses propres outils d’IA générative en interne avec un générateur de texte en image, il semble que l’entreprise souhaite étendre ces possibilités à l’avenir, si l’on en croit sa récente acquisition.

La plus grande entreprise technologique privée d’Australie a annoncé avoir conclu un accord pour acheter Leonardo.AI, une plateforme d’IA générative à croissance rapide. Cela renforcerait les capacités d’IA de Canva avant son introduction en bourse, qui devrait avoir lieu en 2025. Les conditions financières de l’acquisition n’ont pas encore été rendues publiques.

Canva a fait des efforts pour diversifier sa plateforme avec des outils plus proches des suites bureautiques ces derniers temps, mais la plateforme de conception visuelle et de communication reste l’un des plus grands concurrents de la gamme de logiciels créatifs d’Adobe. Alors que l’acquisition d’Affinity pourrait aider Canva à concurrencer les logiciels d’Adobe comme Illustrator, Photoshop et InDesign, Leonardo.ai pourrait se positionner de la même manière comme une alternative aux modèles d’IA générative Firefly d’Adobe.

Qu’est-ce que Leonardo.AI ?

Fondée en décembre 2022, Leonardo.AI est une entreprise relativement nouvelle, même dans le domaine de l’IA. En décembre dernier, la société a levé 47 millions de dollars d’investissements locaux en Australie, avec des investisseurs tels que Blackbird Ventures et Side Stage Ventures.

Leonardo homepage jpg

Leonardo.AI revendique 19 millions d’utilisateurs et est suffisamment efficace pour concurrencer les grands noms de l’IA générative tels que Midjourney et Dall E d’OpenAI. Elle était déjà en train de lever des fonds supplémentaires lors d’un deuxième tour de table avant d’accepter l’acquisition de Canva.

On pense que JJ Fiassion, cofondateur et PDG de Leonardo.AI, a rencontré Cliff Obrecht, cofondateur de Canva, par l’intermédiaire de Blackbird Ventures, et qu’une réunion a eu lieu entre eux au début de l’année. L’acquisition a été motivée par le fait que Leonardo.AI a dévoilé Phoenix, son propre modèle d’IA de base.

Ce modèle est fier de pouvoir répondre efficacement à de longs et détaillés promtps, de créer un texte cohérent (ce qui pose problème à de nombreux outils d’IA générative) et d’effectuer des modifications rapides en cours de route à l’aide de phrases et de prompts courts. Cela se marie bien avec l’approche rationalisée de Canva et serait probablement facile à incorporer dans la plateforme de conception graphique, parallèlement à ses outils. Canva n’a pas confirmé ce projet, mais cela semble être une raison probable pour l’acquisition, d’autant plus que des concurrents comme Adobe développent des outils d’IA générative.

Lire plus
Intelligence Artificielle

Google va améliorer Gemini : Personnalisez vos images en toute simplicité

Google va améliorer Gemini : Personnalisez vos images en toute simplicité

Google s’apprête à lancer une mise à jour révolutionnaire pour son chatbot Gemini, offrant aux utilisateurs la possibilité de raffiner et de personnaliser facilement les images générées par l’IA. Cette fonctionnalité, récemment découverte dans le code de la dernière version bêta de l’application Google pour Android (v15.29.34.29 bêta), promet de transformer l’expérience utilisateur, en particulier pour ceux frustrés par le manque d’options d’édition dans Gemini.

Actuellement, Gemini permet uniquement de créer des images à partir de prompts textuels, sans possibilité de modifier les images générées. Si un détail ne vous plaît pas, vous devez créer une nouvelle image avec un prompt révisé, ce qui peut être fastidieux et chronophage.

La prochaine mise à jour vise à résoudre ce problème en introduisant deux nouvelles méthodes pour affiner les images générées par l’IA.

  1. Compréhension des prompts en langage naturel : Gemini pourra comprendre les instructions en langage naturel pour modifier les images existantes. Par exemple, si vous aimez l’image globale mais souhaitez changer l’arrière-plan, vous pourrez simplement demander à Gemini de le faire sans avoir à recréer entièrement l’image.
  2. Modification par sélection directe : La deuxième méthode est encore plus intuitive. Vous pourrez utiliser votre doigt ou un stylet pour entourer la partie de l’image que vous souhaitez changer, puis indiquer à Gemini les modifications à apporter. Cette approche élimine la nécessité de décrire précisément la zone à modifier, car Gemini comprendra automatiquement la partie sélectionnée.

Implications et bénéfices de Gemini

Bien que cette fonctionnalité soit encore en développement et non entièrement fonctionnelle, elle constitue un ajout prometteur aux capacités de Gemini. Elle montre que Google s’engage à améliorer l’expérience utilisateur en offrant plus de contrôle et de flexibilité sur la génération d’images.

Cette mise à jour sera particulièrement bénéfique pour les professionnels créatifs et ceux qui utilisent fréquemment des images générées par l’IA, comme pour les vignettes YouTube ou les en-têtes d’articles de blog. Elle simplifiera le processus d’édition et permettra une personnalisation accrue, économisant ainsi du temps et des efforts aux utilisateurs.

En somme, l’amélioration de Gemini avec ces nouvelles options de personnalisation d’images renforce la position de Google dans le domaine de l’IA générative, offrant aux utilisateurs des outils plus puissants et intuitifs pour donner vie à leurs idées visuelles.

Lire plus