fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI : Valorisation record de 157 milliards de dollars, l’IA a le vent en poupe !

OpenAI : Valorisation record de 157 milliards de dollars, l'IA a le vent en poupe !

OpenAI, la société à l’origine de ChatGPT, vient de lever 6,6 milliards de dollars lors d’un nouveau tour de financement, portant sa valorisation à 157 milliards de dollars.

Cette somme colossale, qui double presque sa valorisation précédente de 86 milliards de dollars, témoigne de l’engouement des investisseurs pour l’intelligence artificielle et du potentiel de croissance d’OpenAI.

Thrive Capital a mené ce tour de table avec un investissement de 1,25 milliard de dollars, et pourrait injecter un milliard supplémentaire l’année prochaine si l’entreprise atteint ses objectifs de revenus.

Microsoft, fidèle soutien d’OpenAI avec 13 milliards de dollars investis au total, a contribué à hauteur d’un milliard de dollars. De nouveaux investisseurs ont également rejoint l’aventure, notamment SoftBank (500 millions de dollars), Nvidia (100 millions de dollars) et MGX, une société basée aux Émirats arabes unis. Apple, initialement pressenti pour participer à ce financement, n’a finalement pas investi. Selon le Wall Street Journal, l’investissement minimum requis pour accéder aux documents financiers d’OpenAI était de 250 millions de dollars.

OpenAI a demandé à ses investisseurs de ne pas soutenir ses concurrents, tels qu’Anthropic et xAI d’Elon Musk. Cette clause de non-concurrence souligne la rivalité intense qui règne dans le secteur de l’IA.

Une transformation en société à but lucratif

Ce tour de financement est assorti d’une condition : les investisseurs peuvent retirer leurs fonds si OpenAI ne finalise pas sa conversion en société à but lucratif. Sarah Friar, première directrice financière d’OpenAI recrutée en juin dernier, a joué un rôle crucial dans l’organisation de cette levée de fonds.

En effet, ce financement massif est conditionné à une restructuration d’OpenAI en société à but lucratif. Actuellement, l’activité commerciale d’OpenAI est supervisée par un organisme de recherche à but non lucratif, et les bénéfices des investisseurs sont plafonnés à 100 fois leur mise initiale. Si OpenAI ne se restructure pas dans les deux ans, les investisseurs pourront demander le remboursement de leurs fonds.

OpenAI a vu sa valorisation atteindre un niveau comparable à celui de sociétés cotées en bourse comme Goldman Sachs, Uber et AT&T. Cette croissance fulgurante s’accompagne d’une concurrence intense, avec des entreprises comme Anthropic, Meta et Google qui développent des modèles d’IA aux capacités similaires.

ChatGPT, le produit phare d’OpenAI, compte environ 250 millions d’utilisateurs actifs hebdomadaires et 11 millions d’abonnés payants, ainsi qu’un million d’entreprises clientes. Cette base d’utilisateurs en forte croissance témoigne du potentiel de l’IA générative.

Des tensions internes liées à la stratégie de l’entreprise

Le passage de OpenAI d’une organisation à but non lucratif à une entreprise axée sur le profit a généré des tensions internes, notamment le licenciement puis la réintégration de son PDG l’année dernière, ainsi que des protestations d’anciens employés préoccupés par l’impact de cette stratégie sur la mission initiale d’OpenAI de développer l’IA pour le bien public.

Malgré ces défis, OpenAI poursuit son ambition de créer une intelligence artificielle générale (AGI) et la conversion en société à but lucratif semble désormais incontournable pour attirer de nouveaux investisseurs et financer ses projets ambitieux.

Ces milliards de dollars serviront à financer l’entraînement de modèles d’IA de pointe, une tâche extrêmement coûteuse. Le développement de modèles d’IA coûtant un milliard de dollars est déjà en cours, et des modèles à 100 milliards de dollars pourraient bientôt voir le jour. Pour OpenAI, qui ambitionne de créer des modèles de « raisonnement » encore plus complexes, ces fonds sont essentiels.

Lire plus
Intelligence Artificielle

OpenAI DevDay 2024 : l’IA se démocratise, les développeurs à l’honneur

OpenAI DevDay 2024 : l'IA se démocratise, les développeurs à l'honneur

OpenAI a opté pour une approche plus discrète lors de sa conférence DevDay 2024, privilégiant l’amélioration de ses outils existants plutôt que le lancement de nouveaux produits révolutionnaires. Cette stratégie témoigne d’une volonté de démocratiser l’accès à l’IA en misant sur son écosystème de développeurs.

En effet, contrairement à l’événement organisé l’année dernière dans un seul lieu et qui comprenait un discours liminaire du PDG Sam Altman, DevDay 2024 est plus qu’une simple journée, adoptant une approche mondiale avec des événements supplémentaires prévus à Londres le 30 octobre et à Singapour le 21 novembre.

L’événement de San Francisco, qui s’est tenu sur invitation uniquement et était fermé à la presse, a accueilli des intervenants sur scène qui ont fait des présentations techniques.

Quatre innovations majeures pour stimuler la créativité

OpenAI a dévoilé quatre innovations clés lors de l’événement DevDay 2024 : Prompt Caching, Vision Fine-Tuning, API Realtime et Model Distillation. Ces outils reflètent un changement de cap stratégique, OpenAI se positionnant désormais comme un facilitateur pour les développeurs plutôt qu’un concurrent direct dans le domaine des applications grand public.

Prompt Caching : une économie substantielle pour les développeurs

L’introduction du Prompt Caching est une avancée majeure pour les développeurs. Cette fonctionnalité permet de réduire les coûts et la latence en appliquant une réduction de 50 % sur les jetons d’entrée récemment traités par le modèle. Les applications qui réutilisent fréquemment le contexte pourront ainsi réaliser des économies considérables.

Screen 2024 10 02 07.55.40 jpg

« Il y a deux ans, GPT-3 était à son apogée. Aujourd’hui, nous avons réduit les coûts de près de 1000x. Je ne connais aucune autre technologie ayant réduit ses coûts aussi drastiquement en si peu de temps », a déclaré Olivier Godement, responsable produit de la plateforme chez OpenAI.

Vision Fine-Tuning : l’IA visuelle personnalisée

Le Vision Fine-Tuning pour GPT-4o, le dernier modèle de langage d’OpenAI, permet aux développeurs de personnaliser les capacités de compréhension visuelle du modèle en utilisant des images et du texte. Cette fonctionnalité ouvre de nouvelles perspectives dans des domaines tels que les véhicules autonomes, l’imagerie médicale et la recherche visuelle.

03 Coframe 3 jpg

Grab, une entreprise leader de livraison de repas et de VTC en Asie du Sud-Est, utilise déjà cette technologie pour améliorer ses services de cartographie. Avec seulement 100 exemples, Grab a amélioré la précision du comptage des voies de 20 % et la localisation des panneaux de limitation de vitesse de 13 %.

API Realtime : des interactions vocales plus fluides

L’API Realtime, désormais en version bêta publique, permet aux développeurs de créer des expériences multimodales à faible latence, notamment pour les applications de synthèse vocale. Les développeurs peuvent ainsi intégrer les commandes vocales de ChatGPT dans leurs applications.

OpenAI affirme que l’API Realtime simplifie le processus de création d’assistants vocaux. Auparavant, les développeurs devaient utiliser plusieurs modèles pour la reconnaissance vocale, le traitement de texte et la conversion de texte en parole. Désormais, ils peuvent gérer l’ensemble du processus avec un seul appel d’API.

OpenAI a présenté une version mise à jour de Wanderlust, une application de planification de voyages, pour illustrer le potentiel de l’API Realtime. Les utilisateurs peuvent désormais interagir vocalement avec l’application pour planifier leurs voyages, avec la possibilité d’interrompre la conversation en cours, comme dans un dialogue humain.

Model Distillation : l’IA accessible à tous

L’annonce la plus marquante est sans doute l’introduction du Model Distillation. Ce workflow intégré permet aux développeurs d’utiliser les sorties de modèles avancés comme o1-preview et GPT-4o pour améliorer les performances de modèles plus légers tels que GPT-4o mini.

oai model distillation scaled

Cette approche permet aux petites entreprises d’exploiter des capacités similaires à celles des modèles avancés sans supporter les mêmes coûts de calcul. Elle comble ainsi le fossé entre les systèmes d’IA de pointe, gourmands en ressources, et leurs homologues plus accessibles, mais moins performants.

OpenAI : vers un écosystème d’IA durable

Le DevDay 2024 d’OpenAI marque un tournant stratégique pour l’entreprise, qui privilégie le développement de son écosystème à des lancements de produits spectaculaires. Contrairement à l’année dernière, la DevDay n’a pas été diffusée en direct, même si OpenAI prévoit de publier du contenu ultérieurement sur sa chaîne YouTube. La programmation de l’événement comprend des sessions en petits groupes, des présentations de la communauté et des démonstrations. Mais le plus grand changement depuis l’année dernière est l’absence de discours d’ouverture du PDG de l’entreprise. Cette année, le discours d’ouverture a été assuré par l’équipe produit d’OpenAI.

Cette approche, moins sensationnelle pour le grand public, témoigne d’une compréhension mature des défis et des opportunités du secteur de l’IA. En améliorant l’efficacité et la rentabilité de ses modèles, OpenAI vise à maintenir son avantage concurrentiel tout en répondant aux préoccupations concernant l’intensité des ressources et l’impact environnemental.

En passant du statut de disrupteur à celui de fournisseur de plateforme, le succès d’OpenAI dépendra en grande partie de sa capacité à favoriser un écosystème de développeurs florissant. En fournissant des outils améliorés, des coûts réduits et un support accru, l’entreprise pose les bases d’une croissance et d’une stabilité à long terme dans le secteur de l’IA.

Bien que l’impact immédiat puisse être moins visible, cette stratégie pourrait à terme conduire à une adoption plus durable et plus répandue de l’IA dans de nombreux secteurs.

Lire plus
Intelligence Artificielle

Copilot Vision : Microsoft Edge voit enfin ce que vous voyez !

1727751510 new refreshed microso

Microsoft repousse les limites de l’IA avec Copilot Vision, une nouvelle fonctionnalité intégrée à son navigateur Edge qui transforme votre expérience de navigation.

Imaginez un assistant intelligent qui voit ce que vous voyez, entend ce que vous entendez et interagit avec vous en temps réel pour répondre à vos questions, vous proposer des recommandations et résumer du contenu. C’est la promesse de Copilot Vision, dévoilée par Yusuf Mehdi, vice-président exécutif de Microsoft.

Une IA à votre écoute, mais respectueuse de votre vie privée

Si l’idée d’une IA observant toutes vos activités en ligne peut sembler intrusive, Microsoft assure que Copilot Vision est une fonctionnalité optionnelle que vous devez activer manuellement. De plus, un indicateur à l’écran vous signalera que Copilot est actif. Les données de votre session seront supprimées à sa fermeture et ne seront pas utilisées pour l’entraînement de l’IA.

Copilot Vision fonctionne en tandem avec Copilot Voice, la nouvelle fonctionnalité de commande vocale de Copilot, mais peut également être utilisé seul. Il sera initialement compatible avec un nombre limité de sites Web, excluant les contenus payants ou sensibles, et se concentrera sur l’analyse du texte et des images présents sur les pages.

Microsoft a présenté les capacités de Copilot Vision sur Rotten Tomatoes, où l’IA a recommandé une comédie australienne à un utilisateur australien, démontrant ainsi sa capacité à prendre en compte le contexte personnel.

Copilot Voice et Copilot Daily : l’IA au service de l’information

Copilot Voice vous permet désormais de converser avec l’assistant en utilisant uniquement votre voix, sur ordinateur et sur mobile.

Microsoft lance également Copilot Daily, une sorte de journal télévisé personnalisé qui résume les actualités et vous fournit des informations quotidiennes telles que la météo et le trafic. Cette fonctionnalité utilise une voix générée par l’IA et s’adapte à vos centres d’intérêt.

Copilot Daily jpg

Disponibilité et perspectives

Copilot Voice et Copilot Daily sont déjà disponibles pour les utilisateurs de Windows aux États-Unis et au Royaume-Uni. Copilot Voice est également disponible en Australie, au Canada et en Nouvelle-Zélande, mais uniquement en anglais. Microsoft prévoit d’étendre ces fonctionnalités à d’autres pays et langues prochainement.

Copilot Vision sera bientôt déployé aux États-Unis, mais uniquement pour les abonnés Copilot Pro. Cette fonctionnalité fait partie du nouveau programme Copilot Labs de Microsoft, qui donne aux abonnés Copilot Pro un accès anticipé aux dernières fonctionnalités d’IA de Microsoft encore en phase de test.

Avec ces innovations, Microsoft confirme sa volonté de placer l’IA au cœur de l’expérience utilisateur, en offrant des fonctionnalités toujours plus personnalisées et intuitives. L’avenir de la navigation web s’annonce passionnant !

Lire plus
Intelligence Artificielle

Copilot se réinvente : plus beau, plus intelligent et plus conversationnel

Microsoft vient de déployer une mise à jour majeure de son assistant IA Copilot, 6 mois après l’arrivée de Mustafa Suleyman à la tête de sa division IA. Fini l’interface utilisateur classique de Microsoft, place à un design rafraîchissant et résolument moderne.

Le nouveau Copilot arbore une interface utilisateur basée sur des cartes aux coins arrondis et des visuels de haute qualité sur la page d’accueil. Dès les premiers instants, l’expérience se veut plus personnelle, accueillante et conviviale. Cette approche rappelle fortement le design du chatbot Pi d’Inflection AI, la précédente start-up de Suleyman, axée sur l’IA personnelle.

Parmi les nouveautés, Copilot Voice permet désormais d’interagir avec l’assistant par la voix, promettant une conversation naturelle similaire au mode vocal avancé de ChatGPT. Malheureusement, lors de mes tests, le service était victime de son succès et je n’ai pas pu l’essayer pleinement.

Autre nouveauté majeure, Copilot Vision vous permettra de naviguer sur le Web avec l’assistance de l’IA. Capable de voir ce qui se trouve sur votre écran, Copilot Vision peut répondre à vos questions, vous proposer des suggestions et des idées, et bien plus encore.

Cette fonctionnalité expérimentale sera disponible dans Copilot Labs, exclusivement pour les utilisateurs de Copilot Pro, et fonctionnera initialement sur un nombre limité de sites Web. Il s’agira d’une fonctionnalité optionnelle, les utilisateurs pourront donc choisir de partager ou non leur écran avec Copilot Vision. Suite au fiasco de Windows Recall, Microsoft assure que toutes les données seront traitées localement, sur l’appareil.

Copilot Daily: votre dose d’actualités personnalisée

Microsoft a également ajouté « Copilot Daily », un présentateur d’actualités alimenté par l’IA. Vous pouvez désormais écouter les nouvelles du monde entier sur la page d’accueil de Copilot, avec une voix générée par l’IA. Quatre voix sont disponibles : Canyon, Grove, Meadow et Wave.

Bien qu’il soit difficile de dire quel modèle OpenAI alimente le nouveau Microsoft Copilot, nos premiers tests ont été concluants. L’assistant a répondu correctement à toutes nos questions complexes, ce qui est remarquable. Contrairement aux modèles OpenAI o1, il ne prend pas beaucoup de temps pour « réfléchir » et donne la bonne réponse du premier coup. J’ai été très impressionné par le modèle d’IA derrière ce nouveau Copilot.

Microsoft annonce également l’arrivée prochaine de « Think Deeper », une fonctionnalité expérimentale qui permettra à Copilot de prendre plus de temps pour « réfléchir » afin de résoudre des requêtes complexes, à la manière des modèles OpenAI o1. Cette fonctionnalité sera également réservée aux utilisateurs payants de Copilot Pro.

Testez le nouveau Copilot dès maintenant !

Alors, avez-vous déjà essayé le nouveau Copilot ? Rendez-vous sur copilot.microsoft.com ou téléchargez l’application Copilot sur Android ou iOS, et dites-nous ce que vous en pensez !

Lire plus
Intelligence Artificielle

Vos données personnelles : le carburant secret de l’IA, comment se protéger ?

Vos données personnelles : le carburant secret de l'IA, comment se protéger ?

L’intelligence artificielle a besoin de quantités massives de données pour se former et évoluer. C’est pourquoi chaque entreprise cherche désormais à enregistrer toutes nos interactions et à analyser nos documents : elles ont besoin de plus de données !

De nombreux services intègrent désormais l’IA en se basant sur les données de leurs utilisateurs. Slack, Grammarly, Stack Overflow et, plus récemment, LinkedIn en sont des exemples frappants. Cette tendance s’étend à de nombreuses applications et sites Web. Il ne faut donc pas s’étonner de voir apparaître des fonctionnalités d’IA dans nos outils préférés, au prix de l’utilisation de nos données personnelles pour nourrir les modèles d’apprentissage.

Heureusement, les entreprises qui souhaitent utiliser nos conversations, documents et autres données doivent obtenir notre consentement pour les utiliser à des fins autres que celles initialement prévues.

Malheureusement, cette exigence légale est souvent ignorée lorsqu’il s’agit de données publiques. Plusieurs entreprises d’IA ont été prises en flagrant délit de collecte de publications sur les réseaux sociaux pour entraîner leurs modèles, sans l’autorisation des auteurs.

D’autres entreprises se conforment aux réglementations sur la confidentialité des données en mettant discrètement à jour leurs conditions d’utilisation et leurs politiques de confidentialité. Mais à moins de les consulter régulièrement et de supprimer votre compte lorsque des clauses relatives à l’entraînement de l’IA sont ajoutées, vous risquez de ne pas savoir que vos données sont désormais utilisées à cette fin.

Slack : l’exemple d’une désactivation compliquée

Slack permet de refuser que vos conversations potentiellement sensibles soient utilisées pour entraîner son IA, mais la procédure est loin d’être simple.

Au lieu d’une simple case à cocher ou d’un bouton pour leur indiquer qu’ils ne peuvent pas utiliser vos données, vous devez demander au propriétaire de votre espace de travail Slack d’envoyer un e-mail à leur équipe d’assistance. Il faut leur envoyer un e-mail à [email protected] avec l’objet « Slack global model opt-out request » pour se désinscrire.

La vigilance : notre meilleure arme

Comme pour la plupart des préoccupations en matière de cybersécurité et de confidentialité, la vigilance est notre meilleure protection. Si un produit que vous utilisez dispose de fonctionnalités d’IA, il y a de fortes chances qu’il utilise vos données pour les alimenter. Parcourez les paramètres de l’application et voyez quelles fonctionnalités intrusives vous pouvez désactiver (ou consultez leur documentation pour voir de quelle manière peu pratique ils ont essayé de vous dissuader de leur refuser vos données).

Au-delà de l’IA, il existe des moyens simples d’améliorer votre cybersécurité si vous souhaitez préserver la confidentialité et la sécurité de vos données.

En fin de compte, il est essentiel de rester informé et de prendre des mesures pour protéger nos données personnelles dans un monde où l’IA est de plus en plus présente.

Lire plus
Intelligence Artificielle

Apple claque la porte à OpenAI : l’iPhone se passera de ChatGPT ?

Apple claque la porte à OpenAI : l'iPhone se passera de ChatGPT ?

Coup de théâtre dans le monde de l’intelligence artificielle : Apple se retire des négociations pour participer au tour de financement d’OpenAI, la société derrière le célèbre chatbot ChatGPT.

Cette décision, annoncée par le Wall Street Journal, intervient alors que OpenAI est en passe de lever 6,5 milliards de dollars, une somme colossale qui valoriserait l’entreprise à plus de 100 milliards de dollars. Microsoft a déjà investi près de 13 milliards de dollars dans OpenAI et envisagerait un investissement supplémentaire d’un milliard de dollars.

La société de capital-risque Thrive Capital dirige le tour de table avec un investissement d’environ 1 milliard de dollars. La société d’investissement Tiger Global Management et la société MGX, soutenue par l’État des Émirats arabes unis, sont également en pourparlers pour participer.

Un revirement de situation inattendu

Ce retrait d’Apple est d’autant plus surprenant que la firme de Cupertino avait initialement accepté de participer à ce tour de table, aux côtés d’autres géants de la tech comme Microsoft et Nvidia. Il semblerait qu’Apple ait changé d’avis à la dernière minute, suscitant de nombreuses interrogations sur les raisons de ce revirement.

Plusieurs hypothèses sont avancées pour expliquer cette décision. Certains évoquent des désaccords sur la stratégie d’OpenAI, qui se positionne de plus en plus comme une entreprise à but lucratif, ce qui pourrait entrer en conflit avec les valeurs d’Apple. D’autres suggèrent que les conditions de l’investissement, notamment en termes de valorisation et de gouvernance, n’auraient pas convaincu la firme à la pomme.

Pour autant, ce retrait ne signifie pas qu’Apple abandonne ses ambitions dans le domaine de l’intelligence artificielle. La société a récemment intégré ChatGPT à son assistant virtuel Siri, et prévoit de déployer cette fonctionnalité d’ici la fin de l’année. Cette intégration permettra aux utilisateurs d’Apple de profiter des capacités de ChatGPT via Siri, rendant ainsi les interfaces vocales encore plus intelligentes et intuitives.

GPu5adzXIAAs94N.jpglarge jpg

Le passage d’OpenAI à une société à but lucratif pourrait-il rendre les investisseurs nerveux ?

OpenAI a récemment annoncé son intention de devenir une société à but lucratif, ce qui pourrait réduire le contrôle de l’organisation à but non lucratif et attirer un plus grand nombre d’investisseurs.

L’organisation à but non lucratif devrait conserver une participation minoritaire dans la nouvelle entité à but lucratif. Le PDG Sam Altman devrait recevoir une participation dans la division à but lucratif, potentiellement évaluée à 150 milliards de dollars à l’issue de la restructuration, alors que la société envisage de lever le plafond sur les rendements des investisseurs.

La proposition de restructuration est encore à l’étude, avec des consultations juridiques et des consultations d’actionnaires, et aucun calendrier précis n’a été fixé pour son achèvement.

Au milieu de ces changements stratégiques, les récents départs de la direction ont ajouté de l’incertitude à l’orientation future d’OpenAI.

La guerre des chatbots IA fait rage

Ce revirement d’Apple intervient dans un contexte de concurrence acharnée entre les géants de la tech pour dominer le marché de l’IA. Google, Microsoft et Nvidia se livrent une bataille sans merci pour innover dans ce domaine, et OpenAI se retrouve au cœur de cette lutte.

La valorisation potentielle d’OpenAI à plus de 100 milliards de dollars témoigne de l’importance stratégique de l’intelligence artificielle pour ces entreprises. Le retrait d’Apple pourrait donc être interprété comme une volonté de se démarquer de cette course effrénée, ou simplement comme un choix stratégique pour se concentrer sur d’autres projets d’IA.

L’avenir de l’IA chez Apple

Quoi qu’il en soit, les plans d’Apple pour intégrer des technologies d’IA telles que ChatGPT dans ses produits montrent que la société reste déterminée à développer ses capacités dans ce domaine.

Le retrait d’Apple du tour de financement d’OpenAI soulève certes des questions, mais cela ne signifie pas un désengagement de l’espace IA. Apple croit toujours en cette technologie et continuera à faire progresser ses produits dans ce sens. L’avenir nous dira quelles surprises la firme de Cupertino nous réserve dans le domaine de l’intelligence artificielle.

 

 

Lire plus
Intelligence Artificielle

ChatGPT Plus : L’abonnement passera de 20 dollars à 44 dollars d’ici 2029

ChatGPT Plus : L'abonnement passera de 20 dollars à 44 dollars d'ici 2029

OpenAI, le leader mondial de l’intelligence artificielle, a déclenché l’engouement actuel pour l’IA générative avec ChatGPT, et la société propose également un abonnement ChatGPT Plus si vous avez besoin d’un accès plus rapide, de fonctionnalités supplémentaires et d’autres extras. Malheureusement, il semble que nous devions nous attendre à de fortes hausses de prix à l’avenir.

En effet, OpenAI se prépare à augmenter le prix de son abonnement ChatGPT Plus. Cette décision intervient alors que l’entreprise cherche à rentabiliser ses investissements massifs dans le développement de modèles d’IA, tout en évoluant d’un modèle à but non lucratif vers un modèle commercial.

Actuellement, un abonnement ChatGPT Plus coûte 20 dollars par mois. OpenAI prévoit d’augmenter ce prix de 2 dollars d’ici la fin de l’année 2024. Sur les 5 prochaines années, l’entreprise continuera d’augmenter progressivement le prix de l’abonnement jusqu’à atteindre 44 dollars par mois.

Cette augmentation de prix s’inscrit dans un contexte où OpenAI cherche à lever « plusieurs milliards de dollars » de financement. L’entreprise doit démontrer sa capacité à générer des profits pour justifier les sommes colossales investies dans le développement de ses modèles d’IA.

On ne sait pas encore si l’entreprise proposera des niveaux d’abonnement supplémentaires pour les personnes qui n’ont pas les moyens de débourser près de 50 dollars par mois. Dans le cas contraire, nous pourrions tout à fait voir les abonnés de ChatGPT Plus quitter le navire pour les services d’IA de Google et de Microsoft, qui coûtent actuellement 20 dollars par mois. Mais il n’y a aucune garantie que ces rivaux maintiendront cette tarification.

ChatGPT Plus, le défi de la valeur ajoutée de l’IA

La stratégie d’OpenAI met en lumière un défi majeur pour les entreprises du secteur : prouver que l’IA apporte une valeur ajoutée suffisante pour justifier son coût.

Alors que les entreprises d’IA ont dépensé des milliards de dollars pour développer leurs modèles, le secteur financier commence à se montrer plus prudent quant à la poursuite des investissements à un rythme aussi effréné. Les cas d’utilisation relativement limités de l’IA, en particulier par rapport à l’engouement initial, refroidissent l’enthousiasme des investisseurs.

Un test pour l’avenir de l’IA ?

Si OpenAI augmente effectivement ses prix comme le suggèrent ses documents internes, cela pourrait constituer un test décisif pour évaluer la véritable valeur que les utilisateurs accordent à l’IA.

La question reste ouverte : les utilisateurs seront-ils prêts à payer un prix élevé pour un service dont l’utilité reste encore limitée ? L’avenir de l’IA pourrait bien dépendre de la réponse à cette question.

Lire plus
Intelligence Artificielle

OpenAI : Elon Musk dénonce la restructuration en entreprise à but lucratif

OpenAI : Elon Musk dénonce la restructuration en entreprise à but lucratif

Elon Musk a exprimé son mécontentement suite à l’annonce de la possible restructuration d’OpenAI, passant d’une organisation à but non lucratif à une entreprise à but lucratif. Le milliardaire a qualifié cette initiative « d’illégale » sur X (anciennement Twitter).

Selon CNBC, une source proche de l’entreprise a confirmé que le segment à but non lucratif serait maintenu en tant qu’entité distincte et que les discussions sont en cours. Cette restructuration rendrait la structure d’OpenAI plus attractive pour les investisseurs et faciliterait la liquidité pour les employés.

Sam Altman, PDG d’OpenAI, devrait recevoir pour la première fois des actions de l’entreprise à but lucratif, qui, après la restructuration et la suppression du plafond des rendements pour les investisseurs, pourrait être évaluée à 150 milliards de dollars, selon certaines sources.

Un porte-parole d’OpenAI, cité par Reuters, a déclaré : « Nous restons concentrés sur la création d’une IA qui profite à tous, et nous travaillons avec notre conseil d’administration pour nous assurer que nous sommes les mieux placés pour réussir notre mission. L’aspect non lucratif est au cœur de notre mission et continuera d’exister ».

Départs en cascade au sein de l’équipe dirigeante

Cette nouvelle survient alors que Mira Murati, directrice de la technologie d’OpenAI, a annoncé son départ après six ans et demi au sein de l’entreprise. En novembre dernier, Murati avait été nommée PDG par intérim pendant une brève période après l’éviction d’Altman de l’entreprise. Cependant, ce dernier a été rapidement réintégré et le conseil d’administration a été en grande partie remplacé.

Le même jour, Altman a révélé que le directeur de la recherche Bob McGrew et Barret Zoph, vice-président de la recherche, quittaient également l’entreprise.

En juin dernier, Elon Musk avait abandonné une action en justice contre Altman et OpenAI, les accusant d’avoir trahi leur mission initiale de développer l’intelligence artificielle au profit de l’humanité en se tournant vers une structure à but lucratif, s’alignant sur Microsoft et restreignant l’accès public à ses technologies.

Un avenir incertain pour OpenAI

Ces changements majeurs au sein d’OpenAI soulèvent des questions sur l’avenir de l’entreprise et sa capacité à maintenir son leadership dans un secteur de l’IA de plus en plus concurrentiel. La restructuration vers un modèle à but lucratif pourrait avoir des implications significatives sur la direction stratégique de l’entreprise et sur sa capacité à concilier ses objectifs commerciaux avec sa mission initiale de développer une IA bénéfique pour l’humanité.

Il reste à voir comment OpenAI naviguera dans ces eaux troubles et quelles seront les conséquences de ces changements sur le paysage de l’intelligence artificielle dans son ensemble.

Lire plus
Intelligence Artificielle

L’IA générative : une adoption fulgurante qui dépasse celle du PC et d’Internet

creating generative ai solution

L’intelligence artificielle générative (IA) fait couler beaucoup d’encre dans le monde de la tech. Mais une nouvelle étude menée par la Réserve Fédérale de St. Louis, l’Université Vanderbilt et la Harvard Kennedy School révèle l’ampleur réelle de sa pénétration dans le monde du travail, avec des résultats surprenants.

Selon l’article intitulé « The Rapid Adoption of Generative AI » (L’adoption rapide de l’IA générative), cette technologie s’est implantée plus rapidement que d’autres innovations majeures comme l’ordinateur personnel ou Internet.

Voici cinq points clés de cette étude, qui a interrogé des milliers de travailleurs américains pour évaluer l’adoption de l’IA générative au travail et à la maison :

1 — L’IA générative déjà plus répandue que le PC à ses débuts

L’IA générative se propage à une vitesse fulgurante. Seulement 2 ans après le lancement public de ChatGPT, 39,4 % des Américains âgés de 18 à 64 ans ont déclaré utiliser l’IA générative, dont 28 % au travail. En comparaison, il a fallu 3 ans aux PC pour atteindre un taux d’adoption de 20 %.

BlogImage GenerativeAI Fig2 0923 jpg

« L’IA générative a été adoptée à un rythme plus rapide que les PC ou Internet », écrivent les chercheurs. « Cela est dû à une adoption plus rapide de l’IA générative à domicile par rapport au PC, probablement en raison des différences de portabilité et de coût ».

La facilité d’accès à des outils tels que ChatGPT et Google Gemini a joué un rôle crucial dans cette adoption accélérée.

2 — L’IA générative utilisée par tous, pas seulement par les techniciens

Contrairement à ce que l’on pourrait penser, l’IA générative n’est pas réservée aux développeurs de logiciels ou aux data scientists. L’étude montre que son adoption est généralisée dans tous les secteurs. En effet, un « cols bleus » sur cinq — ceux qui travaillent dans la construction, l’installation, la réparation et le transport — utilise régulièrement l’IA générative au travail.

Screenshot 2024 09 24 at 11.27.5 jpg

« L’adoption de l’IA générative est plus courante dans les professions de gestion, d’affaires et d’informatique, avec des taux d’utilisation dépassant 40 % », indique l’étude. « Cependant, un “col bleu” sur cinq et un travailleur sans diplôme universitaire sur cinq utilisent également régulièrement l’IA générative au travail ».

3 — L’adoption de l’IA reflète la tendance à l’inégalité croissante au travail

Tout comme la révolution du PC a conduit à une plus grande inégalité au travail, l’adoption de l’IA générative pourrait accélérer cette tendance. L’étude a révélé que les travailleurs plus jeunes, plus instruits et à revenu plus élevé sont plus susceptibles d’utiliser l’IA au travail.

Screenshot 2024 09 24 at 11.32.5 jpg

Les travailleurs titulaires d’un baccalauréat ou d’un diplôme supérieur sont deux fois plus susceptibles d’utiliser l’IA que ceux qui n’en ont pas (40 % contre 20 %). Les chercheurs mettent en garde contre le risque d’exacerbation des inégalités existantes sur le marché du travail.

4 — L’IA permet déjà de gagner du temps sur diverses tâches

Les travailleurs utilisent l’IA générative pour bien plus que la programmation ou le travail technique. Les utilisations les plus courantes de l’IA au travail comprennent la rédaction, les tâches administratives et l’interprétation de textes ou de données. En fait, 57 % des personnes utilisant l’IA au travail ont déclaré l’utiliser pour les tâches de rédaction, et 49 % pour la recherche d’informations.

Screenshot 2024 09 24 at 11.35.4 jpg

Les chercheurs notent que « les taux d’utilisation au travail dépassent 25 % pour les dix tâches de notre liste », soulignant à quel point l’IA générative est devenue utile dans toutes les fonctions professionnelles. Qu’il s’agisse de résumer des rapports ou de générer de nouvelles idées, l’IA permet déjà aux employés de gagner un temps considérable.

5 — L’IA pourrait stimuler la productivité du travail aux États-Unis, mais il est encore tôt pour le dire

La conclusion la plus encourageante de l’étude est peut-être que l’IA générative pourrait donner un coup de fouet notable à la productivité du travail. Sur la base des modes d’utilisation actuels, les chercheurs estiment qu’entre 0,5 % et 3,5 % de toutes les heures de travail aux États-Unis sont actuellement assistées par l’IA générative. Ils estiment en outre que cela pourrait entraîner une augmentation de la productivité du travail comprise entre 0,125 % et 0,875 %.

Screenshot 2024 09 24 at 11.42.3 jpg

« Si nous supposons que l’IA générative augmente la productivité des tâches de 25 % — l’estimation médiane de cinq études randomisées — cela se traduirait par une augmentation de la productivité du travail comprise entre 0,125 et 0,875 point de pourcentage aux niveaux d’utilisation actuels », explique l’étude.

Cependant, les auteurs préviennent que ces estimations sont spéculatives, étant donné le stade précoce de l’adoption de l’IA générative. Bien que le potentiel de cette technologie soit immense, son impact à long terme sur l’économie dépendra de la profondeur de son intégration dans les flux de travail quotidiens.

Lire plus
Intelligence Artificielle

Finis les résumés fastidieux : NotebookLM transcrit et analyse vos vidéos YouTube en un clin d’œil

Finis les résumés fastidieux : NotebookLM transcrit et analyse vos vidéos YouTube en un clin d'œil

NotebookLM de Google s’est rapidement imposé comme l’outil indispensable pour les étudiants. Synthétisant le contenu de manière claire et concise, facilitant les citations de sources, c’est un outil puissant dont j’aurais rêvé pendant mes années d’études. Et aujourd’hui, NotebookLM franchit un nouveau cap en intégrant la capacité d’analyser et de décortiquer les vidéos YouTube.

Déjà réputée pour sa capacité à analyser et résumer différents types de contenu, la plateforme prend désormais en charge les URL YouTube publiques et les fichiers audio. Cette extension permet aux utilisateurs de télécharger directement des vidéos et des enregistrements audio dans leurs carnets, simplifiant ainsi le processus d’analyse et de partage d’informations.

Ces nouvelles fonctionnalités sont rendues possibles grâce aux capacités multimodales de Gemini 1.5, qui garantissent que NotebookLM peut gérer efficacement un large éventail de sources. En exploitant des algorithmes avancés d’apprentissage automatique, NotebookLM peut extraire des informations clés, générer des résumés et fournir aux utilisateurs une compréhension complète du contenu avec lequel ils travaillent.

SharePage NOBorder.width 1000.fo jpg

Comment ça marche ?

L’intégration de la prise en charge de YouTube et de l’audio ouvre un monde de possibilités pour les utilisateurs de tous les secteurs et de toutes les disciplines. Les enseignants peuvent désormais facilement incorporer des conférences vidéo et des podcasts dans leurs plans de cours, tandis que les chercheurs peuvent analyser des interviews et des enregistrements sur le terrain en toute simplicité. Les professionnels du marketing peuvent obtenir des informations précieuses à partir des avis sur les produits et des témoignages de clients, et les journalistes peuvent rapidement transcrire et résumer des interviews pour leurs articles.

Cette nouvelle fonctionnalité a été ajoutée sous la forme d’un nouveau type de source, vous permettant de copier-coller l’URL d’une vidéo YouTube pour lancer le processus. Voici comment cette nouvelle fonctionnalité se présente et fonctionne :

  1. Dans NotebookLM, cliquez sur « Sources » en haut à droite.
  2. Dans la fenêtre contextuelle « Ajouter des sources », vous verrez « YouTube » listé sous « Lien ». Cliquez dessus.
  3. Screen 2024 09 27 10.34.41 jpg
  4. Collez simplement l’URL de la vidéo YouTube que vous souhaitez résumer et appuyez sur « Insérer ». C’est tout ! Screen 2024 09 27 10.34.58 jpg
  5. L’outil générera alors un résumé de la vidéo YouTube. Screen 2024 09 27 10.41.11 scaled
  6. Pour consulter la transcription, cliquez simplement sur la source YouTube dans le panneau de droite, et le panneau complet du Guide des sources apparaîtra.

Au-delà du simple résumé

De cette façon, vous pouvez facilement transcrire et résumer de longues vidéos YouTube et gagner beaucoup de temps. Mais ce n’est pas tout. La véritable puissance de NotebookLM réside dans sa capacité à répondre à toutes vos questions supplémentaires.

Par exemple, après un résumé, le panneau « Questions suggérées » listera des questions pertinentes à poser à l’outil d’IA concernant le contenu. Pour rendre les choses plus amusantes, vous pouvez également générer un podcast complet à partir de vos sources, grâce à la fonction « Aperçu audio ».

Screen 2024 09 27 10.41.29 jpg

Vous pouvez utiliser ces fonctionnalités pour mieux comprendre des sujets difficiles à saisir. De plus, vous pouvez utiliser le chat pour poser vos propres questions et voir l’outil décoder tout cela pour vous. C’est extrêmement utile et peut aider les étudiants à couvrir des sujets beaucoup plus rapidement que toute autre méthode ou outil d’étude conventionnel.

Pas seulement pour les étudiants

Mais les étudiants ne sont pas les seuls à en bénéficier. Sous le panneau « M’aider à créer », vous trouverez un ensemble de modèles qui vous permettent de transformer la vidéo YouTube en un guide d’étude, un document de briefing, une chronologie, etc., en un seul clic. En plus de l’analyse des vidéos YouTube, Google a également ajouté la fonctionnalité de partage des aperçus audio.

En conclusion, il s’agit d’un ajout très significatif à l’outil, et je suis tout à fait pour. Qu’en pensez-vous ?

Gratuit et accessible à tous

Malgré les améliorations significatives apportées à son ensemble de fonctionnalités, NotebookLM reste engagé à fournir des solutions accessibles et abordables à ses utilisateurs. La plateforme continue d’être disponible gratuitement, avec ces nouvelles fonctionnalités incluses sans frais supplémentaires. Les utilisateurs peuvent commencer à utiliser la nouvelle intégration YouTube et audio immédiatement en mettant simplement à jour leur application NotebookLM.

Alors que NotebookLM continue d’évoluer et d’étendre ses capacités, il est en passe de devenir un outil indispensable pour les individus et les organisations. Avec son interface conviviale, ses puissantes fonctionnalités d’analyse et son intégration transparente avec les plateformes populaires, NotebookLM transforme la façon dont nous interagissons avec et tirons des informations de diverses sources de contenu.

Lire plus
Intelligence Artificielle

ChatGPT parle enfin ! Le mode vocal avancé débarque pour les abonnés Plus et Teams

ChatGPT parle enfin ! Le mode vocal avancé débarque pour les abonnés Plus et Teams

ChatGPT Advanced Voice a fait l’objet d’une démonstration il y a plusieurs mois lors du lancement de GPT-4o, mais OpenAI n’a cessé d’en retarder la sortie en raison de problèmes de sécurité. Une controverse a ensuite éclaté au sujet de la voix « Sky », qui ressemblait étrangement à la voix de Scarlett Johansson.

Enfin, cinq mois plus tard, OpenAI déploie maintenant Advanced Voice pour tous les utilisateurs de ChatGPT Plus et Team. OpenAI indique que le déploiement sera terminé cette semaine.

Au cas où vous ne le sauriez pas, Advanced Voice est une amélioration considérable par rapport au chat vocal standard disponible pour les utilisateurs gratuits de ChatGPT. Advanced Voice utilise la capacité multimodale du modèle GPT-4o pour offrir une conversation naturelle et fluide avec un support pour les interruptions.

Advanced Voice dans ChatGPT peut sembler analogue à Gemini Live de Google, mais il y a une différence essentielle. Gemini Live utilise des moteurs TTS/STT (text-to-speech) entre les deux pour extraire les réponses d’un LLM et y répondre, mais ChatGPT Advanced Voice prend en charge l’entrée/sortie audio directement. Gemini Live prend également en charge les interruptions, mais n’offre pas une expérience véritablement multimodale.

Pendant la démo, OpenAI a montré qu’elle pouvait chanter pour vous, identifier votre humeur/émotion par votre discours, détecter différents sons, prendre des accents, et bien d’autres choses encore. Toutefois, Advanced Voice indique actuellement qu’elle ne peut pas identifier la parole. De plus, la saisie par caméra n’est pas encore prise en charge. Il semble que OpenAI ait supprimé certaines fonctionnalités pour éviter les conversations embarrassantes avec ChatGPT. Quoi qu’il en soit, êtes-vous impatient d’utiliser ChatGPT Advanced Voice ?

ChatGPT Advanced Voice: Pas de lancement en Europe ?

Cependant, le lancement n’aura pas lieu dans l’UE, et il semble y avoir une explication. Un tweet d’OpenAI sur X indique simplement que « Advanced Voice n’est pas encore disponible dans l’UE, le Royaume-Uni, la Suisse, l’Islande, la Norvège et le Liechtenstein ». En réponse, un tweet de Dean W Ball, utilisateur de X.com, met en évidence une section de l’EU AI Act, un élément de la législation européenne qui restreint « la mise sur le marché, la mise en service dans ce but spécifique, ou l’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique ».

Cela signifie que le mode vocal avancé de ChatGPT serait illégal sur les lieux de travail et dans les écoles de l’UE parce qu’il peut reconnaître les émotions dans la voix de l’utilisateur.

On peut envisager qu’OpenAI puisse bénéficier d’une exception quelconque, mais en l’état, la loi sur l’IA maintiendra certainement les pays européens à la traîne du reste du monde en ce qui concerne les progrès de l’IA. Bien sûr, il y a l’argument du respect de l’esprit de la loi plutôt que respecter à la lettre la loi. Il n’en reste pas moins que, puisque le mode vocal avancé peut percevoir vos émotions et y répondre, il violerait actuellement cette condition.

L’ouverture du mode vocal avancé de ChatGPT marque une étape importante dans l’évolution des chatbots. En rendant l’interaction avec l’IA plus naturelle et accessible, OpenAI ouvre la voie à de nouvelles applications et usages, tout en s’efforçant de répondre aux enjeux éthiques et de sécurité liés à cette technologie.

Lire plus
Intelligence Artificielle

Mira Murati quitte OpenAI : un coup dur pour le géant de l’IA ?

Mira Murati quitte OpenAI : un coup dur pour le géant de l'IA ?

Dans un coup de théâtre qui ébranle davantage l’une des entreprises les plus en vue de l’intelligence artificielle, Mira Murati, directrice de la technologie d’OpenAI, a annoncé sa démission mercredi. Ce départ inattendu s’ajoute à une série de départs de haut niveau au sein de la société, signalant une crise grandissante au sein d’une organisation qui, il y a quelques mois encore, était au sommet de sa gloire.

Murati, qui a rejoint OpenAI en 2018 et est devenue CTO en 2022, a joué un rôle crucial dans le développement des modèles d’IA révolutionnaires de l’entreprise, notamment GPT-3 et ChatGPT. Son départ fait suite à celui d’autres cadres clés, dont le cofondateur John Schulman et l’ancien président Greg Brockman.

Remerciements et inquiétudes autour d’OpenAI

Chez OpenAI, Murati était chargé de superviser la stratégie technique et le développement des produits de l’entreprise, notamment le lancement et l’amélioration de DALL-E, Codex, Sora et de la plateforme ChatGPT, tout en dirigeant les équipes de recherche et de sécurité. Lors de ses apparitions publiques, Murati évoquait souvent les considérations éthiques dans le développement de l’IA.

Dans sa note au personnel, Murati a exprimé sa gratitude pour son passage chez OpenAI, soulignant les réalisations de l’entreprise dans le domaine de l’IA. Elle a écrit : « Nos récentes sorties de la parole à la parole et d’OpenAI o1 marquent le début d’une nouvelle ère dans l’interaction et l’intelligence — des réalisations rendues possibles par votre ingéniosité et votre savoir-faire ».

Murati a déclaré que sa décision de partir était motivée par le désir de « créer le temps et l’espace pour faire ma propre exploration », bien qu’elle n’ait pas précisé ses projets futurs.

Cependant, le moment choisi pour le départ de Murati soulève des questions sur la stabilité interne d’OpenAI et coïncide avec d’importants changements structurels au sein de l’organisation.

mira gpt4o jpg

Restructuration et conflits internes

Selon un récent rapport de Reuters, OpenAI travaille sur un plan visant à restructurer son activité principale en une société à but lucratif qui ne sera plus contrôlée par son conseil d’administration à but non lucratif. Cette décision, si elle est mise en œuvre, modifierait fondamentalement la structure de gouvernance de l’entreprise et potentiellement sa mission.

La société est aux prises avec des défis de leadership et des incertitudes stratégiques depuis un coup d’État tumultueux au sein du conseil d’administration en novembre 2023, qui a brièvement évincé le PDG Sam Altman. Bien qu’Altman ait été rapidement réintégré, l’incident a révélé de profondes divisions au sein de la direction et de la vision de l’organisation.

Cette entreprise deviendrait plus attractive pour les investisseurs, l’association conservant une participation minoritaire. Cependant, pour ceux qui s’inquiètent de l’approche d’OpenAI en matière de sécurité par rapport aux potentiels profits, cela peut être déstabilisant car l’entreprise recherche des modèles d’IA capables de raisonner.

Selon Reuters, des sources anonymes affirment qu’une partie du nouveau plan prévoit l’octroi pour la première fois d’une participation au capital de Sam Altman, qui pourrait atteindre environ 7 %.

La réponse d’Altman

La réponse d’Altman au départ de Murati sur les réseaux sociaux offre un aperçu supplémentaire de la situation. Son tweet, tout en exprimant sa gratitude, fait également allusion à un plan de transition prédéterminé, déclarant : « Nous en dirons plus sur les plans de transition bientôt ». Cela suggère que le départ de Murati était peut-être anticipé et potentiellement intégré à une stratégie de réorganisation plus vaste.

La réponse mesurée d’Altman et la mention d’annonces futures indiquent qu’il gère soigneusement la communication autour de ces changements de leadership.

Un contexte de concurrence accrue

Les difficultés d’OpenAI surviennent à un moment crucial pour l’industrie de l’IA. Des rivaux comme Google, avec ses modèles Gemini récemment publiés, et Meta, avec ses nouveaux modèles Llama 3.2 open source, réduisent rapidement l’écart en matière de capacités d’IA. Des concurrents plus petits et plus agiles, tels que Anthropic et Mistral, font également des progrès significatifs, remettant en question la domination d’OpenAI.

Les troubles internes de l’entreprise s’inscrivent dans un contexte de défis plus larges auxquels est confronté le secteur de l’IA. La surveillance réglementaire s’intensifie à l’échelle mondiale, les législateurs et les décideurs politiques étant aux prises avec les implications éthiques et les risques potentiels des systèmes d’IA avancés. L’instabilité du leadership d’OpenAI pourrait potentiellement entraver sa capacité à naviguer efficacement dans ces eaux réglementaires complexes.

En outre, la société fait face à un procès intenté par Elon Musk, l’un de ses cofondateurs, qui accuse OpenAI d’avoir trahi sa mission originale à but non lucratif. Cette bataille juridique ajoute une autre couche de complexité à la situation déjà turbulente de l’entreprise.

Un avenir incertain

Les répercussions de ce bouleversement s’étendent bien au-delà des salles de réunion d’OpenAI. À une époque où l’IA est la nouvelle électricité, alimentant tout, de la correction automatique de votre smartphone à la détection de maladie rare, la prochaine étape d’OpenAI pourrait avoir des répercussions sur l’ensemble de l’écosystème technologique. Les concurrents observent avec impatience, se demandant si c’est leur chance de prendre de l’avance dans la course à l’intelligence artificielle générale.

Alors qu’OpenAI navigue dans ces eaux agitées, le monde de la technologie retient collectivement son souffle.

Lire plus
Intelligence Artificielle

Meta AI : Vos photos prennent vie dans vos flux Facebook et Instagram !

Meta AI : Vos photos prennent vie dans vos flux Facebook et Instagram !

Meta Connect 2024 a été le théâtre de nombreuses annonces passionnantes concernant l’intelligence artificielle, notamment en ce qui concerne Meta AI, le chatbot présent sur les réseaux sociaux populaires comme Facebook, Instagram, WhatsApp et Messenger. Parmi les nouveautés les plus marquantes, on retrouve la capacité de Meta AI à analyser et modifier vos photos directement dans vos conversations.

Avec la sortie des nouveaux modèles multimodaux Llama 3.2 – 11B et 90B — Meta a débloqué de nouveaux cas d’utilisation pour son chatbot Meta AI. Lors de l’événement Meta Connect 2024, l’entreprise a annoncé plusieurs nouvelles fonctionnalités pour Meta AI qui permettent aux utilisateurs d’interagir avec différentes modalités comme l’audio et les images.

Parler à Meta AI

Tout d’abord, vous pouvez désormais parler à Meta AI en utilisant la voix et il vous répondra à voix haute. Vous pouvez poursuivre la conversation et poser des questions sur n’importe quel sujet. Le plus intéressant, c’est qu’elle peut même trouver les informations les plus récentes en parcourant l’internet.

Ce n’est pas aussi conversationnel que Gemini Live et ChatGPT Advanced Voice, mais vous bénéficiez d’une interface de chat vocal bidirectionnel standard. Cependant, il n’y a pas de prise en charge des interruptions.

Cette annonce ne pouvait pas mieux tomber puisque ChatGPT Advanced Voice Mode a commencé à être déployé pour les utilisateurs aujourd’hui. Le chat Meta Voice est disponible via le chatbot Meta AI sur WhatsApp, Facebook, Messenger et Instagram DM. Différentes voix d’IA sont disponibles et vous pouvez même choisir la voix de personnalités publiques telles que John Cena, Keegan Michael Key, Awkwafina, Dame Judi Dench et Kristen Bell.

Meta AI étant désormais alimenté par les modèles multi-modaux Llama 3.2 11B et 90B, vous pouvez télécharger une image et demander à Meta AI de l’analyser. Par exemple, vous pouvez télécharger l’image d’une montagne, demander où elle se trouve et trouver plus d’informations en cours de route. Vous pouvez également choisir de télécharger des graphiques et des diagrammes et de déduire le sens de vos données visuelles.

Retouche photo par l’IA

Ensuite, Meta AI apporte l’édition de photos par l’IA à ses applications de réseaux sociaux. Vous pouvez télécharger une image et demander au chatbot IA de modifier l’arrière-plan, d’effacer les objets indésirables, de changer de tenue, et bien plus encore.

Vous souhaitez retirer quelqu’un d’une photo ? Meta AI s’en charge. Vous voulez changer l’arrière-plan ? Aucun problème. Vous rêvez de poser à côté d’un lion ? Meta AI exauce vos souhaits sans mettre votre vie en danger. Vous voulez vous voir dans une tenue différente ? Meta AI devient votre conseiller mode personnel.

04 Meta AI add edit remove photo jpg

Fondamentalement, l’édition de photos par l’IA est maintenant facilement disponible sur la pile de réseaux sociaux de Meta, y compris WhatsApp, Facebook Messenger, Instagram et Facebook. Le fonctionnement est analogue à celui de Magic Editor de Google, mais il est disponible dans vos applications de réseaux sociaux et vous pouvez les partager de manière transparente en tant qu’histoires.

Créez des images de vous en IA

Mieux encore, l’outil Reimagine AI vous permet désormais de créer des images de vous-même générées par l’IA. Vous pouvez réimaginer vos photos à partir de votre fil d’actualité, de vos stories et de vos photos de profil Facebook en ajoutant simplement une invite, et Meta AI générera instantanément une image basée sur votre invitation. Cela signifie que vous n’avez pas besoin d’entraîner vos images à l’aide de LoRA pour créer des images de vous-même générées par l’IA.

meta imagine for you

Traduction des Reels par l’IA

Enfin, l’une des fonctionnalités les plus prometteuses de Meta AI est la traduction automatique des Reels. Si un créateur a publié un Reels dans une langue étrangère que vous ne comprenez pas, Meta AI traduira automatiquement l’audio dans votre langue avec une synchronisation parfaite des lèvres. Actuellement, cette fonctionnalité est limitée à l’Amérique latine et aux États-Unis, en anglais et en espagnol. Meta affirme que cette fonctionnalité sera bientôt étendue à d’autres régions et à d’autres langues.

06 Meta AI Translations jpg

Ensuite, les utilisateurs de Facebook et d’Instagram pourront voir des images générées par l’IA de Meta dans le fil d’actualité de l’utilisateur, en fonction de l’intérêt de ce dernier ou des tendances actuelles. Vous pouvez également modifier l’invite pour générer du nouveau contenu dans votre fil d’actualité. Enfin, les utilisateurs pourront personnaliser des thèmes à l’aide de l’IA dans leurs DM privés.

Ces nouvelles fonctionnalités devraient être déployées progressivement aux utilisateurs de Meta AI aux États-Unis, au Canada, en Australie et en Nouvelle-Zélande au cours du mois prochain. Il est fort probable que la France et d’autres pays suivent rapidement, ouvrant ainsi de nouvelles perspectives créatives et pratiques pour les utilisateurs de Meta AI.

Voici donc les nouvelles fonctionnalités de Meta AI qui arrivent sur WhatsApp, Instagram, Facebook et Messenger. Êtes-vous impatient de les découvrir ? Faites-le nous savoir dans les commentaires ci-dessous.

Lire plus
Intelligence Artificielle

Llama 3.2 : Meta rattrape son retard dans l’IA multimodale

Llama 3.2 : Meta rattrape son retard dans l'IA multimodale

Le Meta Connect 2024 marque une avancée significative dans l’univers de l’intelligence artificielle avec l’introduction de Llama 3.2, le premier modèle multimodal open-source de Meta capable de comprendre à la fois le texte et les images.

Llama 3.2 se décline en plusieurs versions : des modèles de taille petite et moyenne (11B et 90B paramètres) ainsi que des modèles légers textuels (1B et 3B paramètres) optimisés pour les appareils mobiles et périphériques. Mark Zuckerberg, PDG de Meta, a souligné l’importance de ce lancement lors de son discours d’ouverture : « C’est notre premier modèle multimodal open source. Il va ouvrir la voie à de nombreuses applications nécessitant une compréhension visuelle ».

À l’instar de son prédécesseur, Llama 3.2 dispose d’une longueur de contexte de 128 000 tokens, permettant aux utilisateurs de saisir de grandes quantités de texte (équivalentes à des centaines de pages). De plus, un nombre de paramètres élevé garantit une meilleure précision et la capacité de gérer des tâches plus complexes.

Meta publie également pour la première fois des distributions officielles de la pile Llama, offrant aux développeurs la flexibilité de travailler avec les modèles dans divers environnements : sur site, sur appareil, dans le cloud ou sur un nœud unique.

Mark Zuckerberg a réaffirmé l’importance de l’open source : « L’open source est en train de devenir, et est déjà, l’option la plus rentable, personnalisable, fiable et performante. Nous avons atteint un point d’inflexion dans l’industrie. C’est en train de devenir un standard, le Linux de l’IA ».

460942153 931942502081982 446128 scaled

Llama 3.2, des performances rivalisant avec les modèles fermés

Llama 3.1, lancé il y a un peu plus de 2 mois, a connu une croissance impressionnante, multipliant par 10 son utilisation. Mark Zuckerberg a déclaré : « Llama continue de s’améliorer rapidement. Il permet de plus en plus de fonctionnalités ».

Les deux plus grands modèles Llama 3.2 (11B et 90B) prennent en charge les cas d’utilisation d’images, avec la capacité de comprendre des graphiques, de légender des images et d’identifier des objets à partir de descriptions en langage naturel. Par exemple, un utilisateur peut demander à quel mois son entreprise a réalisé les meilleures ventes, et le modèle fournira une réponse basée sur les graphiques disponibles. Les modèles plus grands peuvent également extraire des détails d’images pour créer des légendes.

Les modèles légers, quant à eux, aident les développeurs à créer des applications personnalisées dans un environnement privé, comme résumer des messages récents ou envoyer des invitations à des réunions de suivi.

Meta affirme que Llama 3.2 est compétitif avec Claude 3 Haiku d’Anthropic et GPT4o-mini d’OpenAI en matière de reconnaissance d’images et d’autres tâches de compréhension visuelle. Il surpasse également Gemma et Phi 3.5-mini dans des domaines tels que le suivi des instructions, le résumé, l’utilisation d’outils et la réécriture de prompts.

Les modèles Llama 3.2 sont disponibles en téléchargement sur llama.com et Hugging Face, ainsi que sur les plateformes partenaires de Meta.

Meta rattrape son retard

Si d’autres acteurs de l’IA, comme OpenAI et Google, ont déjà lancé des modèles multimodaux l’année dernière, Meta était jusqu’à présent à la traîne. L’ajout de la prise en charge des images jouera un rôle clé dans le développement des capacités d’IA sur les équipements Meta, tels que les lunettes Ray-Ban Meta.

461209081 511117684875670 455640 scaled

Malgré l’arrivée de Llama 3.2, le modèle Llama 3.1, sorti en juillet, reste pertinent. Il inclut une version avec 405 milliards de paramètres, théoriquement plus performante pour la génération de texte.

Lire plus
Intelligence Artificielle

Meta Quest 3S : Le casque VR abordable qui n’a rien à envier à son grand frère

image 2 1

Lors de la conférence Meta Connect 2024, Meta a dévoilé le Quest 3S, un casque VR à 329,99 euros reprenant les meilleures fonctionnalités du Quest 3, lancé l’année dernière. Bien que le Quest 3 reste supérieur en termes de performances globales, ce modèle abordable offre la possibilité de profiter des mêmes jeux, applications et expériences immersives en réalité mixte et en réalité virtuelle.

Équipé de la puissante puce Snapdragon XR2 Gen 2 de Qualcomm, le Quest 3S peut exécuter des titres exigeants tels que « Batman : Arkham Shadow » et « Asgard’s Wrath 2 ». De plus, si vous achetez un Quest 3S pendant la période promotionnelle, « Arkham Shadow » est offert gratuitement.

461281784 1699229494144228 45582 scaled

Les contrôleurs Touch Plus, dépourvus des encombrants anneaux du Quest 2, garantissent une plus grande liberté de mouvement sans risque de collision. Le Quest 3S est également compatible avec le suivi des mains et les contrôleurs du Quest 3. Vous pourrez ainsi utiliser vos mains pour interagir avec les commandes virtuelles dans Horizon OS de Meta et dans un nombre croissant de jeux et d’applications.

Productivité et divertissement réunis dans le Quest 3S

Le Quest 3S offre une polyvalence impressionnante. Ouvrez le navigateur pour afficher trois tablettes géantes autour de vous, interagissez avec des fenêtres virtuelles, parcourez le Web et faites défiler les pages. Le Quest 3S pourrait bien remplacer votre tablette, avec en prime une confidentialité automatique.

Plongez dans l’application Fast Hands pour un entraînement cardio léger au rythme de la musique, ou utilisez vos contrôleurs pour une séance complète avec Supernatural. Pour une pause bien méritée, profitez de Netflix sur un écran géant et rattrapez vos séries préférées. Le Quest 3S s’adapte à tous vos besoins, que ce soit pour le travail, le jeu ou le divertissement.

Meta AI, déjà présente sur les réseaux sociaux, s’invite également dans les casques VR. Le Quest 3S intègre des capacités d’IA multimodales similaires à celles des lunettes Ray-Ban Meta Smart Glasses. D’une simple pression sur un bouton, le Quest 3S lance Meta AI pour répondre à vos questions ou identifier et discuter de tout objet du monde réel visible à travers les caméras passthrough.

Des compromis pour un prix accessible

À 330 euros, le Quest 3S fait quelques concessions par rapport au Quest 3. Il est légèrement plus épais et les lentilles offrent une zone de netteté moins étendue. Le Quest 3S arbore deux groupes de caméras de suivi à l’avant, lui conférant un look distinctif, mais son corps rappelle celui du Quest 2. Il utilise également des lentilles de Fresnel comme l’ancien modèle, au lieu des lentilles pancake avancées du Quest 3.

image 3 1 jpg

Si vous pouvez vous le permettre, le Quest 3 reste un meilleur casque VR. Cependant, le Quest 3S est un excellent point d’entrée dans la réalité virtuelle ou une mise à niveau intéressante pour les possesseurs d’un Quest ou Quest 2. Son prix abordable en fait une option attrayante pour équiper toute la famille.

Le Quest 3S sera expédié à partir du 15 octobre et est disponible en précommande dès aujourd’hui.

Lire plus