fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Google Bard : l’IA qui simplifie et dynamise le développement logiciel pour 2024

7649e417 a643 4e88 be2f 6c37dc64ae46

Le paysage du développement logiciel est en pleine effervescence avec les progrès de l’intelligence artificielle, de l’informatique sur le cloud et de l’automatisation.

Les développeurs, architectes infatigables de notre monde numérique, s’adaptent en permanence pour garder une longueur d’avance. Et s’il existait un moyen de simplifier leur charge de travail, de rationaliser leurs processus et de libérer leur potentiel créatif ?

Voici Google Bard, le compagnon de codage innovant qui devrait révolutionner le développement de logiciels au cours de l’année à venir.

Bard : au-delà des mots à la mode

Bard n’est pas un simple mot à la mode : il s’agit d’un vaste modèle de langage développé par Google et entraîné sur un ensemble massif de données de texte et de code. Cela lui permet de comprendre les subtilités du langage humain, les nuances des langages de programmation et la logique complexe qui sous-tend le développement de logiciels.

Contrairement à un simple outil de complétion de code, Google Bard est un partenaire collaboratif, un sherpa numérique qui guide les développeurs sur le terrain inconnu des projets complexes.

La symphonie de la collaboration

Imaginez un peu : vous êtes bloqué sur un problème de codage particulièrement épineux. Vous avez passé des heures à déboguer, la frustration monte et l’échéance se profile à l’horizon. C’est alors que vous vous adressez à Bard. Vous décrivez votre problème dans un langage simple et Bard vous écoute attentivement. Il analyse votre code, suggère des solutions potentielles et génère même des bouts de code à tester. C’est comme si un développeur chevronné vous chuchotait des conseils avisés à l’oreille, vous guidant vers l’insaisissable solution.

C’est la symphonie de la collaboration qu’orchestre Bard. Elle amplifie vos forces, en comblant les lacunes de vos connaissances. Il peut :

  • Comprendre vos besoins : expliquez les objectifs de votre projet et Bard en saisira les fonctionnalités essentielles, en vous suggérant des bibliothèques, des frameworks et des meilleures pratiques.
  • Démystifier le code : vous êtes bloqué sur un bug ? Bard peut analyser votre code, signaler les potentielles erreurs et même suggérer des corrections.
  • Générer du code standard : libérez-vous de la fastidieuse tâche d’écrire du code répétitif. Bard peut créer du code de base, ce qui vous permet de vous concentrer sur la logique de base.
  • Offrir des perspectives diverses : vous êtes coincé dans une ornière de codage ? Bard peut suggérer des approches alternatives, en s’inspirant d’un vaste répertoire de projets open source et de forums de développeurs.
  • Rédiger une documentation complète : Plus besoin de se démener pour documenter votre code. Bard peut générer automatiquement une documentation claire et concise, ce qui vous permet de gagner un temps précieux et d’assurer la maintenabilité du projet.

Au-delà des corrections de bugs : libérer la créativité

Mais les capacités de Bard vont bien au-delà de la correction de bugs et de l’achèvement du code. C’est un catalyseur créatif qui repousse les limites du développement logiciel. Il peut :

  • Prototyper rapidement : vous avez besoin de tester rapidement une nouvelle idée ? Bard peut vous aider à construire des prototypes de base, vous permettant d’itérer et d’affiner votre concept avant de plonger dans un développement complet.
  • Générer des interfaces utilisateur créatives : vous êtes bloqué sur la conception d’une interface utilisateur ? Bard peut vous suggérer des mises en page innovantes, des palettes de couleurs et des éléments interactifs, afin de stimuler votre créativité.
  • Écrire des tests unitaires sans effort : vous redoutez la corvée d’écriture des tests unitaires ? Bard peut générer automatiquement des tests complets, garantissant la robustesse et la qualité de votre code.
  • Collaborez avec diverses équipes : comblez le fossé de la communication entre les développeurs, les designers et les chefs de produit. Bard peut traduire le jargon technique en anglais simple et vice versa, garantissant ainsi une collaboration sans faille.

L’avenir du développement : les humains et l’IA en harmonie

ffe79456 daca 4bff bad4 df2c97d8d11e

L’essor de l’IA dans le développement de logiciels ne signifie pas que les développeurs humains vont sombrer dans la sinistrose. Au contraire, c’est l’occasion de travailler plus intelligemment, et non plus durement. Bard responsabilise les développeurs en les libérant des tâches banales et répétitives, ce qui leur permet de se concentrer sur les aspects véritablement créatifs du développement logiciel. Il s’agit d’une relation symbiotique où l’ingéniosité humaine et la puissance de traitement de l’IA se combinent pour créer des expériences logicielles remarquables.

Accepter le changement : se préparer à un avenir alimenté par Bard

Alors, comment pouvez-vous, en tant que développeur, vous préparer à cet avenir alimenté par l’IA ?

Voici quelques conseils :

  • Adopter l’apprentissage tout au long de la vie : à mesure que les outils d’IA évoluent, l’apprentissage continu devient crucial. Tenez-vous au courant des dernières avancées en matière d’IA et des capacités de Bard pour en exploiter tout le potentiel.
  • Mettez l’accent sur les compétences non techniques : Si Bard peut se charger des tâches techniques, de solides compétences en matière de communication, de collaboration et de résolution de problèmes resteront essentielles dans les équipes de développement humain-IA de demain.
  • Expérimentez et explorez : n’ayez pas peur d’expérimenter les fonctionnalités de Bard. Jouez, repoussez les limites et découvrez comment il peut rationaliser votre workflow et stimuler votre créativité.

Résumé

L’année 2024 marque l’avènement d’une nouvelle ère dans le développement de logiciels, où les humains et l’IA collaborent dans une symphonie de créativité et d’efficacité. Bard, le compagnon de codage, se trouve à l’avant-garde de cette révolution, prêt à donner du pouvoir aux développeurs et à remodeler le tissu même de la création de logiciels.

Adoptez le changement, explorez les possibilités et libérez l’immense potentiel qui se trouve à l’intersection de l’ingéniosité humaine et de l’IA.

Lire plus
Intelligence Artificielle

Midjourney V6 : un pas de géant pour les créateurs d’images

aed6174d 029a 4067 a23a ca351dc241c6

C’était un cadeau pour les fêtes de fin d’année. L’arrivée de la version 6 de Midjourney a suscité l’enthousiasme de tous ceux qui créent et manipulent des images numériques. Cette version alpha est le fruit de 9 mois de développement, et elle apporte une foule de nouvelles fonctionnalités qui promettent d’améliorer la qualité et la complexité des images que vous pouvez produire. Pour ceux qui attendaient cette mise à jour avec impatience, le moment est venu de se plonger dans les nouvelles fonctionnalités et de voir à quel point vous pouvez mieux contrôler votre production créative.

Pour tirer le meilleur parti de la version 6 de Midjourney, il est essentiel de se familiariser avec les nouvelles commandes qui ont été introduites. Ces commandes sont conçues pour être conviviales, mais il faut s’y habituer. Une fois que vous les aurez maîtrisées, vous constaterez que la création d’images d’une clarté et d’un détail époustouflants est plus simple que jamais.

L’amélioration de la qualité par rapport à la version précédente est immédiatement visible. Les images produites sont désormais plus nettes, avec un texte plus précis et des détails plus fins, grâce à des algorithmes et à une puissance de traitement améliorés. Il s’agit d’une avancée significative par rapport à la version 5.2, que les utilisateurs ne manqueront pas d’apprécier.

Pour en savoir plus sur les nouvelles commandes et fonctionnalités de Midjourney 6, consultez la présentation, le tutoriel et la démonstration ci-dessous, créés par Future Tech Pilot.

Pour ceux qui aiment peaufiner leurs prompts, la nouvelle version a également mis à jour les techniques de prompts. Cela signifie que vous devrez adapter votre approche pour tirer le meilleur parti du système. Cela peut demander un peu d’expérimentation, mais une fois que vous l’aurez maîtrisé, vous serez en mesure de créer des images complexes avec des couleurs riches et des éléments complexes qui semblaient auparavant hors de portée.

Que le début

Imaginez un portrait ou une scène d’action ; la version 6 de Midjourney garantit la cohérence de vos personnages dans tous les styles. Que vous recherchiez un aspect photoréaliste ou quelque chose de plus abstrait, le logiciel conserve les caractéristiques uniques de vos sujets.

L’ajout de fonctionnalités telles que les options de mise à l’échelle et les variations vous donne encore plus de liberté créative. L’augmentation de la résolution de vos images est désormais un processus simple, et la fonction de variations vous permet d’explorer différentes interprétations de votre idée initiale.

Alors que vous commencez à explorer tout ce que la version 6 de Midjourney a à offrir, n’oubliez pas que ce n’est que le début. Il est conseillé de se tenir au courant des futurs tutoriels et versions pour s’assurer d’être toujours à la pointe de la technologie en matière de génération d’images. Cela vous aidera à continuer à développer vos compétences et à vous préparer à n’importe quel projet créatif.

La sortie de la version 6 de Midjourney est un moment important pour tous ceux qui sont impliqués dans la génération d’images, qu’ils soient passionnés ou professionnels. Le nouveau niveau de contrôle, la qualité améliorée et les fonctionnalités innovantes marquent le début d’un nouveau chapitre passionnant pour les créateurs. En adoptant les nouvelles commandes et techniques, vous pouvez porter votre créativité à de nouveaux sommets avec Midjourney Version 6.

Lire plus
Intelligence Artificielle

COLE combine plusieurs IA pour générer des dessins modifiables à la demande

0d7194f1 71fd 4bcd b563 61950cd9ceda

Avis aux graphistes et à ceux qui en dépendent : un nouvel outil est apparu, qui pourrait bien bouleverser la profession pour de bon.

Baptisé COLE, en l’honneur d’Henry Cole, reconnu comme le créateur de la première carte de Noël graphique en 1843, ce nouvel outil permet aux utilisateurs de saisir une idée de projet de conception graphique, et de demander à une IA de générer non seulement l’image, mais aussi le texte qui l’accompagne, le tout intégré.

COLE est en fait une combinaison de différents modèles d’IA, notamment des versions affinées de Llama2-13B de Meta, DeepFloyd IF, LLaVA1.5-13B (lui-même une variante de Llama) et GPT-4V, ainsi que le moteur de rendu graphique open source Skia. Il a été développé par une équipe de 12 chercheurs de Microsoft Research Asia et de l’Université de Pékin.

La combinaison de différents modèles a été choisie en raison de la complexité de la conception graphique et de la pénurie de données de formation disponibles sur l’un des principaux formats du domaine, à savoir les fichiers .SVG. Les chercheurs ont donc opté pour une approche différente : « consolider tous les éléments SVG et les embellissements supplémentaires dans une couche d’image unifiée », puis demander à l’IA d’extraire la couche d’arrière-plan et de la décrire sous forme de texte.

L’équipe COLE a formé son modélisateur d’arrière-plan à l’IA sur « 100 000 images graphiques brutes de haute qualité provenant d’Internet ».

Un framework, pas un produit… pour l’instant

Pour l’instant, COLE s’apparente davantage à un framework qu’à un produit. Mais, les résultats que l’équipe a obtenus en entraînant et en combinant ces différents produits d’IA au service de la conception graphique sont assez stupéfiants : il suffit de taper des invites textuelles, comme le font d’autres générateurs texte-image actuels tels que DALL-E 3 d’OpenAI ou Midjourney, pour que COLE soit capable de générer des conceptions graphiques nettes, organisées et combinant des images et du texte stylisé.

Ce dernier produit n’est pas une mince affaire : la plupart des générateurs d’art IA, y compris les leaders tels que Midjourney et Stable Diffusion, ont eu du mal à intégrer du texte dans l’image. DALL-E 3 peut produire du texte intégré, mais il n’est pas précis à 100 %.

Plus impressionnant encore, COLE produit des images avec des blocs éditables distincts pour les textes et les objets au sein de l’image.

Screen 2023 12 02 14.11.28 jpg

Cela permet aux programmes d’IA en chaîne de produire une image à partir de zéro et, si l’utilisateur humain n’aime pas le résultat final, il n’a pas besoin de revenir en arrière et d’essayer de réviser l’ensemble de la conception, ni de l’exporter vers un autre programme tel qu’Adobe Photoshop ou InDesign pour effacer certains éléments et en introduire d’autres.

Ils peuvent le faire à l’intérieur même du framework COLE, en cliquant sur la zone de texte pour modifier le texte affiché ou la police, ainsi qu’en tapant de nouvelles invites pour différents éléments visuels, transformant un sac d’épicerie d’une image photoréaliste en un dessin animé, par exemple.

Des résultats compétitifs et prometteurs

En outre, les chercheurs ont montré que les résultats produits par COLE sont « d’une qualité très compétitive… même par rapport au dernier DALL-E 3« .

Les chercheurs ont testé COLE sur 200 projets de conception graphique différents, allant de la publicité à la promotion d’événements et au matériel de marketing, en publiant ici toutes les invites qu’ils ont utilisées dans une feuille de calcul.

En outre, COLE « atteint la meilleure qualité lors de la création de couvertures, d’en-têtes ou d’affiches » et est bien entendu plus performant que DALL-E 3 et d’autres logiciels concurrents lorsqu’il s’agit de modifier des éléments spécifiques de l’image, tels que du texte ou des objets distincts.

Cependant, COLE n’est pas une solution miracle pour la conception graphique — du moins, pas encore. Le système ne permet pas aux utilisateurs de modifier la « disposition » ou l’emplacement de ses blocs typographiques, il ne permet pas encore de placer plusieurs blocs typographiques et il n’autorise qu’une seule couleur de typographie par image. Cependant, les chercheurs écrivent « qu’aborder ces questions est une direction que nous aimerions poursuivre dans nos travaux futurs ».

Pour l’instant, COLE n’est pas accessible au public, mais les chercheurs affirment qu’une démo sera bientôt disponible sur la page Web de leur projet GitHub.

Lire plus
Intelligence Artificielle

GatorTronGPT : l’IA qui écrit des notes médicales indiscernables de celles des médecins humains

f35a39a9 4af3 4d1d a113 a45cdc89e552

Imaginez un système d’intelligence artificielle si perfectionné qu’il peut créer des notes médicales avec une telle précision que même des médecins expérimentés se trompent en pensant qu’elles ont été écrites par un collègue. Cette scène n’est pas tirée d’un roman de science-fiction ; elle se déroule actuellement à l’université de Floride (UF).

Des chercheurs de l’UF, en collaboration avec NVIDIA, ont développé GatorTronGPT, un programme d’IA qui modifie la façon dont la documentation médicale est traitée.

La création de GatorTronGPT marque une avancée significative dans le domaine de l’IA. Ce modèle innovant a été entraîné sur un vaste ensemble de données, qui comprend 82 milliards de mots provenant de dossiers de patients anonymes de l’UF Health. Pour s’assurer que l’IA puisse comprendre les complexités du langage médical et des soins aux patients, les chercheurs ont ajouté 195 milliards de mots supplémentaires. Le résultat est une IA capable de reproduire les compétences des médecins en matière de rédaction de notes avec une précision remarquable.

Au cœur de GatorTronGPT se trouve GPT-3 d’OpenAI, le framework d’IA de pointe connu pour générer des textes qui ressemblent beaucoup à l’écriture humaine. Cela s’avère particulièrement utile lorsqu’il s’agit de traiter la terminologie spécialisée que l’on trouve dans les dossiers médicaux. L’une des principales caractéristiques de GPT-3, et par extension de GatorTronGPT, est l’importance qu’il accorde à la protection de la vie privée, en veillant à ce que les informations sensibles des patients restent protégées.

Le développement de GatorTronGPT est un élément clé de l’initiative plus large de l’UF visant à intégrer l’IA dans ses différentes disciplines académiques. L’université s’est engagée à tirer parti de l’IA pour améliorer différents secteurs, dont celui des soins de santé. En intégrant l’IA dans la documentation médicale, l’UF ouvre la voie à une nouvelle frontière dans l’innovation en matière de soins de santé.

Pour entraîner une IA aussi complexe que GatorTronGPT, il faut une puissance de calcul considérable. C’est là que le superordinateur HiPerGator de l’UF entre en jeu. Avec le soutien de NVIDIA, le superordinateur fournit les capacités robustes nécessaires pour gérer les grands ensembles de données et les algorithmes sophistiqués qui font partie du processus de formation de l’IA.

Rationaliser la documentation des soins de santé

67917369 5bd0 493b b457 4a654a7fd35d

L’un des aspects les plus intéressants de GatorTronGPT est sa capacité à rationaliser la documentation des soins de santé. L’IA peut automatiser la création de notes médicales, en élaborant des documents presque identiques à ceux rédigés par des cliniciens humains. Cette innovation devrait permettre aux professionnels de la santé de gagner un temps précieux et de réduire l’épuisement professionnel, ce qui leur permettra de se concentrer davantage sur les soins aux patients.

Le succès de GatorTronGPT témoigne de la puissance de la recherche collaborative. Le projet a rassemblé 14 membres du corps enseignant de l’UF et de l’UF Health, couvrant un large éventail de disciplines. Cette collaboration met en évidence la nature interdisciplinaire de la recherche en IA, en particulier dans le domaine de la médecine.

Le financement du projet provient de plusieurs sources, dont le Patient-Centered Outcomes Research Institute, le National Cancer Institute et le National Institute on Aging. La diversité de ces sources de financement souligne le potentiel reconnu de l’IA pour améliorer de manière significative les soins aux patients et l’efficacité des services de santé.

GatorTronGPT est un excellent exemple de la manière dont l’IA peut être adaptée pour répondre aux besoins spécifiques du secteur de la santé. Sa capacité à générer des notes médicales qui ne se distinguent pas de celles rédigées par des médecins humains n’est pas seulement une réalisation technologique impressionnante ; c’est le signe d’un avenir plus efficace pour la documentation des soins de santé.

Lire plus
Intelligence Artificielle

2023 a été l’année de l’IA : voici les 7 moments qui l’ont définie

82b7f02a 4257 49d3 af19 2d82203dc46d

ChatGPT a peut-être été lancé à la fin de l’année 2022, mais 2023 a sans aucun doute été l’année où l’IA générative s’est imposée dans l’esprit du public.

Non seulement le ChatGPT a atteint de nouveaux sommets (et de nouveaux bas), mais une pléthore de changements sismiques ont secoué le monde, des produits rivaux incroyables aux scandales choquants, en passant par tout ce qui se trouve entre les deux.

Alors que l’année touche à sa fin, revenons sur les 7 événements les plus importants de l’IA qui se sont déroulés au cours des 12 derniers mois. Cette année n’a pas été comme les autres pour l’IA — voici tout ce qui l’a rendue mémorable, en commençant par le début de l’année 2023.

Les rivaux de GPT se précipitent sur le marché

Aucune liste de ce type ne commence sans l’ascension sans précédent de ChatGPT. Le chatbot gratuit d’OpenAI a pris le monde d’assaut, se développant rapidement et captant l’imagination de tout le monde, des leaders de la technologie aux personnes ordinaires dans la rue.

Le service a été lancé en novembre 2022, mais il a commencé à se développer au cours des premiers mois de l’année. Le succès fulgurant de ChatGPT a laissé ses rivaux dans l’embarras pour trouver une réponse. Personne n’était plus terrifié que Google, semble-t-il, qui craignait que l’IA ne rende sa lucrative activité de recherche pratiquement obsolète. En février, quelques mois après l’entrée en bourse de ChatGPT, Google a riposté en lançant Bard, son propre chatbot IA. Puis, un jour plus tard, Microsoft a dévoilé sa propre tentative avec Bing Chat.

chatgpt quest ce que cest et com jpg

Les choses se sont un peu gâtées pour Bing Chat, le chatbot étant sujet à ce que l’on a appelé des « hallucinations », c’est-à-dire des incidents au cours desquels il mentait, inventait de faux faits et, de manière générale, n’était pas fiable.

Les choses se sont un peu mieux passées pour Google Bard — il n’était pas aussi conflictuel et évitait complètement l’utilisation dérangée d’emojis par Bing Chat — mais il avait toujours tendance à ne pas être fiable. Les réponses rapides de Google et de Microsoft à ChatGPT ont montré à quel point leurs tentatives étaient précipitées et à quel point le penchant de l’IA pour la désinformation pouvait être dangereux.

GPT-4 fait parler de lui

Lorsque ChatGPT a été lancé, il était alimenté par un Large Language Model (LLM) appelé GPT-3.5. Ce modèle était très performant, mais présentait certaines limites, comme le fait de ne pouvoir utiliser que du texte comme méthode d’entrée. Une grande partie de cette situation a changé avec GPT-4, qui a été rendu public en mars.

Le développeur de ChatGPT, OpenAI, a déclaré que le nouveau LLM GPT-4 était meilleur sur trois points essentiels : la créativité, l’entrée visuelle et un contexte plus long. Par exemple, GPT-4 peut utiliser des images en entrée et peut également collaborer avec les utilisateurs sur des projets créatifs tels que la musique, les scénarios et la littérature.

À l’heure actuelle, GPT-4 est uniquement disponible derrière un abonnement payant à ChatGPT Plus, qui coûte 20 dollars par mois. Mais même avec cette portée limitée, il a eu un impact considérable sur l’IA. Lorsque Google a annoncé son LLM Gemini en décembre, il a affirmé qu’il était capable de battre GPT-4 dans la plupart des tests. Pourtant, le fait qu’il n’ait pu le faire qu’à quelques points de pourcentage près d’un an après le lancement de GPT-4 vous dit tout ce que vous devez savoir sur l’avancée du modèle d’OpenAI.

Les images générées par l’IA commencent à tromper le public

Peu d’incidents ont illustré le pouvoir de l’IA pour tromper et désinformer autant qu’une seule image publiée au début de l’année 2023 : celle du pape François vêtu d’un grand blouson blanc.

FsEy5bVWcAAs4xN jpg

Cette image improbable avait été créée par un certain Pablo Xavier à l’aide de l’IA Midjourney, mais elle était si réaliste qu’elle a facilement trompé un grand nombre de spectateurs sur les réseaux sociaux. Cela a mis en évidence le caractère convaincant des générateurs d’images d’IA et leur capacité à tromper les gens et à leur faire croire des choses qui ne sont pas réelles.

En fait, la semaine précédant l’apparition de l’image du pape, une autre série d’images a fait la une des journaux pour une raison analogue. Elles montraient l’ancien président Donald Trump en train de se faire arrêter, de se battre avec des policiers et de purger une peine de prison. Lorsque des générateurs d’images puissants sont associés à des sujets sensibles, qu’ils soient liés à la politique, à la santé, à la guerre ou à d’autres domaines, les risques peuvent être extrêmes. Alors que les images générées par l’IA deviennent de plus en plus réalistes, la création du pape François est un exemple amusant de la rapidité avec laquelle nous devrions tous améliorer notre éducation aux médias.

Les images générées par l’IA sont devenues de plus en plus courantes tout au long de l’année, apparaissant même dans les résultats de recherche de Google avant les images réelles.

Une pétition commence à tirer la sonnette d’alarme

L’IA a progressé à une telle vitesse — et a déjà eu des conséquences si alarmantes — que de nombreuses personnes ont exprimé de sérieuses inquiétudes quant à ce que l’IA pourrait engendrer. En mars 2023, ces craintes ont été exprimées par certains des plus éminents leaders technologiques du monde dans une lettre ouverte.

Cette lettre appelait « tous les laboratoires d’IA à interrompre immédiatement, pendant au moins 6 mois, la formation de systèmes d’IA plus puissants que le GPT-4 », afin de donner à la société dans son ensemble le temps d’évaluer les risques. Dans le cas contraire, le développement à grande échelle de l’IA pourrait « poser des risques profonds pour la société et l’humanité », notamment la potentielle destruction d’emplois, l’obsolescence de la vie humaine et la « perte de contrôle de notre civilisation ».

La lettre a été signée par les leaders de la technologie, du cofondateur d’Apple, Steve Wozniak, au patron de Tesla, Elon Musk, en passant par une série de chercheurs et d’universitaires. Quant à savoir si les entreprises spécialisées dans l’IA ont pris conscience de l’importance des potentiels bénéfices à court terme, c’est une autre affaire — il suffit de regarder Google Gemini, qui, selon ses créateurs, surpasse GPT-4. Espérons que cette lettre ne se révélera pas prophétique.

ChatGPT se connecte à l’Internet

Lors de son lancement, ChatGPT s’est appuyé sur son énorme réservoir de données de formation pour aider à fournir des réponses aux gens. Le problème, c’est que ces données ne pouvaient pas être mises à jour et qu’elles étaient peu utiles si quelqu’un voulait les utiliser pour réserver un restaurant ou trouver un lien pour acheter un produit.

Tout a changé lorsque OpenAI a annoncé une série de plugins qui aideraient ChatGPT Plugins pouvant se connecter à l’Internet. Soudain, une nouvelle façon d’utiliser l’IA pour faire avancer les choses s’est ouverte. Ce changement a également permis d’actualiser et d’élargir considérablement les possibilités du chatbot par rapport à ce qu’il était auparavant. En termes de capacité et d’utilité, il s’agissait d’une amélioration considérable.

Mais ce n’est qu’en mai que ses capacités de navigation ont été étendues lorsque le plugin Browsing through Bing a été annoncé lors de la conférence des développeurs Microsoft Build. Le déploiement a été lent jusqu’en septembre, lorsqu’il est devenu disponible pour tous les utilisateurs de ChatGPT Plus.

Windows se dote d’un nouveau Copilot

Microsoft a lancé Bing Chat au début de l’année, mais l’entreprise n’est pas restée inactive. Elle a enchaîné avec Copilot, une utilisation beaucoup plus étendue de l’IA qui a été incorporée dans les produits de Microsoft, et qui a d’abord été annoncée pour Microsoft 365 Copilot.

Copilot Microsoft jpg

Alors que Bing Chat était un simple chatbot, Copilot est davantage un assistant numérique. Il est intégré à plusieurs applications Microsoft, comme Word et Teams, ainsi qu’à Windows 11 lui-même. Il peut créer des images, résumer des réunions, trouver des informations et les envoyer à vos autres appareils, et bien d’autres choses encore. L’idée est de vous faire gagner du temps et de l’énergie sur des tâches longues en les automatisant pour vous. En fait, Bing Chat a même été intégré à Copilot en novembre.

En intégrant Copilot aussi étroitement dans Windows 11, Microsoft a non seulement indiqué sa philosophie en matière d’IA, mais a également relégué au second plan Apple et son système d’exploitation rival macOS. Jusqu’à présent, l’avantage revient à Microsoft, surtout si l’on considère le lancement de Windows 12 en 2024.

La saga de Sam Altman

Sam Altman, PDG d’OpenAI, a été le visage très visible de toute l’industrie de l’IA depuis que ChatGPT a explosé dans la conscience du monde. Pourtant, tout s’est effondré un jour de novembre lorsqu’il a été renvoyé sans ménagement d’OpenAI, à sa plus grande surprise et à celle du monde entier.

Le conseil d’administration d’OpenAI l’a accusé de ne pas avoir été « toujours franc » dans ses relations avec l’entreprise. La réaction a été rapide et forte, la majorité des employés de l’entreprise menaçant de démissionner si Altman n’était pas réintégré. Microsoft, investisseur d’OpenAI, a proposé des emplois à Altman et à tous les autres employés d’OpenAI qui le souhaitaient, et pendant un moment, il a semblé que la société de Altman était sur le point de s’effondrer.

1x 1 1 jpg
Dustin Chambers/Bloomberg

Puis, aussi rapidement qu’il était parti, Altman a été réintégré, de nombreux membres du conseil d’administration exprimant leurs regrets pour l’ensemble de l’incident. L’Internet a suivi en temps réel le déroulement des événements, avec une question singulière en filigrane de tout ce cirque : pourquoi ? Altman est-il vraiment tombé sur un développement de l’IA qui posait de sérieux problèmes éthiques ? Le projet était-il sur le point d’aboutir à l’AGI ? Y avait-il une lutte pour le pouvoir digne de Game of Thrones, ou Altman était-il simplement un mauvais patron ?

Nous ne connaîtrons peut-être jamais toute la vérité. Mais aucun autre moment de 2023 n’a résumé l’hystérie, la fascination et l’esprit de conspiration suscités par l’IA cette année.

Lire plus
Intelligence Artificielle

Le New York Times poursuit OpenAI et Microsoft pour violation du droit d’auteur

9caafe33 8336 47ac 8b52 c111a82e267c

Le New York Times a intenté une action en justice contre OpenAI et Microsoft pour avoir violé ses droits d’auteur afin d’entraîner les modèles d’IA de ChatGPT.

C’est la première fois qu’un grand journal américain s’attaque à OpenAI et à son principal partenaire financier, Microsoft. Cela pourrait constituer un précédent crucial dans la manière dont l’industrie de l’IA traitera le développement de l’IA générative dans les années à venir.

Le 27 décembre 2023, le New York Times a intenté une action en justice devant la Cour fédérale de district de New York, alléguant qu’OpenAI avait utilisé des millions d’articles du Times pour entraîner ses modèles d’IA. Le Times a ajouté qu’il s’agissait d’une utilisation non autorisée de travaux publiés, sans paiement de droits de licence. Dans le procès, le NYT a montré 100 exemples de GPT-4 mémorisant le contenu textuellement à partir des articles du Times.

GPT-4 n’a pas attribué le contenu à la source. Il est intéressant de noter que le New York Times a tenté de parvenir à un accord négocié avec OpenAI en avril et au cours des mois suivants, mais que cet accord n’a abouti à rien. Le New York Times a donc dû intenter une action en justice pour avoir utilisé des œuvres protégées par le droit d’auteur afin d’entraîner les chatbots d’IA.

L’action en justice ne fixe pas de montant pour les dommages, mais affirme que OpenAI et Microsoft devraient payer des « milliards » pour l’utilisation illégale de leur précieux travail. L’organe de presse affirme que cette situation entraîne une perte de revenus car les potentiels clients sont dissuadés de souscrire un abonnement, tandis que les revenus générés par les visites sur son site Web sont également perdus.

Une bataille juridique intéressante

Dans une déclaration officielle partagée avec The Verge, un porte-parole d’OpenAI a déclaré :

Nos conversations en cours avec le New York Times ont été productives et ont progressé de manière constructive, c’est pourquoi nous sommes surpris et déçus par ce développement. Nous espérons que nous trouverons un moyen mutuellement bénéfique de travailler ensemble, comme nous le faisons avec de nombreux autres éditeurs.

Maintenant que la plainte a été déposée, il semble que le développement de l’IA générative pourrait se heurter à un autre obstacle, en plus des obstacles réglementaires accrus. Les conséquences seront plus importantes non seulement pour OpenAI et Microsoft, mais aussi pour l’ensemble de l’industrie de l’IA et le journalisme tel que nous le connaissons.

Lire plus
Intelligence Artificielle

Apple planifie de former un chatbot d’IA avec des contenus de médias réputés

22730ee5 77a6 4ef7 8320 cac52f50e092

Selon le New York Times, Apple a discuté de « contrats pluriannuels d’une valeur d’au moins 50 millions de dollars » avec des éditeurs de presse tels que NBC News, Condé Nast (éditeur de Vogue et The New Yorker) et IAC (éditeur de People, Better Homes and Gardens et The Daily Beast).

Apple souhaite utiliser le contenu de ces organismes de presse pour former un chatbot d’IA générative.

À titre informatif, OpenAI aurait conclu des accords avec l’agence de presse Associated Press et la société mère de Politico pour aider à former ChatGPT. De son côté, Google a déclaré qu’elle travaillait sur des outils alimentés par l’IA pour aider les journalistes.

Apple tente de rattraper son retard en matière d’IA générative et dépenserait des millions de dollars par jour dans ce domaine. Apple a de grands projets en matière d’IA et des rapports indiquent que le géant de la technologie travaille sur une version améliorée de l’assistant virtuel Siri pour iOS 18, ce qui devrait réjouir les utilisateurs d’iPhone. L’entreprise espère également ajouter de nouvelles fonctionnalités d’IA à l’iPhone avec iOS 18.

De nombreux utilisateurs d’iPhone aimeraient voir Apple réorganiser Siri à l’aide d’une technologie basée sur l’IA. Malgré l’avantage d’avoir introduit Siri sur l’iPhone 4 s en 2011, l’assistant virtuel est resté à la traîne par rapport à Google Assistant et Alexa d’Amazon.

La réponse des éditeurs semble mitigée

Les éditeurs de presse visés par la rumeur ne sont pas tous ravis de voir leurs archives utilisées pour entraîner l’IA générative, même si cela signifie pour eux une grosse somme d’argent grâce à Apple. Selon le Times, les éditeurs intéressés par un accord avec Apple pourraient craindre de s’exposer à des poursuites judiciaires en cas d’utilisation de leur contenu par Apple. Cette réaction pourrait s’expliquer en partie par le fait qu’Apple est resté vague sur ses projets en matière d’IA. Toutefois, d’autres responsables de l’information se sont montrés plus positifs quant à la possibilité d’un partenariat avec Apple.

Les dirigeants d’Apple auraient cherché à savoir comment obtenir les données nécessaires à un produit d’IA générative. L’un des principaux défauts de l’IA est que certaines réponses sont complètement inventées et fausses. C’est ce qu’on appelle une « hallucination » et Apple pense qu’en utilisant des archives d’actualités pour entraîner son IA, elle peut offrir une fonction d’IA plus fiable.

 

Lire plus
Intelligence Artificielle

L’IA Gemini de Google pourrait bientôt arriver sur les autres smartphones Android

72e7e912 3d42 4c82 9ec8 84370b41c810

Après le lancement de ChatGPT en novembre 2022, Google a été contraint d’accélérer ses technologies d’IA. Il y a quelques mois, Google a dévoilé Google Bard, alimenté par LaMDA, en mars de cette année. En mai, l’entreprise a amélioré son modèle d’IA en lançant PaLM en mai.

Cette semaine, Google a dévoilé un modèle de base encore plus puissant sous la forme de Gemini. Ce modèle alimente désormais Google Bard, qui est beaucoup plus performant. L’IA Gemini arrive également sur d’autres smartphones Android.

Gemini se décline en trois versions : Gemini Ultra, Gemini Pro et Gemini Nano. La version Gemini Ultra est la plus puissante et nécessite le Web pour fonctionner. Google affirme qu’elle est plus performante que GPT-4, qui alimente ChatGPT et d’autres chatbots. Google Bard est désormais alimenté par Gemini Pro.

Gemini Nano est une version plus petite qui peut fonctionner sur l’appareil. Gemini Nano alimente désormais plusieurs fonctionnalités du smartphone Pixel 8 Pro. Par exemple, l’appli Enregistreur vocal propose désormais une fonction de résumé, même sans connexion Internet. Ainsi, les enregistrements vocaux de conversations et d’interviews peuvent être résumés même si le Pixel 8 Pro n’est pas connecté à Internet. Gemini Nano alimente également la fonctionnalité Réponse suggérée de Gboard, qui peut désormais être testée avec WhatsApp. Elle connaît le contexte de la discussion et suggère des réponses de haute qualité. Cette fonction sera bientôt disponible sur d’autres applications de messagerie.

L’IA Gemini alimente également l’assistant avec l’expérience Bard sur certains smartphones Pixel. Google a également parlé d’Android 14 et de la manière dont le service AI Core permet aux développeurs d’utiliser des fonctions d’IA comme Gemini Nano sur des smartphones équipés du Tensor G3 de Google et d’autres processeurs de smartphones phares de MediaTek, System LSI de Samsung (qui conçoit les processeurs Exynos) et Qualcomm. La société a déclaré qu’elle annoncerait bientôt la prise en charge d’autres appareils et des partenariats avec d’autres partenaires silicium. Bien que la société n’ait pas révélé grand-chose, il semble que Gemini puisse fonctionner sur les puces des smartphones phares modernes, y compris le Dimensity 9300 récemment annoncé, le Exynos 2400 et le Snapdragon 8 Gen 3.

Samsung travaille également sur l’IA

La série Galaxy S24 devrait, selon les rumeurs, être équipée des processeurs Exynos 2400 et Snapdragon 8 Gen 3. Étant donné que Gemini Nano peut fonctionner sur les smartphones équipés de ces puces, il est très probable qu’ils offriront des fonctions d’IA analogues, notamment des réponses plus intelligentes, une translittération en temps réel et des réponses plus intelligentes de la part des assistants vocaux numériques dotés d’IA.

Samsung a déjà annoncé Galaxy AI, qui offrira une traduction en temps réel lors des appels vocaux, et qui sera disponible sur le Galaxy S24. Nous nous attendons à ce que Samsung annonce d’autres fonctions d’IA lors de l’événement de lancement de la série Galaxy S24.

Lire plus
Intelligence Artificielle

Inflection AI lance l’application Pi Android, rivalisant avec ChatGPT et autres assistants IA

1701797898 pi phonemockup androi

Inflection AI, la startup basée à Palo Alto et fondée par Mustafa Suleyman, cofondateur de DeepMind, et Reid Hoffman, cofondateur de LinkedIn, vient d’annoncer que son chatbot d’IA « Pi » est désormais disponible en tant qu’application dédiée sur Android.

Cette décision, qui devrait permettre à des milliards d’utilisateurs d’accéder à Pi, constitue le dernier effort en date de la startup, âgée d’un an, pour s’attaquer au très populaire ChatGPT d’OpenAI et à d’autres nouveaux assistants d’IA qui arrivent sur le marché, notamment Grok de xAI et Claude d’Anthropic, qui sont en cours de lancement.

L’entreprise a également indiqué qu’elle avait amélioré l’aspect et la convivialité de la marque de l’application en modifiant légèrement les couleurs, les illustrations et le logo Pi.

« Les utilisateurs ont toujours aimé l’esthétique élégante et propre et la nouvelle marque sur les applications iOS et Android poursuit cette identité tout en ajoutant un peu plus de flair », a déclaré l’entreprise dans un article de blog.

image jpg

Que peut-on attendre de l’application Pi Android ?

Disponible dans 35 pays, dont la France, pour commencer, l’application Pi Android s’efforce d’offrir une expérience analogue à celle que les utilisateurs ont eue sur la version iOS du chatbot.

Essentiellement, ils peuvent poser n’importe quelle question sur n’importe quel sujet pour obtenir des réponses instantanées, des suggestions ou des conseils de la part de l’assistant.

Plus intéressant encore, tout comme ChatGPT, le chatbot Pi prend également en charge les interactions vocales. Les utilisateurs peuvent simplement dire ce qu’ils pensent et l’assistant peut leur répondre, ce qui permet d’entamer une conversation. Actuellement, Inflection AI propose aux utilisateurs 6 options vocales pour Pi et compare l’expérience à celle d’une conversation téléphonique.

L’entreprise a lancé Pi en mai et l’utilise depuis lors sur le modèle linguistique Inflection-1. Cependant, une mise à jour majeure est prévue avec Inflection-2, qui est censé être nettement plus performant, démontrant une connaissance factuelle nettement améliorée, un meilleur contrôle stylistique et un raisonnement considérablement amélioré.

Un chatbot empathique, utile et sûr

Pour Inflection, l’objectif ultime de Pi, abréviation de Personal Intelligence, est de donner aux gens un compagnon « empathique, utile et sûr » qui agit de manière plus personnelle et familière que ChatGPT d’OpenAI, Bing de Microsoft ou Bard de Google. C’est cette approche de l’IA personnelle et émotionnelle qui la distingue des autres acteurs de la catégorie.

« Avec la capacité de fournir un soutien émotionnel et des conseils 24 heures sur 24 et 7 jours sur 7 dans toute une série de situations, Pi est là pour vous parler à minuit quand le reste du monde est endormi, quand vous voulez pratiquer une autre langue ou quand vous avez besoin de réflexions perspicaces sur un changement de carrière potentiel », peut-on lire dans l’article de blog.

Une concurrence croissante

Android comptant plus de 3 milliards d’utilisateurs dans le monde, la mise à disposition de Pi sur cette plateforme devrait permettre à Inflection AI d’élargir son champ d’action et d’accéder à une base d’utilisateurs plus importante. Toutefois, il reste à voir comment il s’en sortira face à ChatGPT, qui est déjà disponible sur Android et iOS et qui compte près de 200 millions d’utilisateurs. Rien qu’en octobre 2023, le chatbot d’OpenAI a enregistré près de 1,7 milliard de visites cumulées sur mobile et sur le web, avec un total de 193 millions d’utilisateurs uniques.

Au-delà de ChatGPT, Pi doit également rivaliser avec Bard, l’assistant d’IA constitutionnel de Google, Claude, l’assistant d’IA constitutionnel d’Anthropic, et Grok, de xAI, fondé par Elon Musk, qui a également une personnalité distincte et sarcastique.

Ce dernier a notamment l’avantage de disposer de données X en temps réel et d’une intégration directe avec la plateforme, ce qui accroît également sa portée.

Lire plus
Intelligence Artificielle

Azure AI de Microsoft évolue avec de nouveaux modèles d’IA et services avancés

microsoft ai

L’amélioration par Microsoft des capacités d’Azure AI grâce à son nouveau modèle AI en tant que service constitue une avancée significative dans le monde de l’intelligence artificielle. Microsoft a fait des progrès dans l’expansion de ses offres d’IA, y compris l’introduction de Llama 2 fonctionnant dans les modèles en tant que service et la prévisualisation de GPT-4 Turbo avec Vision.

Cette évolution renforce non seulement la polyvalence d’Azure AI, mais représente également un changement dans la manière dont le potentiel de l’IA est conceptualisé, en mettant davantage l’accent sur l’IA générative et le développement d’applications multimodales.

L’une des principales améliorations apportées à Azure AI est la disponibilité de Llama 2 de Meta fonctionnant dans son Models as a Service. Cet ajout fournit aux utilisateurs un outil puissant pour générer un contenu varié et imaginatif, ouvrant de nouvelles possibilités pour le développement d’applications d’IA. Le modèle Llama 2, réputé pour ses performances dans les tâches linguistiques, peut désormais être intégré de manière transparente dans diverses applications, améliorant ainsi leurs capacités et offrant une plus grande flexibilité aux développeurs.

Outre Llama 2, Microsoft a également dévoilé en avant-première GPT-4 Turbo avec Vision, un modèle d’IA générative avancé. Ce modèle est conçu pour produire un contenu de haute qualité et faciliter le développement d’applications multimodales, en combinant la puissance du traitement du langage naturel avec la vision par ordinateur. L’inclusion de GPT-4 Turbo avec Vision dans Azure AI témoigne de l’engagement de Microsoft à repousser les limites de la technologie de l’IA, en offrant aux utilisateurs la possibilité de créer des applications plus sophistiquées et plus polyvalentes.

Modèle Microsoft AI en tant que service

En plus de ces nouveaux modèles, Microsoft a également élargi le catalogue de modèles Azure AI avec l’ajout d’autres modèles tels que le Phi 2 Small Language Model (SLM). Cette démarche s’inscrit dans l’objectif de Microsoft de fournir une sélection complète de modèles d’IA à Azure AI, offrant ainsi aux clients plus de choix et de flexibilité pour répondre à leurs besoins spécifiques. Le catalogue élargi permet aux utilisateurs de choisir parmi un plus grand nombre de modèles, chacun ayant ses propres forces et capacités, améliorant ainsi la polyvalence d’Azure AI.

Model catalog jpg

Pour aider les utilisateurs à sélectionner le modèle le plus adapté à leurs besoins, Azure AI Studio propose un sous-système d’analyse comparative et d’évaluation des modèles. Cette fonctionnalité permet aux utilisateurs d’examiner et de comparer les performances de divers modèles d’IA, en fournissant des mesures de qualité pour les modèles Azure OpenAI Service et les modèles Llama 2. En simplifiant le processus de sélection des modèles, Azure AI Studio permet aux utilisateurs d’exploiter plus facilement tout le potentiel d’Azure AI.

Voici une sélection des modèles d’IA disponibles dans Microsoft Azure AI

  • Phi -2. est un Small Language Model (SLM) de Microsoft avec 2,7 milliards de paramètres. Phi -2 illustre la puissance des SLM et présente des améliorations spectaculaires en termes de capacités de raisonnement et de mesures de sécurité par rapport à Phi-1-5, tout en conservant sa taille relativement petite par rapport à d’autres transformateurs de l’industrie. Avec le bon réglage et la bonne personnalisation, ces SLM sont des outils incroyablement puissants pour des applications à la fois sur le cloud et à la périphérie.
  • DeciLM. Voici DeciLM-7B, un modèle de génération de texte basé uniquement sur un décodeur, avec un nombre impressionnant de 7,04 milliards de paramètres, sous licence Apache 2.0. DeciLM-7B est non seulement le modèle de base 7B le plus précis à ce jour, mais il surpasse également plusieurs modèles de sa catégorie.
  • DeciDiffussion. DeciDiffusion 1.0 est un modèle de génération texte-image basé sur la diffusion. Tout en conservant les éléments fondamentaux de l’architecture de la diffusion stable, tels que l’auto-encodeur variationnel (VAE) et l’encodeur de texte pré-entraîné de CLIP, DeciDiffusion apporte des améliorations significatives. La principale innovation est le remplacement de U-Net par le plus efficace U-Net-NAS, une conception dont Deci a été le pionnier. Ce nouveau composant rationalise le modèle en réduisant le nombre de paramètres, ce qui se traduit par une efficacité de calcul supérieure.
  • DeciCoder. 1B est un modèle de complétion de code à 1 milliard de paramètres, entraîné sur les sous-ensembles Python, Java et JavaScript de l’ensemble de données d’entraînement Starcoder. Le modèle utilise Grouped Query Attention et dispose d’une fenêtre contextuelle de 2048 tokens. Il a été entraîné à l’aide d’un objectif d’entraînement Fill-in-the-Middle. L’architecture du modèle a été générée par la technologie propriétaire de Deci basée sur la recherche d’architecture neuronale, AutoNAC.
  • Orca 2. Comme Phi-2, Orca 2 de Microsoft explore les capacités des SLM (de l’ordre de 10 milliards de paramètres ou moins). Orca 2 montre que des signaux et des méthodes d’entraînement améliorés peuvent permettre à des modèles de langage plus petits d’atteindre des capacités de raisonnement accrues, que l’on ne trouve généralement que dans des Large Language Model. Orca 2 surpasse de manière significative les modèles de taille similaire (y compris le modèle Orca original) et atteint des niveaux de performance similaires ou supérieurs à des modèles 5 à 10 fois plus grands, tels qu’évalués sur des tâches complexes qui testent des capacités de raisonnement avancées dans des contextes de zéro-coup.
  • Mixtral 8x7b. Mixtral a une architecture similaire à celle de Mistral 7B, mais comprend 8 modèles experts en un seul à partir d’une technique appelée mélange d’experts (MoE). Mixtral décode à la vitesse d’un modèle à 12B paramètres denses bien qu’il contienne 4 fois plus de paramètres effectifs.

Ces améliorations apportées à Azure AI sont déjà mises à profit par le cabinet d’avocats international Dentons. Le cabinet utilise Azure AI pour mettre en œuvre les modèles Azure OpenAI Service, y compris GPT-4 et Meta Llama 2, dans son application d’IA générative. Grâce à ces modèles, Dentons est en mesure de résumer des contrats juridiques et d’extraire des parties essentielles de documents, ce qui lui permet de gagner beaucoup de temps. Cette application pratique des modèles d’IA Azure illustre leur potentiel à transformer divers secteurs en automatisant des tâches complexes et en améliorant l’efficacité.

L’amélioration par Microsoft des capacités d’Azure AI grâce à de nouveaux modèles et services représente une avancée significative dans le domaine de l’IA. En introduisant de nouveaux modèles puissants tels que Llama 2 de Meta et GPT-4 Turbo avec Vision, et en élargissant le catalogue de modèles Azure AI, Microsoft offre aux utilisateurs davantage de choix et de flexibilité, et ouvre la voie à des applications plus innovantes et imaginatives de l’IA.

Lire plus
Intelligence Artificielle

Meta lance Meta AI : un chatbot disponible sur Facebook Messenger, Instagram et WhatsApp

Gen AI Product Updates Header 1

Il y a quelques mois, Mark Zuckerberg, PDG de Meta, a dévoilé Meta AI. Il s’agit d’un chatbot développé par Meta et basé sur LLaMA, le LLM (Large Language Model) fondamental et conversationnel de l’entreprise. À l’époque, l’entreprise avait annoncé qu’il serait bientôt disponible dans ses applications de messagerie, ce qui est désormais chose faite.

Le chatbot Meta AI est désormais disponible sur Facebook Messenger, Instagram et WhatsApp. Cependant, il n’est actuellement disponible que pour les utilisateurs américains.

Si vous résidez aux États-Unis, vous pouvez commencer à converser avec l’assistant virtuel Meta AI en démarrant une nouvelle conversation et en sélectionnant Créer un chat AI dans Facebook Messenger, Instagram et WhatsApp. Vous pouvez également l’appeler dans les fils de discussion en tapant @MetaAI, suivi de la commande pour laquelle vous avez besoin d’aide.

01 Reimagine Carousel 01

Meta AI peut trouver des réponses à vos questions et créer des images à partir d’invites textuelles. Elle dispose également d’une nouvelle fonctionnalité appelée Reimagine, qui peut utiliser une image générée par l’IA et permettre à vos amis de la modifier à l’aide d’invites textuelles. Les invites textuelles peuvent être ajoutées en cliquant sur l’image générée par l’IA et en la maintenant enfoncée. Il peut également être utilisé pour découvrir des Reels sur Facebook et Instagram.

L’assistant virtuel alimenté par l’IA peut créer des vœux d’anniversaire, modifier les messages du fil d’actualité et même rédiger la description de votre profil sur Facebook Dating. Il peut également convertir des images de paysage en portraits pour les télécharger sur des Stories sur Facebook et Instagram. Les créateurs peuvent utiliser Meta AI pour offrir des réponses aux membres de leur communauté en leur proposant des brouillons personnalisés. Le générateur texte-image de Meta est désormais disponible sur le Web en tant qu’outil autonome, et tout le monde peut y accéder.

Lire plus
Intelligence Artificielle

Vulnérabilité dans ChatGPT exposée publiquement après non-réponse d’OpenAI

photo 1678347123725 2d0d31bc06bd

Un chercheur a découvert une grave faille dans ChatGPT qui permet de divulguer des détails d’une conversation à une URL externe. Lorsque Johann Rehberger a tenté d’alerter OpenAI sur cette potentielle faille, il n’a reçu aucune réponse, ce qui a contraint le chercheur à divulguer publiquement les détails de la faille.

À la suite de cette divulgation, OpenAI a publié des contrôles de sécurité pour ChatGPT qui atténuent la faille, mais pas complètement.

La faille en question permet à des chatbots malveillants utilisant ChatGPT d’exfiltrer des données sensibles, telles que le contenu de la discussion, ainsi que des métadonnées et des données techniques. Une deuxième méthode consiste à ce que la victime soumette un prompt fourni par l’attaquant, qui utilise alors le rendu d’image markdown et l’injection de prompt pour ex-filtrer les données.

Rehberger a initialement signalé la faille à OpenAI en avril 2023, et a fourni des détails supplémentaires sur la façon dont elle peut être utilisée de manière plus sournoise au cours du mois de novembre.

Rehberger a déclaré que « ce GPT et les instructions sous-jacentes ont été rapidement signalés à OpenAI le 13 novembre 2023. Cependant, le ticket a été fermé le 15 novembre avec la mention “Sans objet”. Deux demandes de suivi sont restées sans réponse. Il semble donc préférable de partager cette information avec le public afin de le sensibiliser ».

Une vérification mais pas suffisant

Au lieu de poursuivre OpenAI, qui n’a apparemment pas répondu, Rehberger a décidé de rendre publique sa découverte, en publiant une vidéo montrant comment toute sa conversation avec un chatbot conçu pour jouer au morpion a été extraite vers une URL tierce.

Pour pallier cette faille, ChatGPT effectue désormais des vérifications afin d’éviter que la deuxième méthode mentionnée ci-dessus ne se produise. Rehberger a répondu à cette correction en déclarant : « Lorsque le serveur renvoie une balise d’image avec un lien hypertexte, ChatGPT appelle désormais une API de validation côté client avant de décider d’afficher une image ».

Malheureusement, ces nouvelles vérifications n’atténuent pas complètement la faille, car Rehberger a découvert que des domaines arbitraires sont encore parfois rendus par ChatGPT, mais qu’un retour réussi est aléatoire. Bien que ces vérifications aient apparemment été mises en œuvre sur les versions de bureau de ChatGPT, la faille reste viable sur l’application mobile iOS.

Lire plus
Intelligence Artificielle

L’IA de Google pourrait remplacer les tâches dans la vente de publicité, inquiétudes de licenciements

fb6409c9 246d 4c40 b371 0f3705366088

Bien que Google soit occupé à produire des outils d’IA générative pour les vendre dans le cadre de son modèle commercial en constante évolution, un nouveau rapport de The Information suggère que Google pourrait bientôt commencer à utiliser l’IA elle-même, menaçant ainsi l’emploi de certains employés.

Après des mois d’études et de rapports affirmant que l’IA « aidera » les humains et ne les « remplacera » pas, la plus grande crainte de nombreux employés pourrait avoir plus de corps qu’on ne le pensait.

Selon le rapport le plus récent, l’entreprise a annoncé aux employés qu’elle allait réorganiser son unité de vente de publicité, qui compte 30 000 personnes, ce qui fait craindre à beaucoup d’entre eux d’autres licenciements à venir.

Cette année déjà, l’entreprise a licencié plus de 12 000 personnes en raison de l’augmentation des coûts due aux incertitudes économiques mondiales. Dans les mois qui ont suivi, les activités de Google dans le domaine de l’IA ont commencé à décoller, et l’entreprise s’est désormais imposée comme l’un des leaders de l’intelligence artificielle, aux côtés d’OpenAI et de Microsoft.

L’entreprise envisagerait maintenant d’utiliser l’IA, le machine learning et l’automatisation pour stimuler son activité publicitaire. Elle a déjà injecté GenAI dans l’expérience publicitaire des annonceurs et des clients, mais ce nouveau rapport indique que cette technologie qui permet de gagner du temps pourrait bientôt être utilisée en arrière-plan également.

Une réelle menace ?

De nombreux annonceurs ont déjà commencé à utiliser l’outil publicitaire Performance Max, qui a été mis à jour au début de l’année, ce qui signifie que moins d’employés pourraient désormais être nécessaires pour se spécialiser dans certains sujets publicitaires.

Le rapport révèle que l’année dernière, 13 500 des 30 000 employés de l’unité de vente de publicité de l’entreprise travaillaient sur des projets qui ont été simplifiés ou remplacés par Performance Max.

On ne sait pas exactement combien d’employés seraient concernés, si tant est qu’il y en ait, mais avec de tels gains d’efficacité, il est clair qu’à moins que Google ne reçoive un afflux de clients, il n’aura peut-être pas besoin d’autant d’employés.

Lire plus
Intelligence Artificielle

Humane AI Pin, le révolutionnaire wearable, prêt à être expédié en mars 2024

GB99y4eXsAAN5ji

Humane n’est pas vraiment un nom connu, mais vous vous souvenez peut-être de l’annonce de son AI Pin alimenté par GPT-4. La société a mis son premier produit en pré-commande en novembre, et elle vient de révéler la date de livraison de son wearable.

Humane a annoncé ce vendredi que l’AI Pin, son wearable doté d’une intelligence artificielle, sera expédié à partir de mars 2024. Les personnes qui ont passé des commandes prioritaires recevront leurs appareils en premier, et Humane affirme qu’elle expédiera les commandes en fonction de la date d’achat, selon un message publié sur X (anciennement Twitter).

Humane n’a pas précisé la date à laquelle les commandes commenceraient à être expédiées, mais la date de mars est plus précise que celle de début 2024 que l’entreprise avait communiquée en novembre.

Lors de sa présentation le mois dernier, Humane a montré comment l’appareil peut choisir parmi différents services d’intelligence artificielle pour répondre à vos demandes, sans vous obliger à regarder un écran. En outre, l’entreprise a également présenté son système de projection qui permet d’afficher sur votre main des objets avec lesquels vous pouvez interagir.

Humane Ai Pin Business 1536w 864 jpg

En effet, pour rappel, AI Pin est un projecteur portable équipé d’un processeur Snapdragon non spécifié. Au lieu d’utiliser un écran, l’appareil s’appuie sur des signaux vocaux et un projecteur qui projette des informations sur la main de l’utilisateur. Mais tout cela a un coût assez élevé : le AI Pin coûte 699 dollars et nécessite un abonnement de 24 dollars par mois pour obtenir un numéro de téléphone et utiliser des données cellulaires. Malheureusement, il n’est disponible qu’outre-Atlantique pour le moment.

 

Lire plus
Intelligence Artificielle

Apple se tourne vers l’IA exécutée sur le matériel avec le « LLM in a Flash »

dea450ff 40c4 485d aa6d 775e469528c4

Apple a été pris un peu au dépourvu lorsque la technologie de l’IA générative a commencé à prendre son essor. En effet, dans le monde de l’intelligence artificielle et des grands modèles de langage, Apple n’a pas été massive dans ce qu’elle a à offrir, en particulier parce que l’entreprise n’a pas surfé sur la vague comme l’ont fait ses concurrents, Google et Microsoft.

Dans sa dernière étude, Apple a souligné que l’objectif de son IA est de l’exécuter directement sur le matériel, en particulier sur les iPhone, et non depuis le cloud comme l’ont fait d’autres entreprises. En effet, les chercheurs en intelligence artificielle d’Apple affirment avoir fait une percée significative dans l’utilisation des Large Language Model (LLM) sur les iPhone et autres appareils Apple à faible mémoire, en introduisant une technique ingénieuse de mémoire flash.

Les chercheurs d’Apple ont publié une nouvelle étude qui laisse entrevoir l’avenir de l’entreprise de Cupertino dans les développements de l’intelligence artificielle dans le monde, centrée sur l’idéologie de la faire fonctionner sur le matériel et non sur le cloud. Cette récente publication de Hugging Face a rendu la recherche célèbre, la plateforme étant connue pour présenter les travaux des chercheurs en IA, et il s’agit du deuxième article d’Apple sur l’IA générative.

La recherche intitulée « LLM in a flash: Efficient Large Language Model Inference with Limited Memory » détaille l’accent mis sur les appareils matériels pour exécuter les développements de l’IA, en se concentrant sur une nouvelle approche des modèles de grands langages sur les appareils. « Notre intégration de la prise en compte de la rareté, du chargement adapté au contexte et d’une conception axée sur le matériel ouvre la voie à une inférence efficace des LLM sur des appareils à mémoire limitée », ont déclaré les chercheurs.

Jusqu’à cette avancée, il était considéré comme impossible de faire fonctionner des LLM sur des appareils à mémoire limitée, car les LLM nécessitent une grande quantité de mémoire vive pour stocker les données et les processus gourmands en mémoire. Pour remédier à cette situation, les chercheurs d’Apple ont mis au point une technologie permettant de stocker les données sur la mémoire flash, la mémoire secondaire utilisée pour stocker les images, les documents et les applications.

Siri bénéficiera-t-il du meilleur de l’IA d’Apple pour le matériel ?

Si cette évolution se concrétise, on ne sait pas si Apple se concentrera sur Siri, qui est le visage de son IA pour les iPhone.

En développant un modèle de coût d’inférence qui s’aligne sur ces contraintes matérielles, elle a introduit deux techniques innovantes : le « windowing » et le « regroupement lignes-colonnes ». Ces méthodes contribuent collectivement à une réduction significative de la charge de données et à une augmentation de l’efficacité de l’utilisation de la mémoire.

L’évolution vers l’exécution d’IA dans le matériel est aujourd’hui observée dans différentes entreprises, Google cherchant à intégrer son IA Gemini dans la gamme Pixel. D’autre part, Qualcomm cherche également à développer des puces qui feraient fonctionner l’IA dans les smartphones de manière native.

Développement de l’IA par Apple

Bien qu’il n’y ait pas grand-chose à voir et à attendre d’Apple en matière de développement de l’IA dans sa technologie actuelle, des personnes familières avec le sujet et d’autres sources affirment massivement qu’elle est en train d’en faire une. Un rapport antérieur parlait d’une IA de type ChatGPT à venir sur la plateforme Apple, très probablement un chatbot d’IA, spéculé pour améliorer la technologie de Siri.

Il a également été considéré auparavant que Siri était en train de se faire distancer par la concurrence, car l’assistant d’intelligence artificielle n’apportait que de petites améliorations à la fonction, qui restait stagnante par rapport à ce qu’elle avait à offrir. Ceci étant dit, il a été dit que le développement de Siri par Apple a été affecté par des préoccupations massives en matière de confidentialité ainsi que par des conflits internes, qui auraient été retenus pour obtenir des améliorations.

Depuis de nombreuses années, Siri est devenu une icône pour les utilisateurs d’iPhone, et l’IA propriétaire s’est avérée utile pour une expérience mains libres, mais elle est restée ainsi pendant longtemps. Cependant, cette technologie n’est pas encore oubliée par Apple, car la société a d’autres projets d’intégration de LLM dans les iPhone centrés sur le matériel en tant que star pour faire fonctionner l’expérience, et non par le cloud — peut-être en rapport avec Siri.

Lire plus