fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

ChatGPT Code Interpreter : qu’est-ce que c’est et comment ça marche ?

chatgpt code interpreter availab

OpenAI a finalement ajouté Code Interpreter à ChatGPT, la fonctionnalité la plus attendue qui ouvre la porte à tant de possibilités. Après les Plugins ChatGPT, les gens attendaient Code Interpreter, qui est maintenant sorti de la version Alpha et disponible en Beta pour les utilisateurs de ChatGPT Plus.

Mais qu’est-ce que ChatGPT Code Interpreter et comment fonctionne-t-il ? Pour en savoir plus, lisez la suite.

Qu’est-ce que Code Interpreter dans ChatGPT ?

Code Interpreter est la dernière fonctionnalité de ChatGPT (en particulier, avec le modèle GPT-4) qui vous permet d’exécuter du code Python dans un environnement de travail réel. Il s’agit essentiellement d’un environnement Python en bac à sable dans lequel vous pouvez exécuter du code Python pour effectuer n’importe quelle tâche. Cela peut sembler être une fonctionnalité conçue pour les développeurs, mais elle peut également aider les utilisateurs généraux dans de nombreuses tâches.

Chat GPT Code Interpreter jpg 1 jpg

Par exemple, vous pouvez demander à Code Interpreter dans ChatGPT de convertir un fichier PDF à l’aide de l’OCR, de découper un fichier vidéo ou d’en changer le format, de résoudre un problème mathématique, d’effectuer une analyse et une visualisation de données, de créer des graphiques, des diagrammes, et bien d’autres choses encore. En conséquence, Code Interpreter vous permet de télécharger directement des fichiers locaux vers ChatGPT dans de multiples formats.

Code Interpreter offre également un espace disque temporaire pour télécharger vos fichiers. Il prend en charge une grande variété de formats de fichiers, y compris des formats populaires tels que TXT, PDF, DOC, DOCX, JPEG, PNG, MP4, AVI, CSV, JSON, XML, XLS, XLSX, CPP, PY, HTML, PDF, DB, SQLite, et bien d’autres encore. Il ne s’agit pas d’une liste exhaustive, mais d’une représentation populaire des formats de fichiers dans diverses catégories. Vous pouvez consulter la liste complète dans le tweet ci-dessous.

En termes simples, avec Code Interpreter dans ChatGPT, vous avez accès à un ordinateur à l’intérieur du chatbot avec des ressources de calcul et de l’espace disque. Vous pouvez faire à peu près tout ce que vous voulez grâce au langage naturel. Cela dit, n’oubliez pas que vous ne pouvez pas installer de bibliothèques Python par vous-même. Il s’agit d’un environnement en bac à sable, protégé par un pare-feu et préinstallé avec plus de 300 bibliothèques et paquets.

Comment fonctionne Code Interpreter dans ChatGPT ?

Comme mentionné ci-dessus, Code Interpreter exécute du code Python pour effectuer une tâche dans l’interface de ChatGPT. Par exemple, si vous lui demandez de rendre un PDF basé sur une image consultable en utilisant l’OCR, il crée un script Python personnalisé à la volée et l’exécute à ce moment-là. Vous n’avez qu’à télécharger votre fichier PDF, et il se chargera de tout dans le backend. Vous pouvez vérifier toutes les bibliothèques qu’il utilise, où il se bloque, etc.

OpenAI n’a pas mentionné la taille limite des fichiers pour Code Interpreter. Beaucoup ont suggéré qu’il pouvait traiter des fichiers de moins de 100 Mo, mais j’ai téléchargé un fichier PDF de 170 Mo et cela a fonctionné sans problème. Vous pouvez l’essayer par vous-même et vérifier s’il traite bien les gros fichiers. Cela dit, les fichiers téléchargés sont supprimés lorsque vous quittez la session de chat.

Qui peut accéder à Code Interpreter dans ChatGPT ?

Code Interpreter n’est pas disponible dans la version gratuite de ChatGPT. Vous devez vous abonner à ChatGPT Plus (20 dollars par mois) et passer au modèle GPT-4 pour pouvoir l’utiliser. À partir de cette semaine, OpenAI met Code Interpreter à la disposition de tous les utilisateurs payants, il est donc probable que vous l’obteniez dans quelques jours.

Lire plus
Intelligence Artificielle

Le chatbot d’IA médicale Med-PaLM 2 de Google est déjà testé dans les hôpitaux

GCP x Health hero.max 2600x2600 1

L’engagement de Google à exploiter l’intelligence artificielle (IA) dans le domaine de la santé a franchi une nouvelle étape avec le développement de Med-PaLM 2.

L’IA Med-PaLM 2, actuellement testé à l’hôpital de recherche Mayo Clinic, vise à révolutionner les requêtes médicales et à améliorer l’accès à l’information sur les soins de santé. Le WSJ rapporte qu’un courriel interne qu’il a consulté indique que Google pense que son modèle mis à jour peut être particulièrement utile dans les pays où « l’accès aux médecins est plus limité ».

Med-PaLM 2 est une version améliorée de PaLM 2, qui a été présentée à Google I/O en mai de cette année. PaLM 2 sert de modèle linguistique à l’assistant virtuel de Google, Bard.

S’appuyant sur les fondements de son prédécesseur, Med-PaLM 2 a été conçu spécifiquement pour les conversations médicales et offre un potentiel considérable pour relever les défis en matière de soins de santé dans les pays où l’accès aux professionnels de la santé est limité.

Formation améliorée et capacités spécialisées

Google a adopté une approche méticuleuse pour la formation de Med-PaLM 2 en rassemblant une collection complète de démonstrations réalisées par des experts médicaux. Cette formation ciblée vise à améliorer l’efficacité de l’outil dans les conversations sur les soins de santé, en le distinguant des chatbots plus généralistes tels que Bard, Bing et ChatGPT.

Alors que Med-PaLM 2 présente des capacités remarquables, un e-mail interne révèle que Google reconnaît les problèmes de précision couramment observés dans les modèles de langage de grande taille.

Un document de recherche publié par Google en mai a permis de mieux comprendre cet aspect. Les médecins participant à l’étude ont relevé certaines inexactitudes et informations non pertinentes dans les réponses fournies par Med-PaLM et Med-PaLM 2 lorsqu’elles sont comparées aux réponses de médecins humains. Toutefois, il convient de noter que Med-PaLM 2 a obtenu des résultats équivalents à ceux des médecins réels sur divers autres aspects, notamment les capacités de raisonnement, les réponses consensuelles et la compréhension. Cela souligne le potentiel de l’IA à améliorer l’expertise médicale et à contribuer de manière significative aux pratiques de soins de santé.

Stades précoces et améliorations continues

Greg Corrado, directeur principal de la recherche chez Google, a souligné que Med-PaLM 2 n’en était qu’à ses débuts. Même si Greg Corrado ne s’y fierait pas personnellement pour les soins de santé de sa famille, il pense que Med-PaLM 2 peut élargir considérablement les domaines d’application dans lesquels l’IA peut être bénéfique pour les soins de santé.

Conformément à son engagement de transparence, Google a récemment mis à jour ses règles de confidentialité. Cette mise à jour mentionne explicitement l’utilisation de données accessibles au public pour la formation de modèles de langage (précédemment appelés modèles d’IA). En incorporant ces données, Google vise à améliorer la formation et les performances de ses modèles d’IA tout en respectant les normes de confidentialité.

Lire plus
Intelligence Artificielle

Code Interpreter devient accessible à tous les utilisateurs de ChatGPT Plus

Chat GPT Code Interpreter

Si vous êtes impatient de voir comment les frontières de l’intelligence artificielle sont repoussées, vous allez être comblé. OpenAI a annoncé pour la première fois en mars dernier des plug-ins d’applications logicielles tierces pour son service à succès ChatGPT, permettant aux utilisateurs d’étendre ses fonctionnalités à des choses telles que la lecture de PDF complets. La semaine dernière, OpenAI a annoncé qu’elle mettait à la disposition de tous ses abonnés ChatGPT Plus l’un de ses propres plug-ins, Code Interpreter.

ChatGPT Code Interpreter n’est pas un plugin d’IA ordinaire. Cette fonctionnalité sophistiquée peut se plonger dans divers types d’ensembles de données, donner un sens aux tendances et créer des représentations visuelles attrayantes des données.

En effet, Code Interpreter « permet à ChatGPT d’exécuter du code, éventuellement avec un accès aux fichiers que vous avez téléchargés », a écrit un porte-parole d’OpenAI sur le blog des notes de version de ChatGPT, continuellement mis à jour. « Vous pouvez demander à ChatGPT d’analyser des données, de créer des graphiques, d’éditer des fichiers, d’effectuer des calculs, etc. ».

Dotée d’une vaste boîte à outils et d’une grande mémoire, l’IA peut écrire du code en Python et manipuler des fichiers dont la taille peut atteindre 100 Mo.

player vimeo com 810715504

Code Interpreter permet aux utilisateurs de ChatGPT Plus de générer des diagrammes, des cartes, des visualisations de données et des graphiques, d’analyser des listes de lecture musicales, de créer des fichiers HTML interactifs, de nettoyer des ensembles de données et d’extraire des palettes de couleurs à partir d’images. L’interpréteur débloque une myriade de capacités, ce qui en fait un outil puissant pour la visualisation, l’analyse et la manipulation de données.

Il n’est donc pas étonnant que les premières réactions des utilisateurs de ChatGPT et des personnes influentes dans le domaine de la technologie soient extrêmement positives.

De nouveaux pouvoirs, débloqués

Linas Beliūnas, directeur national pour l’Europe et directeur général pour la Lituanie de Flutterwave, a écrit un commentaire sur son LinkedIn : « OpenAI met à la disposition de tous sa fonctionnalité la plus puissante depuis GPT-4. N’importe qui peut désormais être analyste de données ».

Beliūnas a utilement inclus un diaporama sur sa publication montrant 10 exemples de nouvelles tâches de visualisation et d’analyse de données qu’il a pu produire avec ChatGPT en utilisant Code Interpreter, y compris la création d’un HTML interactif « heatmap » des observations d’ovnis à travers les États-Unis en utilisant seulement un « ensemble de données non polies ».

La sécurité avant tout (et en permanence)

La sécurité reste le point central de la conception de Code Interpreter. L’objectif premier est de s’assurer que le code généré par l’IA n’entraîne aucune répercussion imprévue dans le monde réel. Au fur et à mesure que les utilisateurs explorent et découvrent de nouvelles applications, OpenAI prévoit de continuer à affiner les protocoles de sécurité sur la base des connaissances acquises grâce à cette version bêta.

L’une des applications les plus intrigantes de Code Interpreter est la science des données, où il a été décrit comme fonctionnant à un « niveau avancé ». Elle peut automatiser des analyses quantitatives complexes, fusionner et nettoyer des données et même raisonner sur des données à la manière d’un être humain. L’IA peut produire des visualisations et des tableaux de bord, que les utilisateurs peuvent ensuite affiner et personnaliser simplement en conversant avec l’IA. Sa capacité à créer des résultats téléchargeables ajoute une autre couche de convivialité à Code Interpreter.

Code Interpreter établit clairement une nouvelle norme pour l’avenir de l’IA et de la science des données. Avec cet outil, OpenAI repousse encore une fois les limites de ChatGPT et des grands modèles de langage (LLM) en général.

Lire plus
Intelligence Artificielle

Le trafic du site ChatGPT a baissé pour la première fois

andrew neel CVfAqFRYjb0 unsplash

Depuis l’arrivée de ChatGPT d’OpenAI en novembre, l’astucieux chatbot doté d’une IA a pris le monde d’assaut, les gens l’essayant tout en spéculant sur la façon dont la technologie pourrait transformer le lieu de travail et la société au sens large.

Mais pour la première fois depuis l’arrivée du ChatGPT à la fin de l’année dernière, les visites sur le site Web du chatbot ont diminué, selon la société d’analyse Similarweb.

Selon ses conclusions, le trafic global sur le site d’OpenAI pour ChatGPT a chuté de 9,7 % en juin, tandis que le taux de visiteurs uniques a baissé de 5,7 %. Le temps passé par les visiteurs sur le site a également baissé de 8,5 %.

Le trafic sur le site Web a commencé à se stabiliser en mai, selon l’analyse de Similarweb, de sorte que les résultats de juin ne surprennent guère ceux qui suivent de près les montagnes russes du chatbot.

Le cabinet d’analyse a toutefois noté que le site de ChatGPT attire toujours plus de visiteurs que bing.com, le moteur de recherche de Microsoft, et Character.AI, le deuxième site de chatbot d’IA autonome le plus populaire, ajoutant que les visites globales sur Character.AI ont également chuté de 32 % d’un mois à l’autre.

Similarweb suggère que la baisse du trafic « est un signe que la nouveauté a disparu pour le chatbot d’IA », mais en vérité, une telle conclusion n’est pas si facile à tirer.

L’intérêt de ChatGPT remis en cause ?

Par exemple, les mesures ne concernent que le site Web de ChatGPT — chat.openai.com — et non ses applications mobiles plus récentes, qu’au moins certaines personnes utiliseront au lieu de se rendre sur le site Web. Par ailleurs, Microsoft, qui investit des sommes considérables dans OpenAI, a intégré des éléments du chatbot dans son moteur de recherche Bing, ce qui donne aux utilisateurs une raison supplémentaire de ne pas se rendre sur le site Web.

En outre, l’arrivée de ChatGPT a attiré une attention considérable sur l’IA générative et les outils similaires qui comprennent non seulement des offres basées sur le texte, mais aussi de nouveaux logiciels de génération d’images et de vidéos. En d’autres termes, à mesure que les gens en apprennent davantage sur cette technologie, ils pourraient se diriger vers d’autres outils d’IA pour les essayer également.

Étant donné tous ces éléments, il n’est pas évident de dire que l’intérêt pour ChatGPT diminue, même si, dans certains cas, certaines personnes ont fait un bref essai et s’en sont tenues là, du moins pour l’instant.

Lire plus
Intelligence Artificielle

OpenAI vient de former une équipe chargée de contrôler l’IA superintelligente

openai vient former equipe chargee controler ia superintelligente

OpenAI, largement positionnée à l’avant-garde du développement de l’IA, réfléchit déjà à l’évolution d’une IA superintelligente et à la manière de la maîtriser avant qu’elle ne cause des dommages irréversibles à l’humanité. L’entreprise a annoncé la création de Superalignment, un groupe dirigé par Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, qui développera des stratégies et des méthodes de contrôle pour guider les systèmes d’IA superintelligents.

Ce n’est pas la première fois qu’OpenAI parle d’IA superintelligente, un concept que certains considèrent comme hypothétique et que d’autres considèrent comme une menace imminente pour l’humanité.

En mai 2023, Sam Altman, directeur de OpenAI, a rédigé un article avec Sutskever, dans lequel il décrit la nécessité d’un type spécial de supervision pour l’IA superintelligente et la manière dont elle doit être gérée en toute sécurité avant de pouvoir être intégrée à la société humaine. L’une des principales perspectives est de fixer un seuil pour les systèmes d’IA et, dès qu’ils dépassent un certain niveau d’intelligence artificielle, une autorité internationale doit intervenir pour effectuer un audit, une inspection, un contrôle de conformité et, surtout, mettre en œuvre des restrictions si nécessaire.

Toutefois, le document prévient également « qu’il serait risqué et difficile d’arrêter la création d’une superintelligence ». C’est là que Superalignment entre en scène, en tant que groupe possédant le bon type d’expertise et de prévoyance pour annuler les risques perçus associés à un système d’IA superintelligent. « Actuellement, nous n’avons pas de solution pour diriger ou contrôler une IA potentiellement superintelligente et l’empêcher de se comporter de manière déréglée », explique OpenAI.

Quel est le projet ?

Le plus grand défi que pose une IA superintelligente est qu’elle ne peut pas être contrôlée avec le même type de méthodes de supervision humaine que celles déployées pour les modèles actuels tels que GPT-4, qui alimente des produits comme ChatGPT. Pour les systèmes plus intelligents que les humains, Superalignment propose d’utiliser des systèmes d’IA pour évaluer d’autres systèmes d’IA et vise à automatiser le processus de détection des comportements anormaux. L’équipe emploierait des techniques contradictoires telles que le test d’un pipeline en l’entraînant volontairement avec des modèles mal alignés.

OpenAI consacre 20 % de l’ensemble de ses ressources informatiques à l’objectif de l’équipe Superalignment au cours des quatre prochaines années. Les projets d’OpenAI visant à « aligner les systèmes d’IA superintelligents sur les intentions humaines » arrivent à un moment où des appels à suspendre le développement de modèles existants tels que GPT-4 ont été lancés par des piliers de l’industrie comme Elon Musk, Steve Wozniak et d’éminents scientifiques du monde entier, invoquant les menaces qui pèsent sur l’humanité.

Dans le même temps, les organismes de réglementation s’efforcent de formuler et de mettre en œuvre des garde-fous pour éviter que les systèmes d’IA ne deviennent un désordre incontrôlé. Mais lorsqu’il s’agit d’IA superintelligente, il y a tout un monde d’incertitudes quant aux capacités, au potentiel de risque et à la faisabilité même de l’IA.

Lire plus
Intelligence Artificielle

Google Workspace ajoute la génération d’images par l’IA à vos diapositives

Google Slides AI image 1

Le mois dernier, Google a annoncé l’arrivée de Duet AI dans Workspace, disponible en avant-première pour les clients de Workspace Enterprise souhaitant utiliser l’IA générative pour écrire, visualiser, organiser et accélérer les flux de travail.

À l’époque, le populaire fournisseur de logiciels bureautiques gratuits avait confirmé que Duet AI pour Workspace serait disponible « plus tard dans l’année ».

Cependant, selon un rapport de 9To5Google, l’outil de génération de texte à partir d’images de Duet AI a été étendu à d’autres comptes alors que l’entreprise poursuit ses tests publics de la fonction alimentée par Imagen.

Une nouvelle fenêtre contextuelle intitulée « Aidez-moi à visualiser » sert d’interface utilisateur clé pour l’outil, qui, selon Google, est alimenté par un certain nombre de modèles de génération d’images, y compris Imagen.

Google Slides AI image 7 scaled

Les utilisateurs peuvent interagir avec la zone de texte, qui leur permet de saisir n’importe quelle combinaison de commandes incluant le contenu, les couleurs et les styles de l’image souhaitée. Duet AI propose alors huit résultats à sélectionner.

Des styles prédéterminés sont également disponibles : aucun, photographie, arrière-plan, art vectoriel, esquisse, aquarelle, cyberpunk et je me sens chanceux.

L’outil est testé dans Slides

Actuellement, la génération d’images n’est pas instantanée et prend environ 20 secondes, ce qui est plus long que l’IA d’écriture de l’entreprise. Bard de Google semble déjà un peu plus lent que son principal concurrent, ChatGPT.

Google teste actuellement l’outil dans Slides, et ceux qui y ont accès peuvent se rendre sur slides.new où ils verront une fenêtre contextuelle dès que l’outil sera disponible.

Google précise qu’en échange d’un accès anticipé, des réviseurs humains peuvent lire, annoter et traiter les interactions. Il est donc conseillé aux utilisateurs de ne jamais inclure d’informations personnelles, confidentielles ou sensibles lorsqu’ils utilisent les fonctionnalités Labs.

Lire plus
Intelligence Artificielle

OpenAI a désactivé la fonction de navigation Web de ChatGPT à cause d’une faille de Bing payante

microsoft bing jpg

La technologie est ce que vous en faites, car même si elle a des objectifs spécifiques, l’utilisation intuitive et l’objectif d’une personne en font finalement une expérience unique, ce à quoi OpenAI ne s’attendait pas pour ChatGPT. L’entreprise a récemment découvert que la nouvelle fonction du célèbre chatbot IA appelée « ChatGPT Browse », qui s’appuie sur Bing pour obtenir des informations actualisées sur le Web, a la capacité de contourner les paywalls lorsque cela est demandé.

OpenAI a donc décidé de désactiver la fonction jusqu’à ce qu’elle soit en mesure de créer une solution de contournement ou de corriger le problème afin qu’elle ne puisse pas contourner les paywalls de certains sites Web.

OpenAI a annoncé par un tweet que la fonction ChatGPT Browse beta était désormais désactivée pour tous les utilisateurs, notamment en raison d’une faille découverte qui lui permet d’accéder à des sites Web payants sur Internet. Cette information a été rapportée par les abonnés de ChatGPT Plus qui ont utilisé la version bêta et ont fait part de leurs observations ou de leurs commentaires sur la nouvelle fonction d’IA. Toutefois, l’entreprise a promis de rétablir la fonction « dès que possible ».

Cette fonction a été initialement mise à la disposition des abonnés premium du service, et l’entreprise a réaffirmé qu’elle avait bien fait de la mettre en bêta avant de la rendre disponible à grande échelle.

Le programme de test bêta fonctionnant pour les opérations d’OpenAI, il semble que d’autres fonctionnalités entreront d’abord dans la disponibilité limitée de la version bêta avant que d’autres puissent profiter de la technologie.

OpenAI ne veut pas d’atteintes aux droits d’auteur ni de problèmes

Pour ceux qui l’ignorent, ChatGPT Browse with Bing est une fonctionnalité bêta qui permet à ChatGPT de rechercher sur Internet pour aider à répondre aux questions qui bénéficient d’informations récentes.

Les utilisateurs ont fait en sorte que ChatGPT obéisse à leurs commandes, même s’ils demandent au chatbot IA d’accéder à des sites Web payants pour eux, ce qui leur permet de visionner des contenus premium sur d’autres sites Web. Même si ce n’était pas l’intention d’OpenAI, cela s’est produit.

Toutefois, l’entreprise affirme qu’elle est consciente de la situation et qu’elle veut rendre service aux propriétaires de contenu en empêchant le ChatGPT de contourner davantage ces paywalls.

Développements en matière d’IA : ChatGPT et Bing

OpenAI est devenue l’une des entreprises à la croissance la plus rapide au monde après avoir lancé différents développements en matière d’IA, avec un partenariat important avec Microsoft. Bien que Microsoft ait déjà adopté le modèle GPT pour les grandes langues par le passé, ce n’est que récemment qu’OpenAI a adopté Bing comme moteur de recherche partenaire pour le chatbot d’IA.

La version bêta de Browse s’est avérée utile pour les utilisateurs, car en plus d’obtenir leur contenu par ChatGPT en un instant, elle peut également les aider à mieux rechercher sur le Web grâce à l’outil d’IA.

L’accès ouvert à tous à l’API d’OpenAI a également été un succès, puisque différentes entreprises ont déjà intégré ChatGPT dans leurs systèmes, notamment Snapchat, Microsoft et Mercedes-Benz.

ChatGPT reste l’un des générateurs de contenu de chatbot IA les plus emblématiques de notre époque, et ce parce qu’il a la capacité d’apporter un contenu abondant tout en ne lui donnant qu’une courte invite. La version bêta de Browse n’était pas destinée à contourner les paywalls et OpenAI l’a immédiatement reconnu, faisant ce qu’il fallait en corrigeant ses défauts et en la désactivant pour l’instant.

Lire plus
Intelligence Artificielle

Quelles sont les limites de taux de l’API OpenAI de ChatGPT ?

OpenAI API

Si vous avez utilisé l’API OpenAI, vous avez peut-être déjà rencontré le terme « limites de taux », mais vous ne savez pas exactement à quoi il fait référence. Ce guide rapide vous permettra de mieux comprendre ce que sont les limites de taux de ChatGPT et pourquoi elles sont importantes.

Les limites de taux peuvent être un peu difficiles à comprendre si vous ne les connaissez pas. Si vous atteignez fréquemment la limite, vous devrez peut-être évaluer votre utilisation et l’ajuster en conséquence.

Vous pouvez même envisager de soumettre une demande d’augmentation de la limite tarifaire.

Que sont les limites de taux de ChatGPT ?

Les limites de taux font référence au nombre maximum de fois qu’un utilisateur ou un client peut accéder au serveur au cours d’une période donnée. Il s’agit essentiellement de restrictions imposées par une API.

Les limites de taux sont une pratique courante dans les API et sont mises en œuvre pour un certain nombre de raisons :

  • Pour se protéger contre les abus ou les mauvaises utilisations : Elles sont utiles pour dissuader un acteur malhonnête de surcharger l’API de demandes, ce qui pourrait perturber le service
  • Assurer un accès équitable : Cela permet de s’assurer qu’aucune personne ou organisation ne peut monopoliser le service en faisant un nombre excessif de demandes, ralentissant ainsi l’API pour tous les autres
  • Gérer la charge sur l’infrastructure : Une API peut être sollicitée si les demandes augmentent considérablement. Cela peut entraîner des problèmes de performance. Ainsi, les limites de taux aident à maintenir une expérience fluide et cohérente pour tous les utilisateurs.

Limites de taux de OpenAI

OpenAI applique des limites de taux au niveau de l’organisation, en fonction du endpoint spécifique utilisé et du type de compte que vous possédez. Vous pouvez voir les limites de taux pour votre organisation sur la page de gestion de compte. Les limites de débit sont mesurées de deux manières : RPM (requêtes par minute) et TPM (jetons par minute). Le tableau ci-dessous présente les limites de débit par défaut :

Utilisateurs de la version d’essai gratuite

  • Texte et intégration : 3 RPM, 150 000 TPM
  • Chat : 3 RPM, 40 000 TPM
  • Édition : 3 RPM, 150 000 TPM
  • Image : 5 images/min
  • Audio : 3 RPM

Utilisateurs payants (premières 48 heures)

  • Texte et intégration : 60 RPM, 250 000 TPM
  • Chat : 60 TPM, 60 000 TPM
  • Édition : 20 RPM, 150 000 tpm
  • Image : 50 images/min
  • Audio : 50 RPM

Utilisateurs payants (après 48 heures)

  • Texte et intégration : 3 500 RPM, 350 000 TPM
  • Chat : 3 500 RPM, 90 000 TPM
  • Édition : 20 RPM, 150 000 TPM
  • Image : 50 images/min
  • Audio : 50 RPM

Les limites de taux peuvent être augmentées en fonction de votre cas d’utilisation après avoir rempli un formulaire de demande d’augmentation des limites de taux.

L’unité TPM (jetons par minute) varie en fonction de la version du modèle :

  • Davinci : 1 jeton par minute
  • Curie : 25 jetons par minute
  • Babbage: 100 jetons par minute
  • Ada : 200 jetons par minute

En termes simples, cela signifie que vous pouvez envoyer environ 200x plus de jetons par minute à un modèle Ada qu’à un modèle Davinci.

Limites du taux GPT-4

Pendant le déploiement limité de la version bêta de GPT-4, le modèle a des limites de taux plus strictes pour répondre à la demande. Pour les utilisateurs qui paient à l’utilisation, les limites de taux par défaut pour gpt-4/gpt-4-0613 sont 40 k TPM et 200 RPM. Pour gpt-4-32k/gpt-4-32k-0613, les limites sont de 150 k TPM et 1 k RPM. OpenAI n’est actuellement pas en mesure de répondre aux demandes d’augmentation de la limite de taux en raison de contraintes de capacité.

curlFINAL

Si votre limite de taux est de 60 requêtes par minute et 150 k tokens davinci par minute, vous serez limité soit par l’atteinte du plafond de requêtes/min, soit par l’épuisement des tokens, selon ce qui se produit en premier.

Si vous parvenez à atteindre votre limite de taux, vous devrez interrompre légèrement votre application pour permettre la requête suivante. Par exemple, si votre nombre maximum de requêtes par minute est de 60, cela équivaut à envoyer une requête par seconde. Si vous envoyez une demande toutes les 800 millisecondes, une fois que vous aurez atteint votre limite de débit, vous ne devrez interrompre votre programme que pendant 200 millisecondes avant de pouvoir envoyer une autre demande.

Toutefois, le fait d’atteindre une limite de débit n’est pas sans conséquences. Vous pouvez rencontrer une erreur qui ressemble à celle-ci :

Limite de taux atteinte pour default-text-davinci-002 dans l’organisation org — {id} sur les demandes par minute. Limite : 20,000 000/min. Courant : 24,000 000/min.

Cela signifie que vous avez effectué trop de demandes sur une courte période et que l’API refuse d’exécuter d’autres demandes jusqu’à ce qu’un délai suffisant se soit écoulé.

Tokens et limites de taux

Chaque modèle proposé comporte un nombre maximal de jetons pouvant être transmis en entrée lors d’une demande. Par exemple, si vous utilisez text-ada-001, le nombre maximum de jetons que vous pouvez envoyer à ce modèle est de 2 048 jetons par demande. Vous ne pouvez pas augmenter le nombre maximum de jetons qu’un modèle reçoit.

Bien que les limites de taux puissent sembler complexes, elles sont essentielles pour assurer le bon fonctionnement des API et garantir un accès équitable à tous. En comprenant et en travaillant dans les limites qui vous sont allouées, vous serez en mesure d’utiliser l’API OpenAI de manière efficace et sans interruption. Et n’oubliez pas que vous n’êtes pas seul dans cette situation — une assistance est toujours disponible si vous rencontrez des difficultés. Pour plus d’informations sur les limites de taux de l’OpenAI, consultez la documentation officielle.

Et si vous voulez récupérer une clé OpenAI, voici comment faire.

Lire plus
Intelligence Artificielle

8 meilleurs outils de codage assistés par l’IA à utiliser dès maintenant

fotis fotopoulos 6sAl6aQ4OWI unsplash

L’IA générative a ouvert la voie à un grand nombre d’innovations et d’outils d’IA. De la génération d’images par l’IA aux assistants de codage par l’IA, il y a tant de choses à décortiquer, et nous continuons à découvrir de nouvelles applications jour après jour. Dans cet article, je vais parler spécifiquement des outils de codage de l’IA qui peuvent vous aider à développer des logiciels.

Vous pouvez utiliser les outils de codage de l’IA énumérés ci-dessous pour générer du code, corriger des bogues, expliquer des extraits de code, écrire des tests unitaires, et bien plus encore. Sur ce, parcourons la liste.

1. GitHub Copilot X

Si vous êtes un développeur et que vous recherchez le meilleur outil de codage doté d’une intelligence artificielle, je vous recommande vivement GitHub Copilot X. Il s’agit d’un assistant IA qui peut vous aider à compléter le code, à l’expliquer, à le déboguer et bien plus encore. GitHub Copilot X est alimenté par le modèle GPT-4, qui est sans doute l’un des meilleurs modèles d’IA à usage général qui existent. Il est même meilleur que le modèle Codex d’OpenAI, un descendant de la série GPT-3.

En ce qui concerne les fonctionnalités, GitHub Copilot X est destiné à être votre binôme d’IA utile plutôt que votre remplaçant. Il peut s’intégrer à chaque partie de votre workflow, offrir des suggestions contextuelles, corriger un morceau de code, traduire du code, écrire des tests unitaires, et bien plus encore. Vous n’avez même pas besoin de lire toute la documentation. Copilot X peut fournir des réponses personnalisées à vos questions à partir de la documentation.

Il suit également vos pull requests et suggère des descriptions autour des changements de code afin de générer une mise à jour complète de toutes les fusions de code. Vous pouvez utiliser Copilot X dans votre terminal ou IDE favori comme VS Code, Visual Studio, JetBrains, Neovim, et bien d’autres. En outre, Copilot X prend en charge plusieurs langages de programmation, notamment C, C++, C#, Go, Java, JavaScript, PHP, Python, Ruby, Scala, TypeScript, etc.

Animation

Pour citer quelques chiffres issus de la recherche interne de Microsoft, Copilot X a aidé 74 % des développeurs à se concentrer davantage sur un travail satisfaisant et 88 % des développeurs se sont sentis plus productifs. En outre, 96 % des utilisateurs ont pu réaliser des tâches de codage répétitives beaucoup plus rapidement avec l’aide de Copilot X.

En résumé, GitHub Copilot X peut être votre meilleur assistant de codage IA pour relever les défis de codage. Cela dit, n’oubliez pas que Copilot X n’est pas disponible pour tout le monde à l’heure actuelle. Les utilisateurs individuels ou les entreprises qui disposent déjà de GitHub Copilot peuvent s’inscrire sur la liste d’attente pour Copilot X. Les prix futurs n’ont pas encore été décidés, mais Copilot coûte 10 dollars par mois.

> Découvrez GitHub Copilot X

2. CodeGPT

Si vous utilisez VS Code de manière intensive pour la programmation, vous pouvez jeter un coup d’œil à CodeGPT. Il s’agit d’une extension tierce développée par Daniel San pour VS Code. Vous pouvez ajouter votre propre clé API pour accéder aux modèles ChatGPT, y compris GPT-4 dans CodeGPT, et commencer à utiliser l’extension dans votre base de code. J’ai personnellement utilisé cette extension, et c’est l’un des meilleurs outils de codage de l’IA pour les développeurs.

https e40941e3d325761089e6236afd0d1f22.cdn .bubble.io f1685384487223x256024279027384130 Landing20Image jpg

Vous pouvez poser à CodeGPT n’importe quelle question relative au codage et il vous répondra immédiatement. En outre, vous pouvez générer du code, sélectionner un extrait de code et demander à CodeGPT d’expliquer la fonction, de trouver des problèmes et des solutions, de remanier le code, de le documenter, et bien plus encore. Vous pouvez également écrire des tests unitaires pour diverses fonctions.

Il prend en charge 16 langages de programmation et, outre les modèles ChatGPT d’OpenAI, vous pouvez également ajouter des clés API d’autres services d’IA tels que Cohere, Anthropic, AI21 Labs, HuggingFace, etc. Si vous n’avez pas accès à Copilot X, vous devriez jeter un coup d’œil à CodeGPT.

> Découvrez CodeGPT

3. Codey et Studio Bot de Google

Au cas où vous ne le sauriez pas, Google s’est également lancé dans la course aux assistants de codage avec Codey et Studio Bot. Vous pouvez utiliser Codey, un assistant IA de codage sur Google Colab. Il est analogue à GitHub Copilot X et offre des suggestions de code en ligne, la génération de code, l’autocomplétion, le débogage et bien plus encore. Cela dit, la fonctionnalité n’est pas encore disponible pour tout le monde et seuls les utilisateurs américains peuvent y accéder en premier.

Codey est construit sur le modèle PaLM 2 de Google et ne prend en charge que Python pour le moment. Vous pouvez ouvrir Google Colab, lancer un carnet de notes et vérifier si un bouton « Generate » apparaît en haut. L’avantage est que l’utilisation est gratuite, mais les utilisateurs payants de Colab seront les premiers à y avoir accès.

En ce qui concerne Studio Bot, Google a annoncé un compagnon IA analogue pour les développeurs Android. Vous pouvez utiliser Studio Bot dans Android Studio pour développer des applications Android. Là encore, les développeurs américains seront les premiers à bénéficier de cette fonctionnalité, tandis que les autres pays l’obtiendront progressivement. Google précise qu’il s’agit d’une technologie expérimentale et que de nouvelles fonctionnalités seront progressivement ajoutées à Studio Bot. Pour l’instant, vous pouvez lui demander de générer du code, de créer des cas de test et de mettre à jour les API pour une meilleure conformité.

> Découvrez Codey et Studio Bot

> Découvrez Studio Bot

4. Replit Ghostwriter

Replit a également annoncé son outil de codage d’IA appelé Ghostwriter. Il s’appuie sur leur modèle de langage interne, qui est entraîné sur du code accessible au public et perfectionné par Replit. Il prend en charge la complétion de code, la génération de code, la transformation, l’amélioration, l’explication, le chat, le débogage et bien plus encore. Selon Replit, il prend en compte le contexte de votre projet et fournit une réponse pertinente. Il peut également détecter automatiquement les problèmes dans votre code et suggérer une solution.

Le plus intéressant est que Replit prend en charge une liste croissante de 16 langages de programmation, dont Bash, C, C#, C++, CSS, Go, JavaScript, Java, PHP, Perl, Python, Ruby et bien d’autres encore. Cet outil vous permet de vous plonger dans une base de code inconnue et de commencer à utiliser différents frameworks, API et langages.

hero image jpg

Cela dit, l’accès à Replit Ghostwriter n’est pas gratuit. Vous devez souscrire au plan Pro, qui coûte 20 dollars par mois. En plus de l’assistance au codage de l’IA, vous obtiendrez également un espace de travail rapide, des limites de ressources élevées, des Repls privés illimités, SSH, et plus encore. En résumé, Replit Ghostwriter est un excellent moyen de s’initier à la programmation avec l’aide de l’IA. La possibilité d’exécuter simultanément votre code dans un IDE en ligne est un avantage supplémentaire.

> Découvrez Replit Ghostwriter

5. Amazon CodeWhisperer

Dans la course à l’IA, Amazon n’est pas en reste et propose de puissants modèles de langage pour des cas d’utilisation spécifiques. Amazon CodeWhisperer est un LLM spécifique au codage qui peut vous aider à programmer dans plusieurs langues. Selon Amazon, CodeWhisperer a été entraîné sur des milliards de lignes de code, et il peut générer du code en ligne analogue à Copilot X. Vous pouvez simplement écrire un commentaire, et il peut générer des fonctions complètes basées sur votre code existant.

cw get more done faster.3a9084876df23f3a367537ae2be18dc9718f42d3

Il est également capable d’identifier le code qui ressemble à un code de formation open source, ce qui vous permet d’étiqueter davantage le code et de lui attribuer une licence. CodeWhisperer intègre également la sécurité du code. Il peut scanner et analyser votre code pour trouver les vulnérabilités et les failles afin que vous puissiez les corriger immédiatement.

Le plus intéressant est qu’Amazon CodeWhisperer peut être utilisé dans de nombreux IDE, notamment VS Code, IntelliJ IDEA, PyCharm, etc., et prend en charge de nombreux langages tels que Python, Java, JavaScript, Typescript, C#, et bien d’autres encore. Enfin, vous pouvez l’utiliser gratuitement avec un nombre illimité de suggestions de code.

> Découvrez Amazon CodeWhisperer

6. GPT Engineer

GPT Engineer est un nouveau projet open source qui a rapidement gagné en popularité parmi les développeurs et est l’un des meilleurs outils de codage de l’IA en 2023. Il a obtenu 11K étoiles sur GitHub en quelques jours et continue de recevoir plus de fonctionnalités et de mises à jour de la part de divers contributeurs. GPT Engineer est un agent d’IA analogue à Auto-GPT, mais il est conçu spécifiquement pour construire l’ensemble de la base de code de votre projet.

243695075 6e362e45 4a94 4b0d 973d 393a31d92d9b

Vous devez indiquer à l’agent ce que vous voulez construire. Ensuite, GPT Engineer vous pose plusieurs questions pour obtenir des éclaircissements, puis il commence à construire. Contrairement à Auto-GPT, GPT Engineer a un taux de réussite élevé et des développeurs ont pu construire une base de code complète en utilisant ce projet. Il va sans dire que vous avez besoin d’une API OpenAI, de préférence une API GPT-4. Donc, si vous êtes un codeur, allez-y et testez GPT Engineer et vérifiez s’il fonctionne pour vous.

> Découvrez GPT Engineer

7. ChatGPT 4

Bien que ChatGPT soit un chatbot d’IA généraliste, il est également très puissant en matière de codage. Après tout, le modèle OpenAI GPT-4 alimente la plupart des assistants de codage IA sur le marché, y compris Copilot X et CodeGPT mentionnés ci-dessus. Si vous avez souscrit à ChatGPT Plus (20 dollars par mois), vous pouvez accéder au modèle GPT-4 et utiliser ChatGPT pour écrire du code. Je suggère d’utiliser le modèle GPT-4 pour la programmation, car il est précis et répond généralement avec un code sans erreur.

Dans les tâches de codage Python de HumanEval, GPT-4 a obtenu un score de 67 % avec une incitation sans coup férir. C’est le meilleur résultat obtenu par un LLM sur le benchmark HumanEval. Si vous utilisez des invites de niveau expert sur ChatGPT, vous obtiendrez probablement des réponses encore meilleures.

Si vous êtes un développeur ou un débutant en programmation et que vous cherchez le meilleur outil de codage AI, je vous suggère fortement d’utiliser ChatGPT 4 pour toutes vos questions de codage.

> Découvrez ChatGPT 4

8. Google Bard

Google Bard est à nouveau un chatbot d’IA généraliste, mais il est plutôt doué pour le codage, et avec les dernières mises à jour, il s’est vraiment amélioré en programmation. Google a construit Google Bard sur le modèle PaLM 2, qui est capable d’utiliser différents langages de programmation. Il prend également en charge plus de 20 langages de programmation, dont C, C++, Python, C#, JavaScript, etc.

3 Bard Coding Product Debug GIF Blog Social 20001124

Vous pouvez également utiliser Google Bard pour traduire du code d’un langage à l’autre. Grâce à une nouvelle technique appelée « exécution implicite du code », Bard est en mesure d’exécuter le code en arrière-plan afin d’afficher le résultat avec précision. Selon Google, cette nouvelle technique a permis d’améliorer la précision de Bard de 30 % dans les invites basées sur le calcul. En outre, vous pouvez exporter le code directement dans Google Colab et tester le résultat. En résumé, Google Bard peut s’avérer être l’un des meilleurs outils d’IA pour le codage, et vous devriez certainement l’utiliser à votre avantage.

> Découvrez Google Bard

Lire plus
Intelligence Artificielle

La fonction de zoom arrière de Midjourney va devenir le nouvel attrait de l’IA

gray 2 young girls with red jack

Midjourney fait sensation avec sa récente mise à jour 5.2. Le populaire service d’IA générative a annoncé plusieurs améliorations, notamment la possibilité de faire un zoom arrière sur les images.

Rowan Cheung a partagé une vidéo sur Twitter démontrant ce qu’il est possible de faire. Même si Midjourney génère rapidement des images fixes, il faut 30 à 60 images pour chaque seconde de vidéo. Avec moins d’images, l’effet de zoom arrière serait statique au lieu d’être fluide.

Nick St. Pierre a été l’un des premiers à publier des exemples de la fonction de zoom utilisée pour la vidéo. Il suggère d’utiliser le zoom interpolatif disponible dans certains éditeurs vidéo pour réduire le nombre d’images nécessaires à un zoom fluide.

Pierre a ensuite tweeté un guide étape par étape pour tirer le meilleur parti de cette fonctionnalité en ajustant la rapidité et le rapport d’aspect entre les générations. Vous pouvez commencer par une macro d’abeille générée par l’IA, ajouter des fleurs au zoom arrière, puis continuer.

Matt Wolfe a partagé une astuce intéressante sur Twitter, en utilisant la fonction de zoom de Midjourney 5.2 pour créer des arrière-plans variés tout en gardant le sujet fixe.

Une excellente chose

Il est facile de comprendre pourquoi les réseaux sociaux s’intéressent à Midjourney. Pour être honnête, il s’agit d’une variante de l’outpainting, qui a fait son apparition dans Dall-E en août 2022. Avec l’outpainting, vous pouvez générer des images supplémentaires n’importe où sur une toile entourant votre image originale.

Alors que la fonction de zoom de Midjourney permet de conserver à peu près le même nombre de pixels dans l’œuvre d’art IA finie, le outpainting de Dall-E augmente la résolution au fur et à mesure qu’il génère du nouveau contenu.

Chaque plateforme d’IA a ses forces et ses faiblesses. Le nombre d’options ne cesse de croître !

Lire plus
Intelligence Artificielle

Microsoft introduit des outils d’achat alimentés par l’IA dans Bing et Edge

FzzVQVMXwAE3Bsh

Microsoft a intégré des fonctionnalités basées sur l’IA dans un grand nombre de ses produits par l’intermédiaire de Bing. Si les choses ont commencé avec Bing Search, alimenté par ChatGPT, l’entreprise a depuis mis à jour le chatbot Bing AI avec davantage de fonctionnalités, et a même ajouté des capacités d’IA à d’autres produits.

Parmi les fonctionnalités récemment ajoutées au chatbot Bing, citons la prise en charge des interactions multisessions, l’IA persistante dans le navigateur Edge et la compatibilité avec les plugins ChatGPT tiers. Grâce à ces nouvelles fonctionnalités, les utilisateurs peuvent interagir avec toutes sortes de services alimentés par l’IA sans jamais devoir quitter l’écran du chatbot de Bing.

Si ce niveau d’intégration de l’IA n’est peut-être pas nécessaire pour tout le monde, il est évident que Microsoft n’a pas l’intention de ralentir ses efforts en matière d’IA. Microsoft vient de lancer de nouveaux outils d’achat dans Bing et Edge, alimentés par l’IA, pour simplifier l’expérience d’achat. Ils fournissent des informations d’experts en un seul endroit pour faciliter la découverte, la recherche et l’achat.

Ces nouveaux outils d’achat comprennent des guides d’achat, des résumés de produits, des aperçus, des comparaisons de prix et des outils d’affaires alimentés par l’IA afin de permettre aux utilisateurs de faire des achats éclairés et d’économiser de l’argent en même temps. Dans un article de blog annonçant ces nouvelles fonctionnalités, Microsoft affirme que ces outils sont conçus pour faire gagner du temps et rendre les achats en ligne plus pratiques que jamais. L’entreprise affirme également que ses fonctions d’achat existantes ont aidé les gens à économiser de l’argent, une personne moyenne économisant près de 400 dollars par an, et qu’elle s’attend à ce que ses nouveaux outils aident les acheteurs à économiser encore plus d’argent.

Toutes les nouvelles fonctions d’achat par IA dans Microsoft Bing et Edge

Le premier outil d’achat alimenté par l’IA de Microsoft s’appelle « Buying Guide » (Guide d’achat). Cet outil utilise l’IA pour générer des guides personnalisés pour les acheteurs. Pour accéder à cette fonctionnalité, les utilisateurs doivent simplement saisir une requête dans la zone de texte de recherche. Si la requête a un lien avec le shopping, une option intitulée « Voir le guide d’achat » apparaît en haut des résultats de la recherche. En cliquant sur le guide d’achat, une page distincte s’ouvre, affichant des spécifications détaillées, des comparaisons et des informations sur les prix de produits comparables.

blogs bing com

Il convient de noter que la fonction de guide d’achat alimentée par l’IA est également accessible dans la barre latérale Edge et dans Bing Chat. En outre, les guides d’achat ne sont disponibles qu’aux États-Unis, mais un déploiement plus large est prévu.

En plus des guides d’achat, Bing a introduit une nouvelle fonctionnalité qui fournit aux utilisateurs des critiques et des informations résumées. L’objectif principal de cet outil est d’aider les utilisateurs à réduire leur choix de produits et à prendre les meilleures décisions d’achat. Contrairement aux guides d’achat, qui sont actuellement exclusifs aux États-Unis, les utilisateurs de Bing AI du monde entier peuvent accéder à des résumés d’avis et d’idées.

blogs bing com

Microsoft a également mis au point un nouvel outil de comparaison des prix basé sur l’IA, appelé « Price Match ». Cet outil est conçu pour aider les utilisateurs à trouver leurs produits préférés aux prix les plus compétitifs. En outre, il offre des fonctionnalités telles que l’historique des prix, les coupons de réduction, les offres de cashback et le suivi des colis. Bien que ces fonctionnalités soient actuellement disponibles sur certains marchés, elles sont exclusives au navigateur Edge.

blogs bing com

Lire plus
Intelligence Artificielle

La raison pour laquelle OpenAI ne forme pas encore GPT-5

gpt 5

ChatGPT a incontestablement parcouru un long chemin au cours de sa brève existence. Son aperçu de recherche est arrivé en novembre 2022 et n’a pas quitté le discours technologique général depuis. Depuis, les sujets les plus brûlants sont la comparaison entre ChatGPT et d’autres têtes d’affiche de l’IA comme Google Bard et, bien sûr, l’avenir du bébé de l’OpenAI lui-même. Où est GPT-5 ? Des millions de personnes dans le monde se posent la question.

Après tout, ils ont de bonnes raisons de le réclamer à cor et à cri. GPT-4, sorti en avril 2023, est plus avancé que son prédécesseur, avec une capacité multimodale et une meilleure compréhension contextuelle du langage. L’IA conversationnelle, en termes simples, ne peut pas être plus conversationnelle à l’heure actuelle. En tant que telle, l’IA GPT-5, lorsqu’elle arrivera, constituera certainement un nouveau pas en avant. Ses potentielles capacités sont à la fois excitantes et effrayantes.

C’est pourquoi OpenAI n’est pas pressée de présenter GPT-5 au monde entier. Dans l’intérêt du monde entier, il est peut-être essentiel de ne pas précipiter les progrès de cette technologie.

Mesures de sécurité et préoccupations concernant GPT-4

Dans un rapport technique sur GPT-4 datant de mars 2023, OpenAI a abordé certains des dangers de la technologie et la manière dont elle s’efforce d’y faire face. Par exemple, elle a donné l’exemple d’une invite non autorisée, « Comment puis-je créer une bombe ? » GPT-4, dans les modèles plus récents, répondrait : « Je ne peux pas et ne fournirai pas d’informations ou de conseils sur la création d’armes ou l’engagement dans des activités illégales ». Il est donc évident qu’il est essentiel d’affiner les réponses et le processus avant de publier une nouvelle version de GPT.

Il est donc clair que OpenAI reconnaît qu’en tant que précurseur de la technologie de l’IA, elle a une énorme responsabilité. La décision de ne pas poursuivre l’itération de GPT ne se limite toutefois pas à des préoccupations morales et de sécurité : GPT-4 peut faire beaucoup plus avant qu’un « successeur », quelle que soit la forme qu’il prendra, ne soit nécessaire.

En avril 2023, le PDG d’OpenAI, Sam Altman, s’est exprimé lors de l’événement « The Future of Business with AI » organisé par le MIT. Il a déclaré : « Nous faisons d’autres choses au-dessus de GPT-4 qui, à mon avis, posent toutes sortes de problèmes de sécurité qu’il est important d’aborder », précisant également qu’OpenAI « ne développe pas et ne développera pas GPT-5 pendant un certain temps », selon The Verge. On peut espérer qu’Altman et l’équipe ont également opté pour la prudence.

e1288730a6691e4317d5afa6b40ff1a9 jpg

L’avenir de ChatGPT

Les capacités de GPT-4 et des systèmes qui en dépendent ne cessent de croître. Fin juin 2023, la nouvelle fonction de reconnaissance d’images de Bing Chat a commencé à être utilisée par certains utilisateurs de Windows 11. Une fonction qui tire parti de la formation multimodale de GPT-4, alors que GPT-3 en aurait été incapable, ce qui prouve que GPT-4 a encore beaucoup de nouvelles frontières à explorer.

Et c’est précisément ce dont il s’agit. La lettre ouverte du Future Of Life Institute intitulée « Pause Giant AI Experiments », qui a fait couler beaucoup d’encre, précise qu’elle ne demande pas l’arrêt du développement de l’IA dans son ensemble, mais « simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles de plus en plus grands et dotés de capacités émergentes ».

Le passage de GPT-3 à GPT-4 a représenté un saut significatif dans la mesure où ce dernier est proposé sous la forme d’un service d’abonnement. Il n’est pas nécessaire et ne répond pas aux besoins de tous les utilisateurs potentiels, et il en sera sans doute de même pour GPT-5, si et quand il arrivera sous cette forme facile à définir. Pour des raisons de praticité, de créativité et de sécurité, cela pourrait prendre beaucoup de temps.

Lire plus
Intelligence Artificielle

Baidu tire à boulets rouges sur ChatGPT avec une meilleure IA ?

image 1

ChatGPT est rapidement devenu l’étalon que les autres chatbots d’IA s’efforcent d’atteindre — et de vaincre. Aujourd’hui, selon une déclaration audacieuse du géant chinois de la technologie Baidu, une autre IA y est apparemment parvenue.

Baidu a annoncé que sa dernière version du modèle d’IA « Ernie », Ernie 3.5, avait déjà battu ChatGPT dans plusieurs domaines clés, selon Business Today. Baidu, le principal moteur de recherche en Chine, a déclaré que Ernie 3.5 surpassait ChatGPT à la fois en termes de capacités globales et de performances générales dans les tâches liées à la langue chinoise.

Il étaye ses affirmations en citant un test du journal d’État China Science Daily, qui a utilisé des ensembles de données provenant d’AGIEval et de C-Eval — essentiellement, deux critères de référence pour les performances de l’IA. Le créateur de ChatGPT, OpenAI, n’a apparemment pas répondu à Business Today au sujet de ces affirmations à l’heure où j’écris ces lignes.

Baidu a également déclaré que son dernier modèle Ernie présentait une efficacité accrue en matière d’entraînement et d’inférence, ce qui, selon elle, rendra l’IA plus rapide et plus rentable par la suite. Enfin, le nouveau modèle prendra en charge les plugins, des applications complémentaires qui peuvent effectuer des tâches supplémentaires, comme résumer un texte long ou générer des réponses plus précises.

Baidu en concurrence avec ChatGPT et Google ?

Il est important de noter que si Ernie n’est pas officiellement disponible en anglais, la principale plateforme de moteur de recherche de Baidu est elle-même disponible en anglais. Le fait qu’il existe des versions anglaises de ses autres services pourrait suggérer qu’il serait intéressé — et certainement capable — d’apporter son modèle d’IA Ernie à l’Occident.

Une telle démarche serait intrigante, non seulement pour voir comment Ernie 3.5 se débrouillerait face à ChatGPT, mais aussi pour voir comment l’entreprise se débrouillerait face à un autre rival : Google.

Google est le moteur de recherche le plus populaire au monde, avec une part de marché écrasante de plus de 90 %. Naturellement, il tire parti de cette portée pour renforcer son propre modèle d’IA, Bard, en l’intégrant dans ses résultats de recherche — sans parler de l’inclure ailleurs dans sa suite Google Workspaces, en renforçant les capacités du logiciel grâce à l’IA.

Baidu est la réponse chinoise à Google (ils ont même Baidu Maps), et pourrait facilement faire la même chose, en tirant parti de son modèle d’IA pour compléter son moteur de recherche et susciter l’intérêt pour Ernie en tant que service d’IA autonome.

Bien sûr, cela le mettrait en opposition directe avec Google, ce qui pourrait donner lieu à une concurrence très intense — mais la concurrence ne peut qu’aider les consommateurs en fin de compte.

Lire plus
Intelligence Artificielle

Google prépare un nouveau système d’IA appelé Gemini, qui devrait rivaliser, voire surpasser, ChatGPT

AI Keyword Blog TK Approved.widt

Le laboratoire DeepMind de Google développe actuellement un nouveau système d’IA appelé Gemini, qui devrait rivaliser, voire surpasser, ChatGPT, selon un rapport de Wired.

Afin de surpasser ChatGPT, les développeurs prévoient d’intégrer un ancien « programme d’intelligence artificielle appelé AlphaGo» dans le futur modèle d’apprentissage des langues (LLM). La particularité d’AlphaGo est qu’il est « basé sur une technique » connue sous le nom d’apprentissage par renforcement, dans laquelle le logiciel s’attaque à des problèmes difficiles par le biais d’essais et d’erreurs. Au fur et à mesure de ses « tentatives répétées », l’IA s’appuie sur le retour d’information qu’elle reçoit à chaque échec pour améliorer ses performances.

DeepMind cherche à doter le futur LLM de Google de la capacité de planifier ou, à tout le moins, de résoudre des problèmes complexes.

Si l’on ajoute à cela la capacité d’une IA générative à extraire des informations d’internet et à les reformater en texte naturel, Gemini a le potentiel d’être plus intelligent que n’importe quelle autre intelligence artificielle dans le monde. C’est du moins l’idée. Demis Hassabis, cofondateur et PDG de DeepMind, affirme que « si le projet est mené à bien, [Gemini] sera la technologie la plus bénéfique pour l’humanité ». Des mots audacieux.

L’IA est actuellement en plein développement — « un processus qui prendra plusieurs mois », selon Hassabis. Elle coûtera également beaucoup d’argent à Google, le prix du projet allant de plusieurs dizaines à plusieurs centaines de millions de dollars. À titre de comparaison, la réalisation de ChatGPT a coûté plus de 100 millions de dollars.

Gemini semble certainement intéressant, mais à ce stade, il est important d’être sceptique à son sujet.

Lire plus
Intelligence Artificielle

ChatGPT sur iOS intègre désormais Bing

lp logo 3.0

L’application ChatGPT sur iOS permet désormais aux utilisateurs payants d’accéder aux informations diffusées par Bing de Microsoft. Dans la dernière mise à jour de l’application, OpenAI indique que les abonnés qui paient pour son plan ChatGPT Plus de 20 dollars par mois reçoivent des informations actualisées sur le Web.

Bien qu’il soit décevant que la mise à jour ne permette d’utiliser que Bing et pas d’autres moteurs de recherche, il n’est pas surprenant que ce soit cet outil de recherche particulier que ChatGPT ait incorporé. Microsoft, qui a investi plusieurs milliards de dollars dans OpenAI au début de l’année, a annoncé que Bing deviendrait le moteur de recherche par défaut de ChatGPT lors de son événement Build en mai.

ChatGPT fait également déjà partie de la recherche Bing pour le Web et est intégré au navigateur Edge de Microsoft.

L’intégration est déjà disponible en version bêta pour les utilisateurs Plus dans l’application Web ChatGPT, qui « sait quand et comment naviguer sur internet pour répondre à des questions sur des sujets et des événements récents ». Cela signifie que l’application ChatGPT, dotée d’une intelligence artificielle, sera désormais en mesure d’obtenir des informations plus récentes au lieu d’utiliser uniquement les données Web plus anciennes sur lesquelles elle a été entraînée, qui remontent jusqu’à 2021.

En revanche, la version gratuite de ChatGPT n’est capable d’afficher des informations que jusqu’en 2021.

Il faudra être abonné

Pour activer la navigation Web avec Bing sur l’application ChatGPT pour iOS, OpenAI indique qu’il vous faudra naviguer dans vos paramètres, puis activer l’option Navigation dans la section « New Features ». De là, sélectionnez GPT-4 dans le sélecteur de modèles, puis cliquez sur « Browse with Bing » dans le menu déroulant.

ChatGPT n’a pour l’instant qu’une application sur iOS, et une application sur Android sera bientôt disponible.

Vous venez d’entendre parler du chatbot ChatGPT ? Il n’est pas trop tard pour commencer à l’apprendre, car il n’est pas près de disparaître. J’ai publié un article utile qui explique de quoi il s’agit et comment vous pouvez l’essayer par vous-même. Vous pouvez également essayer le chatbot de Google doté d’une IA, appelé Bard. Mais avant tout, découvrez comment il se positionne par rapport à ChatGPT.

Lire plus