fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Il y a un an, il n’y avait que ChatGPT : aujourd’hui, les LLM sont partout

d559831f 0c22 4c53 b62a 07152891966a

Lorsque OpenAI a lancé ChatGPT il y a un an aujourd’hui, l’idée d’un assistant personnel piloté par l’IA était nouvelle pour une grande partie du monde.

Nous avions tous vu des chatbots capables de fournir des réponses préprogrammées, mais personne ne pensait pouvoir disposer d’un véritable compagnon de conversation, capable de parler de tout et de rien et de nous aider dans toutes sortes de tâches fastidieuses — qu’il s’agisse de préparer un itinéraire de voyage, d’apporter des éclaircissements sur des sujets complexes ou de rédiger des articles de longue haleine.

Aujourd’hui, malgré toutes les péripéties de l’entreprise — de l’interdiction éphémère de l’Italie à l’éviction de Sam Altman et à son retour triomphalChatGPT continue d’être l’assistant d’IA de référence pour des millions d’utilisateurs connectés à l’Internet. Il est présent sur le Web et les appareils mobiles, aidant à accomplir diverses tâches et témoignant d’un engagement à l’échelle de milliards.

Selon SimilarWeb, pour le seul mois d’octobre 2023, ChatGPT a enregistré près de 1,7 milliard de visites sur mobile et sur le Web, avec 193 millions de visiteurs uniques et une durée d’environ 8 minutes par visite. Pour mettre en perspective, c’est bien plus que l’engagement dont témoignent des services populaires sur Internet, notamment Zoom et (214 millions de visites) Google Meet (59 millions de visites).

Mais au-delà de l’introduction de l’IA conversationnelle dans la vie de millions de personnes en l’espace de quelques mois, ChatGPT a également réussi à catalyser l’écosystème de l’IA au sens large. Peu après son lancement, l’IA générative a fait parler d’elle, entraînant le lancement de dizaines d’offres grand public pour la production de texte, de musique, de vidéo et de code.

Pour le chat et le code, beaucoup de ces offres — comme Github Copilot et Perplexity AI — ont exploité des versions affinées de la série de modèles GPT qui alimentent ChatGPT. Plusieurs entreprises et startups ont également exploité les API d’OpenAI pour des applications commerciales internes et la création de GPT personnalisés pour des tâches granulaires telles que l’analyse de données.

Plus important encore, dans cette course à l’IA, de nombreuses startups et géants de la technologie ont également développé leurs propres grands modèles de langage (LLM) et ont produit des chatbots polyvalents tout aussi performants, capables de comprendre, de raisonner et de répondre aux demandes des utilisateurs. Certes, ils ne sont peut-être pas encore aussi populaires que ChatGPT, mais ils ont démocratisé l’espace, en veillant à ce que l’assistant OpenAI ne soit pas le seul de son genre.

L’ère des assistants d’IA conversationnels

Anthropic et Google ont été les premiers à entrer en scène après OpenAI. Quelques mois à peine après le lancement de ChatGPT, les deux entreprises ont présenté leurs assistants conversationnels respectifs : Claude et Bard.

Anthropic, fondée en 2021 par d’anciens employés de OpenAI, se concentre fortement sur la sécurité et l’éthique et a formé son assistant en tant qu’« IA constitutionnelle », où il suit certains ensembles de règles et s’améliore grâce à un retour d’information automatisé. Bard, quant à lui, a été construit sur le modèle de langage Pathways 2 et fonctionne autour de la recherche Google, en utilisant l’accès à Internet et le traitement du langage naturel pour fournir des réponses aux requêtes avec un contexte et des sources détaillées. Ils sont tous deux considérés comme les plus grands rivaux de ChatGPT.

Mais ce n’est pas tout.

Après l’arrivée de Claude et de Bard, d’autres chatbots intéressants ont commencé à apparaître. Il ne faut pas oublier le modèle Llama 2 de Meta Platforms, qui a suscité une vague de développement et de variantes perfectionnées grâce à son caractère open source. Plus récemment, xAI d’Elon Musk a annoncé Grok, qui est doté d’une touche d’humour et de sarcasme et utilise les données X en temps réel pour fournir les informations les plus récentes.

Bien que tous ces assistants aient été conçus pour aider les utilisateurs à effectuer des tâches allant de la recherche générale à l’écriture en passant par le résumé de texte, il faut toujours garder à l’esprit qu’ils sont en constante évolution. Les capacités et les limites qu’ils présentent aujourd’hui ne seront peut-être plus les mêmes quelques mois plus tard.

Après tout, lorsque ChatGPT a été lancé il y a un an, il s’agissait d’un assistant textuel. Aujourd’hui, il prend en charge les commandes vocales et les images, et dispose même de sa propre voix pour répondre, à l’instar d’Alexa.

98c1c8f0 e490 48a2 a56c 814e66d0f17c

Les assistants spécifiques à un marché sont également présents

Outre les grands assistants mentionnés ci-dessus, plusieurs assistants d’IA spécifiques à un marché ont également été développés — adaptés à différents secteurs, publics, langues et utilisations plus distinctes.

Il s’agit notamment de HyperClovaX du géant sud-coréen de l’Internet Naver, des célèbres chatbots chinois Ernie et DeepSeek récemment introduits, ainsi que de Poro et Nucleus, ce dernier étant conçu pour le secteur agricole.

La société indienne Reliance Industries a également décidé de lancer un assistant d’IA générative conçu pour les différents dialectes du pays et s’est assuré l’infrastructure informatique de NVIDIA pour ce faire.

Cela dit, avec un grand nombre d’acteurs qui s’efforcent déjà de tenir les promesses de l’IA conversationnelle et de nombreux autres qui s’apprêtent à la lancer, on peut affirmer sans risque de se tromper que la course à l’IA est loin d’être terminée. À mesure que les modèles sous-jacents s’améliorent et que les capacités s’accroissent, notamment la capacité des chatbots à fournir des réponses plus naturelles et pertinentes avec un minimum d’hallucinations, l’écart entre ces acteurs devrait se réduire, ce qui permettra de repousser encore plus loin les limites de l’IA.

Pour son premier anniversaire, ChatGPT reste le leader de la catégorie dans le domaine de l’IA. Il sera toutefois intéressant de voir comment il maintiendra cette position dans les années à venir et évoluera vers une IA sûre et responsable pour tous.

Lire plus
Intelligence Artificielle

L’IA Google Gemini arrive en 2024 pour rivaliser avec la plateforme GPT d’OpenAI

301bede2 844f 453e 933b c9fa615eb694

Alors que 2023 a été l’année où l’IA a accéléré son accès pour tous, certains prétendent que 2024 sera une année encore plus importante pour la technologie et ses développements. Des rapports circulent également sur les projets de Google concernant la future version de Gemini, son modèle d’IA de nouvelle génération, qu’il avait déjà annoncé en début d’année.

Il est important de noter que l’IA Gemini était auparavant considéré comme un modèle fondamental, un développement par les entreprises qui aide à fournir des capacités multimodales. Gemini est considéré comme l’IA conversationnelle la plus puissante que Google ait créée.

Selon le dernier rapport de The Information, Google prévoit de lancer l’IA Gemini l’année prochaine, et c’est en 2024 que l’entreprise développera pour la première fois son modèle fondamental à venir. Selon la source, ce chatbot multimodal devait être présenté la semaine prochaine lors de plusieurs événements en Californie, à New York et à Washington, où des politiciens et des responsables politiques étaient également attendus.

Mais après quelques recherches en interne, le PDG de Google, Sundar Pichai, a décidé de retarder le lancement de Gemini. Il semblerait que Google ait découvert que l’IA ne traitait pas de manière fiable certaines requêtes en dehors de l’anglais. La prise en charge des langues étrangères est l’un des facteurs clés permettant à Google de faire en sorte que Gemini surpasse GPT-4 d’OpenAI, et comme Gemini n’a pas encore atteint cette norme, son lancement a été retardé.

L’IA Gemini de Google devrait encore améliorer sa technologie actuelle, notamment le chatbot IA, Bard, Google Assistant et la recherche.

Gemini AI contre GPT-4 d’OpenAI

Plus tôt en mai, Google a présenté l’IA Gemini au monde entier lors de la présentation I/O 2023, et ici, la société a considéré qu’elle irait de pair avec PaLM 2, les deux modèles de base étant améliorés. Selon Google, il offre déjà des capacités multimodales inédites dans les précédents modèles.

google ai gemini cover scaled

Gemini a été créé dès le départ pour être multimodal, très efficace en matière d’intégration d’outils et d’API et conçu pour permettre de futures innovations, telles que la mémoire et la planification.

Il est également dit que Gemini a été en mesure de surpasser fortement GPT-4 lors de tests privés, grâce à l’utilisation d’une plus grande puissance de calcul que ce dernier. Le PDG de Google a déclaré en novembre que « l’entreprise se concentre sur la sortie de Gemini 1.0 dès que possible, en s’assurant qu’il est compétitif et à la pointe de la technologie, et nous construirons à partir de là ».

Sissie Hsiao, vice-président de Google et responsable de Bard et de Google Assistant, aurait expliqué les prouesses du chatbot Gemini en donnant un exemple : « J’ai vu des choses assez étonnantes. Par exemple, si j’essaie de faire un gâteau, et que je demande trois images des étapes à suivre pour glacer un gâteau à trois couches, Gemini créera ces images. Il s’agit d’images totalement nouvelles, pas seulement d’images trouvées sur Internet ».

Développement de l’IA chez Google

Le visage de l’IA de Google est centré sur Bard, le célèbre chatbot que la société a lancé au début de l’année, mais qui a déjà fait l’objet de critiques pour ses hallucinations en matière d’IA lors de sa sortie initiale. Cependant, Google a développé le chatbot afin d’apporter de meilleures réponses et informations aux utilisateurs, en se concentrant sur les données précises qu’il présente, Bard étant désormais capable d’accéder à des vidéos YouTube et de répondre à vos questions.

On sait également que DeepMind, la précédente acquisition de Google, s’est lancée à corps perdu dans le développement de nouveaux projets d’IA, afin d’améliorer l’offre de l’entreprise. L’entreprise a déjà créé le « Student of Games », dont l’objectif principal est de battre des joueurs humains dans divers jeux, démontrant ainsi la puissance des modèles informatiques dans le domaine des jeux.

L’IA devrait se développer davantage à l’avenir, car nous ne connaissons pas encore ses limites, puisqu’elle n’en est encore qu’à ses débuts. Cela étant dit, l’IA Gemini est la représentation parfaite des objectifs et des projets de Google en matière d’IA. Des rapports affirment aujourd’hui qu’il fera ses débuts en 2024 et qu’il cherchera à s’attaquer au célèbre OpenAI GPT-4 afin d’améliorer encore ce qu’il a à offrir.

Lire plus
Intelligence Artificielle

Microsoft révèle le matériel dans Azure nécessaire pour faire fonctionner ChatGPT

505dd588 c50d 44b6 8267 ce5ca6c9e02d

Dans le monde en constante évolution de l’intelligence artificielle (IA), il est essentiel de disposer d’une infrastructure robuste et puissante, en particulier lorsque l’on travaille avec des modèles d’apprentissage automatique complexes tels que ceux utilisés dans le traitement du langage naturel. Microsoft Azure est à l’avant-garde de ce paysage technologique, offrant une plateforme de supercalculateur avancée pour l’IA, parfaitement adaptée aux exigences des projets d’IA sophistiqués.

Au cœur des capacités d’Azure se trouve son aptitude à gérer les étapes de formation et d’inférence des grands modèles de langage (LLM), qui peuvent comporter des centaines de milliards de paramètres. Ce niveau de complexité nécessite une infrastructure qui fournit non seulement une immense puissance de calcul, mais qui se concentre également sur l’efficacité et la fiabilité pour contrer la nature gourmande en ressources des LLM et le potentiel de problèmes liés au matériel et au réseau.

La force du centre de données d’Azure repose sur un matériel de pointe associé à un réseau à large bande passante. Cette configuration est cruciale pour le regroupement efficace des GPU, qui sont la pierre angulaire de l’informatique accélérée et sont essentiels pour les tâches d’IA. L’infrastructure d’Azure comprend des techniques avancées de regroupement de GPU, ce qui garantit que vos modèles d’IA fonctionnent de manière fluide et efficace.

Quel est le matériel requis pour exécuter ChatGPT ?

Les améliorations logicielles sont également un aspect clé des offres d’Azure en matière d’IA. La plateforme intègre des frameworks comme ONNX, qui assure la compatibilité des modèles, et DeepSpeed, qui optimise la formation distribuée à l’apprentissage automatique. Ces outils sont conçus pour améliorer les performances des modèles d’IA tout en réduisant le temps et les ressources nécessaires à la formation.

Le supercalculateur d’IA construit pour OpenAI en 2020 est un brillant exemple des capacités d’Azure. Ce système puissant disposait de plus de 285 000 cœurs de CPU et de 10 000 GPU NVIDIA, utilisant le parallélisme des données pour former des modèles à une échelle jamais vue auparavant, démontrant ainsi le potentiel de l’infrastructure d’IA d’Azure.

En termes de réseau, Azure excelle avec son réseau InfiniBand, qui offre de meilleurs rapports coût-performance que les solutions Ethernet traditionnelles. Cette technologie de réseau à grande vitesse est essentielle pour traiter les grandes quantités de données impliquées dans les tâches complexes de l’IA.

Azure continue d’innover, comme en témoigne l’introduction de la série H100, qui comprend des GPU NVIDIA H100 Tensor Core. Ceux-ci sont spécialement conçus pour des charges de travail d’IA évolutives et de haute performance, vous permettant de repousser les limites de l’apprentissage automatique.

Une autre fonctionnalité innovante est Project Forge, un service de conteneurisation et de planification globale qui gère efficacement les charges de travail d’IA étendues de Microsoft. Il prend en charge le point de contrôle transparent et la mise en commun de la capacité GPU globale, qui sont essentiels pour une gestion efficace des tâches et l’optimisation des ressources.

Des outils dédiés

L’infrastructure d’IA d’Azure est flexible et prend en charge un large éventail de projets, des plus petits aux plus grands, et s’intègre de manière transparente aux services Azure Machine Learning. Cette intégration fournit une boîte à outils complète pour le développement, le déploiement et la gestion des applications d’IA.

Dans des applications réelles, le supercalculateur d’IA d’Azure fait déjà la différence. Par exemple, Wayve, un leader de la technologie de conduite autonome, utilise l’infrastructure à grande échelle d’Azure et les capacités distribuées d’apprentissage profond pour faire progresser ses innovations.

La sécurité est une priorité absolue dans le développement de l’IA, et l’informatique confidentielle d’Azure garantit que les données sensibles et la propriété intellectuelle sont protégées tout au long du cycle de vie de la charge de travail d’IA. Cette fonction de sécurité permet des collaborations sécurisées, ce qui vous permet de vous engager en toute confiance dans des projets d’IA sensibles.

Pour l’avenir, la feuille de route d’Azure prévoit le déploiement des GPU NVIDIA H100 et la généralisation de Project Forge auprès des clients, ce qui témoigne d’une volonté d’améliorer en permanence l’efficacité des charges de travail d’IA.

Pour tirer parti des capacités d’IA d’Azure dans le cadre de vos propres projets, commencez par explorer les options de calcul par le GPU dans Azure et utilisez le service Azure Machine Learning. Ces ressources constituent une base solide pour créer et déployer des applications d’IA transformatrices qui peuvent conduire à des percées industrielles et stimuler l’innovation.

Lire plus
Intelligence Artificielle

Le GPT Store sera lancée en 2024, les mises à jour de ChatGPT seront bientôt disponibles

53b2abe0 5662 4c58 b8f9 eac3df2ebd8f

Dans un e-mail adressé aux développeurs GPT, OpenAI a annoncé que le GPT Store, une initiative très attendue dans le domaine des technologies d’IA générative, devrait être lancé au début de l’année prochaine.

Dans cet e-mail, OpenAI a déclaré que « des choses inattendues nous ont tenus occupés », ce qui a repoussé le lancement du GPT Store. La société a déclaré qu’elle avait prévu de lancer la boutique en décembre, ce qui est légèrement plus tard que ce qui avait été promis à l’origine ; lors de sa conférence de développeurs en novembre, OpenAI a déclaré que la boutique serait lancée plus tard dans le mois.

Pour être juste, OpenAI a connu une semaine très mouvementée, avec l’éviction de son PDG Sam Altman, la révolte ouverte de centaines de ses employés, l’exode et la campagne de réseaux sociaux avec emoji du cœur de ses cadres supérieurs, l’accueil d’un nouveau PDG et la réintégration d’Altman à la tête de l’entreprise.

Le magasin GPT sera une place de marché pour les utilisateurs des constructeurs GPT d’OpenAI, qui pourront vendre et partager les GPT qu’ils ont développés. Lorsque la société a annoncé la création de GPT personnalisés, OpenAI a déclaré qu’elle paierait les personnes ayant créé leurs propres GPT d’un montant non spécifié en fonction de l’utilisation de leur création.

Screenshot 2023 12 01 at 12.48.2 scaled

Des améliorations au GPT Builder

Parallèlement à cette annonce, l’entreprise a révélé plusieurs améliorations apportées aux outils du GPT Builder. L’une des améliorations notables de GPT Builder est la refonte de son interface de configuration. Cette mise à jour devrait simplifier l’expérience de l’utilisateur et rendre les outils d’IA plus accessibles et plus faciles à intégrer dans diverses tactiques de marketing.

S’attaquant à l’aspect crucial du traitement des données, OpenAI a modifié la fonction de traitement des fichiers au sein de l’interpréteur de code.

En réponse aux préoccupations en matière de confidentialité et de facilité d’utilisation, la possibilité de télécharger les fichiers téléchargés est désormais désactivée par défaut, et des conseils supplémentaires sont fournis aux utilisateurs.

Ce changement sera vital pour les professionnels du marketing et du référencement qui manipulent des données sensibles dans des GPT personnalisés.

D’autres améliorations incluent l’introduction de tests en un clic et de messages de débogage dans le mode de prévisualisation de GPT Builder afin d’améliorer l’expérience de développement.

Des nouveautés pour ChatGPT

La possibilité de travailler avec plusieurs domaines dans les actions élargit les possibilités d’utilisations plus innovantes des GPT dans les opérations commerciales.

OpenAI a également indiqué qu’elle prévoyait de déployer prochainement de « grandes mises à jour » pour ChatGPT.

Lire plus
Intelligence Artificielle

Comment ChatGPT a perturbé le paysage de l’IA en un an ?

1e02857e c5dc 47df bcb4 2f9d1b22e71c

L’année écoulée ressemble à un sprint de l’IA vers une nouvelle ère de révolution technologique. ChatGPT a finalement eu un an, et au cours de cette période, nous avons assisté à d’innombrables avancées qui ont changé nos vies. D’un simple chatbot qui hallucinait beaucoup à un système d’IA avancé et multimodal, ChatGPT a énormément évolué en l’espace d’un an. Ainsi, pour le premier anniversaire de ChatGPT, examinons tous les progrès et les pépins que ChatGPT a traversés. De son lancement à l’ensemble actuel de fonctionnalités qu’il offre, faisons le tour. Sur cette note, commençons.

Le 30 novembre 2022, OpenAI a dévoilé gratuitement ChatGPT au monde entier dans le cadre d’un aperçu de recherche. En l’espace de deux mois seulement, il a attiré plus de 100 millions d’utilisateurs mensuels, devenant ainsi le service à la croissance la plus rapide au monde, devançant même Facebook.

Contrairement aux concepts d’IA abstraits qui semblaient lointains pour les utilisateurs généraux, ChatGPT a finalement permis aux utilisateurs d’interagir avec un chatbot alimenté par l’IA dans une interface Web conviviale.

ChatGPT a été formé pour être conversationnel, et il a été construit sur le modèle GPT-3.5 d’OpenAI. D’une certaine manière, il ressemblait à InstructGPT, qui suivait les instructions des utilisateurs pour donner une réponse. Cependant, ChatGPT a été formé pour avoir un dialogue avec les utilisateurs, tout en gardant le contexte à l’esprit. OpenAI dans son blog d’ouverture a noté que « ChatGPT écrit parfois des réponses plausibles, mais incorrectes ou dénuées de sens ».

L’hallucination était un problème difficile avec la version initiale de ChatGPT, construite sur le modèle GPT-3.5. Cependant, avec le lancement du modèle GPT-4, OpenAI a réussi à réduire significativement les réponses factuellement incorrectes.

Quant à l’engouement pour ChatGPT, lorsque le service a été lancé, il semblait que le chatbot IA allait tuer la recherche Google et divers autres produits en ligne. Et maintenant, un an plus tard, il semble que ce ne soit que le début de l’ère de l’IA et qu’il reste encore beaucoup de découvertes de nouveaux produits à faire.

Le paradoxe

Grâce à la précision et au naturel de ses capacités linguistiques, les gens ont rapidement crié que le ciel était en train de tomber et que l’intelligence artificielle sensible était arrivée pour nous consumer tous. Ou encore, le camp opposé, qui place son espoir pour l’humanité dans les murs de OpenAI. Le débat entre ces deux extrêmes a continué à faire rage jusqu’à aujourd’hui, ponctué par le drame d’OpenAI et la série de théories du complot qui ont été proposées comme explication.

Bien sûr, l’année passée à vivre avec ChatGPT et ses nombreux clones nous a montré qu’aucune de ces deux opinions bien ancrées n’était vraie. Bien sûr, on ne peut pas dire que ChatGPT et l’IA générative n’ont pas eu d’effet sur le monde. Elles ont perturbé le monde de bien des manières, dont certaines n’ont même pas encore été pleinement réalisées. L’IA a même attiré l’attention du gouvernement fédéral, avec en point d’orgue le décret présidentiel sur l’IA. Certaines de ces implications ne sont rien d’autre que des réactions spontanées, tandis que d’autres constituent les premiers pas légitimes vers un monde véritablement dominé par l’IA.

Mais pour l’essentiel, la vie continue comme avant. Si ChatGPT est rapidement devenu le produit technologique à la croissance la plus rapide de tous les temps, même ce record a été détrôné par Threads quelques mois plus tard.

Ne vous méprenez pas : ChatGPT a clairement attiré tous les projecteurs sur lui, et il continuera à l’être à l’avenir. Vous devinez aussi bien que moi l’ampleur et la portée de ses effets. Et si les chatbots mettent en avant l’impressionnant personnage de « l’IA », l’intégration transparente de cette technologie dans les produits et services que nous utilisons déjà tous les jours est là où se trouve le véritable enjeu.

Ce que l’avenir réserve à ChatGPT ?

choong deng xiang ILyeoImR8Uk unsplash jpg

Bien que ChatGPT soit devenu assez puissant, soyons clairs : ceci n’est que le début avant la prochaine explosion de l’IA. De nombreux experts pensent qu’un chatbot conversationnel basé sur le dialogue n’est pas la seule interface pour interagir avec l’IA générative.

À l’avenir, nous pourrions disposer de systèmes d’IA multimodaux extrêmement puissants capables de comprendre le texte, la voix, les éléments visuels, les données ambiantes et les données sensorielles issues de l’activité cérébrale humaine pour tirer des inférences contextuelles et effectuer des actions en temps réel.

En dehors de cela, l’IA peut être étroitement intégrée dans des interfaces de réalité augmentée et de réalité virtuelle pour créer une expérience hautement interactive et immersive. De plus, au-delà de l’intégration de chatbots IA dans les applications, les smartphones et les appareils exécuteront des systèmes IA au niveau du système d’exploitation pour comprendre et effectuer automatiquement des actions personnalisées.

De la gestion des e-mails à la création de plannings basés sur votre utilisation et vos priorités, l’IA peut automatiquement faire des choses pour vous. Qualcomm a déjà expliqué comment fonctionnera l’IA personnalisée et sur appareil à l’avenir.

Sans oublier, OpenAI et de nombreuses autres entreprises travaillent déjà sur l’AGI (Artificial general intelligence) qui peut surpasser les capacités humaines nécessitant un apport intellectuel et un raisonnement.

En fait, le créateur de ChatGPT travaille déjà sur une solution pour surmonter les limitations des données de formation en générant des données synthétiques de haute qualité. Que cela soit lié ou non à la discussion en cours sur le très médiatisé Projet Q* reste à établir.

Globalement, je dirais que ChatGPT en tant que chatbot conversationnel est passé d’être limité à avoir de nombreuses applications, se tenant au sommet comme un roi. Cependant, si on prend du recul et regarde l’image globale, cela peut sembler limité, et nous pourrions voir d’innombrables nouvelles formes d’expériences IA à l’avenir.

Lire plus
Intelligence Artificielle

Titan Image Generator : Amazon rejoint la course à la génération d’images par IA

369ee663 4f6b 4a37 95ab fd951ee5817e

Cette semaine, Amazon a annoncé lors de sa conférence re:Invent le lancement de plusieurs nouveaux services d’intelligence artificielle, dont un modèle de génération d’images appelé Titan Image Generator. Avec cette sortie, Amazon rejoint d’autres géants technologiques comme Google, Meta et Microsoft dans la publication de systèmes d’IA capables de créer des images et des œuvres d’art originales à partir de textes.

Titan Image Generator fait maintenant partie de la suite de services d’IA Titan d’Amazon, disponible depuis Bedrock sur Amazon Web Services (AWS), la division de cloud computing de l’entreprise. Les utilisateurs peuvent fournir des textes pour que Titan Image Generator produise des images originales. Le système peut également modifier des images existantes en changeant ou en supprimant des arrière-plans.

Swami Sivasubramanian, vice-président d’AWS en charge des bases de données, de l’analytique et de l’apprentissage automatique, a présenté la fonction de modification d’image comme un argument de vente majeur lors de son discours d’ouverture. Il a souligné comment l’outil permet de créer des images de style de vie tout en conservant le sujet principal de l’image, soulignant le potentiel de cette fonctionnalité pour révolutionner la génération de contenu visuel dans un large éventail d’industries.

Génération d’images conçue pour les entreprises

Amazon a choisi de ne pas lancer Titan Image Generator en tant qu’application ou service autonome, mais l’a plutôt conçu comme un outil de développement à utiliser dans la création d’applications alimentées par le modèle. Cette approche vise clairement un public d’entreprises, différenciant l’offre d’Amazon des générateurs d’images plus axés sur le consommateur comme DALL-E d’OpenAI.

Le lancement de Titan Image Generator survient dans un contexte de surveillance accrue des générateurs d’art IA et de leur potentiel pour reproduire des images protégées par le droit d’auteur ou créer du contenu nuisible. Amazon affirme que Titan Image Generator intègre des protections contre les biais et inclut des filigranes invisibles sur toutes les images pour les identifier comme générées par IA.

Cependant, il est important de noter que l’approche d’identification d’Amazon semble être sa propre solution propriétaire, divergeant des autres entreprises technologiques qui ont adopté le système de Content Credentials développé par la Coalition for Content Provenance and Authenticity (C2PA). Cela soulève des questions sur l’interopérabilité et l’écosystème plus large des outils pour détecter et valider ces filigranes.

Nouveaux modèles, garanties juridiques et une stratégie audacieuse

En plus de Titan Image Generator, Amazon a également annoncé la disponibilité d’autres modèles Titan. Cela inclut Titan Text Lite, un modèle plus petit utilisé pour des tâches de génération de texte plus légères comme la rédaction publicitaire, et Text Express, conçu pour des tâches plus importantes comme alimenter des applications de chat conversationnel.

Plus notablement, Amazon a étendu l’indemnité de droit d’auteur aux clients qui utilisent ses modèles de fondation Titan, y compris le modèle de texte en image.

Cette couverture juridique s’applique même si les utilisateurs emploient un modèle de fondation différent disponible dans le dépôt de modèles d’IA Bedrock d’Amazon, comme Llama 2 de Meta ou Claude 2 d’Anthropic. Ce mouvement est une assurance significative pour les clients d’AWS préoccupés par les potentiels problèmes de droit d’auteur lors de l’utilisation de l’IA générative.

L’entrée d’Amazon dans la génération d’images IA marque une nouvelle phase dans la stratégie d’IA de l’entreprise. En offrant des outils puissants et des garanties juridiques, Amazon est prêt à avoir un impact significatif sur le paysage de la génération et de l’utilisation d’images IA. Alors que la technologie continue d’évoluer, Titan Image Generator pourrait s’avérer être un catalyseur pour des applications novatrices dans la création de contenu pilotée par l’IA.

Lire plus
Intelligence Artificielle

Sam Altman redevient PDG d’OpenAI, et Microsoft s’assure un siège au conseil d’administration

e1cf3607 dc74 47e8 9500 baba6cf66ec2

Dans une récente annonce de l’entreprise, Sam Altman est officiellement redevenu le PDG d’OpenAI. Sa confiance dans l’avenir de l’organisation est évidente dans le mémo qu’il a adressé aux employés.

Sam Altman a officiellement repris le rôle de PDG d’OpenAI, finalisant ainsi un accord qui avait été annoncé juste avant Thanksgiving. L’entreprise a récemment annoncé que Microsoft avait également obtenu un siège d’observateur sans droit de vote au sein du conseil d’administration de l’organisation à but non lucratif qui supervise l’OpenAI.

La confiance d’Altman dans l’avenir de l’organisation est évidente dans son mémo partagé avec les employés, comme le rapporte The Verge. Il a exprimé son enthousiasme et sa gratitude pour leur travail acharné dans une situation incertaine et sans précédent.

Altman estime que la résilience et l’esprit affichés par l’équipe distinguent OpenAI au sein de l’industrie, ce qui favorise l’optimisme quant à la probabilité de réussite de leur mission.

Après le départ de trois des quatre membres du conseil d’administration responsables de la révocation soudaine de Altman, le nouveau conseil d’administration de l’OpenAI est composé du président Bret Taylor, de Larry Summers et d’Adam D’Angelo, qui sont les seuls survivants de l’ancien conseil d’administration.

Assurer un siège d’observateur sans droit de vote

La décision d’OpenAI d’inclure Microsoft en tant qu’« observateur sans droit de vote » au sein du conseil d’administration signifie un niveau accru de transparence pour le géant de la technologie dans le fonctionnement interne de l’entreprise.

Toutefois, cet arrangement n’accorde pas à Microsoft un droit de vote officiel pour les décisions importantes. En particulier, Microsoft détient une participation substantielle de 49 % dans l’entité à but lucratif contrôlée par le conseil d’administration de l’organisation à but non lucratif, mais n’avait jusqu’à présent aucun droit de regard direct sur les délibérations de ce conseil.

Selon Axios, ce manque de visibilité a entraîné une surprise considérable lorsque Sam Altman a été démis de ses fonctions, mettant ainsi en péril un partenariat crucial dans l’industrie technologique.

Dans sa communication aux employés, Altman n’a exprimé aucune animosité à l’égard d’Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, qui avait initialement participé au coup d’État du conseil d’administration, mais qui a changé d’avis après que la majorité des employés de l’entreprise ont menacé de démissionner si Altman ne revenait pas à son poste.

Bien qu’Ilya ne fasse plus partie du conseil d’administration, Altman a souligné son intention de maintenir une relation de travail collaborative, explorant actuellement la manière dont il peut continuer à contribuer à OpenAI.

Aucun client perdu en route

L’assurance donnée par Altman aux employés que l’entreprise n’a pas perdu un seul client les incite à redoubler d’efforts et de dévouement dans leur travail.

Dans un récent message adressé à la communauté OpenAI, Bret Taylor, président du conseil d’administration de OpenAI, a exprimé sa gratitude pour les efforts collectifs de la communauté, en particulier des employés, qui ont permis de relever les récents défis.

Le message exprimait la joie de retrouver Sam, Mira et Greg à la tête de l’organisation. Le Conseil d’administration se concentre principalement sur le renforcement de la gouvernance d’entreprise d’OpenAI, avec des plans pour former un Conseil diversifié et qualifié, y compris un observateur sans droit de vote de Microsoft.

Reconnaissant l’importance croissante de OpenAI, le message souligne le rôle central qu’elle joue dans les discussions sur l’avenir de l’IA dans divers secteurs. Le conseil d’administration s’engage à écouter la communauté et à apprendre d’elle, reconnaissant son rôle crucial pour relever les défis et contribuer au succès d’OpenAI.

Lire plus
Intelligence Artificielle

AWS d’Amazon dévoile de nouvelles puces d’IA, 4x plus performantes pour l’entraînement des modèles

image 1

La dernière conférence re:Invent d’Amazon Web Services (AWS) à Las Vegas a ouvert la voie à la présentation de ses derniers développements dans le monde de l’intelligence artificielle, avec de nouvelles puces d’IA promettant de meilleures capacités.

L’objectif principal des puces d’IA d’Amazon était de présenter ses objectifs pour l’avenir, avec ses nouveaux processeurs qui promettent de meilleures capacités pour former les modèles d’IA.

À l’instar de l’évolution significative du développement des puces internes dans le contexte de la pandémie, la popularité de l’IA a également conduit les entreprises à développer leur propre version des processeurs destinés à faire fonctionner la technologie de pointe d’aujourd’hui.

AWS d’Amazon dévoile de nouvelles puces d’IA

La conférence re : Invent a permis au monde entier de découvrir de nombreuses mises à jour et développements de la part de la célèbre société Amazon Web Services, ce qui a ouvert la voie à l’annonce des puces d’intelligence artificielle destinées à tous. Selon Amazon, ses deux nouvelles puces sont destinées à créer un avenir plus durable, offrant la « puce la plus puissante et la plus économe en énergie » que l’entreprise a construite.

Tout d’abord, il y a le Graviton4, une puce basée sur Arm qui offre un processeur AWS économe en énergie, offrant 30 % d’amélioration en termes de calcul et 75 % de bande passante en plus que son mode précédent, le Graviton3. Cette puce est destinée à exécuter des modèles entraînés pour les entreprises, dans le cadre de ses services.

Amazon a déclaré que le Graviton4 est déjà disponible pour les clients intéressés, offrant des charges de travail étendues, y compris l’exécution de son Amazon Elastic Compute Cloud (Amazon EC2).

Quatre fois plus performant pour l’entraînement des modèles

D’autre part, il y a le Trainium2, et comme son nom l’indique, il est destiné à l’entraînement des modèles d’IA qui promet un entraînement quatre fois meilleur et plus rapide par rapport aux puces Trainium de première génération.

Amazon a déclaré que cette nouvelle puce est disponible « pour être déployée dans des EC2 UltraClusters comptant jusqu’à 100 000 puces », afin d’entraîner les LLM et les modèles de base (FM).image 4 jpg

L’incursion d’Amazon dans la technologie de l’IA

S’il est inimaginable qu’une plateforme de commerce électronique propose sa propre approche de l’IA, Amazon s’est positionnée comme une entreprise technologique et investit massivement dans le développement de cette expérience. L’IA dite « Olympus AI » serait en cours de développement et de formation, Amazon ayant injecté des fonds considérables dans ce projet.

Son objectif est de proposer sa propre vision de l’IA générative, en rivalisant avec les plus grands noms du secteur, ChatGPT d’OpenAI et Bard de Google.

Toutefois, ces derniers investissements et publications ne signifient pas qu’Amazon n’a pas encore publié sa propre version, puisque les publicités sur la plateforme disposent d’un outil d’IA générative destiné à améliorer les photos de produits.

Avec les récents licenciements d’Amazon dans le domaine d’Alexa, spéculés en raison de son passage à l’IA générative, l’entreprise est à la recherche d’une plus grande croissance à l’avenir. Après l’annonce des puces d’IA d’Intel et de NVIDIA, Amazon Web Services a dévoilé sa version de deux processeurs destinés à la formation de modèles et à l’exécution desdits modèles pour divers aspects de l’entreprise et de ses clients.

Lire plus
Intelligence Artificielle

Amazon Q : un nouvel assistant de type ChatGPT pour le travail

image 5

Le PDG d’Amazon Web Services (AWS), Adam Selipsky, a annoncé mardi, lors de la conférence AWS re:Invent, un nouveau produit appelé Amazon Q, qui tente d’améliorer l’assistant Copilot de Microsoft.

Amazon Q est un assistant génératif alimenté par l’IA qui peut aider les utilisateurs à effectuer diverses tâches au travail, telles que discuter, générer du contenu et prendre des mesures. D’après la description de Selipsky, il semble aussi complet que l’assistant de Microsoft.

Amazon Q peut fonctionner avec n’importe quel modèle trouvé sur Amazon Bedrock, le référentiel de modèles d’IA d’AWS, qui comprend le Llama 2 de Meta et le Claude 2 d’Anthropic. La société a déclaré que les clients qui utilisent Q choisissent souvent le modèle qui leur convient le mieux, se connectent à l’API Bedrock pour le modèle, l’utilisent pour apprendre leurs données, leurs politiques et leur workflow, puis déploient Amazon Q.

Amazon Q permet aux employés de poser des questions en utilisant le langage naturel, et peut comprendre et accéder aux systèmes de l’entreprise, aux référentiels de données et aux opérations de l’utilisateur. Selipsky a souligné l’importance de la sécurité et de la confidentialité, et a déclaré que Amazon Q respecte les identités, les rôles et les autorisations existants de l’utilisateur. Il a également précisé que Amazon Q n’utilise pas le contenu de l’utilisateur pour entraîner ses modèles sous-jacents.

Selipsky a déclaré que Amazon Q sera un facteur de transformation pour différents types de personnes qui font différents types de travail, et a donné quelques exemples de la manière dont Amazon Q peut aider les développeurs et les professionnels de l’informatique à créer et à gérer des applications sur AWS.

Différents cas d’usage pour l’utilisation de Amazon Q

2023 amazon q business intro jpg

Un assistant expert pour construire sur AWS

Selon Selipsky, Amazon Q a été formé avec 17 ans de connaissances sur AWS et peut fournir des conseils et des recommandations sur les capacités, les technologies, les solutions, les meilleures pratiques et les mises en œuvre d’AWS. Les utilisateurs peuvent discuter avec Amazon Q dans la console de gestion AWS, la documentation, l’IDE ou les espaces de discussion d’équipe comme Slack.

Par exemple, les utilisateurs peuvent poser des questions à Amazon Q sur la façon de créer une application Web avec AWS, sur les options disponibles et sur la façon de commencer. Les utilisateurs peuvent également poser d’autres questions pour affiner leurs choix ou obtenir plus de détails. Selipsky a déclaré qu’Amazon Q peut également aider les utilisateurs à dépanner et à optimiser leurs charges de travail.

Les utilisateurs peuvent également demander à Amazon Q d’analyser la configuration de leur réseau et les problèmes de connectivité, ce qui permet aux clients d’économiser beaucoup de temps et d’efforts pour ces tâches, a déclaré Selipsky.

Un assistant créatif pour générer du contenu

Selipsky a également indiqué que Amazon Q pouvait aider les utilisateurs à générer du contenu à des fins diverses, telles que l’écriture de code. Les utilisateurs peuvent simplement dire à Amazon Q ce qu’ils veulent créer, et Amazon Q générera le contenu pour eux.

Selipsky a ajouté qu’Amazon Q peut également aider les utilisateurs à ajouter de nouvelles fonctionnalités à leurs applications. Les utilisateurs peuvent simplement écrire un message, et Amazon Q créera un projet de plan, que les utilisateurs pourront ensuite collaborer et améliorer en utilisant le chat en langage naturel. Ensuite, Amazon Q mettra en œuvre le plan dans tous les fichiers de l’application, et les utilisateurs pourront revoir les changements et s’assurer de leur qualité. Selipsky a indiqué que cette fonctionnalité était disponible dès aujourd’hui dans l’IDE.

Un assistant intelligent pour la mise à jour et la maintenance du code

Selipsky a également montré comment Amazon Q peut aider les développeurs à mettre à jour et à entretenir leur code, afin d’éviter les tâches fastidieuses et chronophages. Il a expliqué qu’Amazon Q dispose d’une capacité de transformation du code, qui peut aider les utilisateurs à mettre à jour les versions des langues, à migrer les frameworks, à appliquer les correctifs de sécurité, etc.

Les utilisateurs peuvent simplement demander à Amazon Q d’effectuer la transformation du code, et Amazon Q s’occupera du reste. Il identifiera les changements nécessaires, remplacera le code obsolète, intégrera les meilleures pratiques et effectuera les tests sur l’application mise à jour. Selipsky a déclaré qu’Amazon Q peut faire cela en une fraction du temps qu’il faut aujourd’hui.

Selipsky a donné un exemple de l’utilisation d’Amazon Q en interne pour mettre à niveau 1000 applications de Java 8 à Java 17 en seulement deux jours. Il a précisé qu’Amazon Q prend actuellement en charge les mises à niveau Java, mais qu’il prendra bientôt en charge les transformations pour d’autres langages et frameworks, comme les migrations .Net vers Linux.

Un expert commercial pour la recherche et l’analyse d’informations, y compris pour la BI et le support client

Selipsky a également déclaré qu’Amazon Q peut être un expert métier, en se connectant à plus de 40 systèmes d’entreprise populaires, tels que S3, Salesforce, Microsoft, Google, Slack, et bien d’autres. Il a ajouté qu’Amazon Q peut indexer et apprendre à partir des données et du contenu de l’utilisateur, et utiliser l’IA générative et la recherche sémantique pour aider l’utilisateur à trouver un contenu pertinent.

La présentation a montré comment Amazon Q affiche des réponses à des questions professionnelles à l’aide de tableaux, de graphiques et de puces. Amazon Q fournit des liens vers les sources et les documents qu’il utilise et permet à l’utilisateur d’approfondir les détails ou de poser des questions complémentaires. Il a précisé qu’Amazon Q peut faire tout cela en une fraction de seconde, grâce à la puissance d’AWS.

Enfin, Silepsky a montré comment Q peut se connecter à des applications de veille stratégique à l’aide de QuickSite, et se connecter à l’application du centre de service à la clientèle d’Amazon, Amazon Connect. Il a expliqué que Q peut utiliser l’appel d’un client lui-même comme une invite, ce qui déclenche des réponses de Q qu’un agent d’appel peut utiliser sans même avoir à taper des requêtes.

Disponibilité

Actuellement, Amazon Q n’est disponible que pour les utilisateurs d’Amazon Connect, le service d’AWS pour les centres de contact. À terme, il sera disponible sur d’autres services comme Amazon Supply Chain, qui aide les clients à suivre la gestion de leur chaîne d’approvisionnement, et Amazon QuickSight, sa plateforme de veille stratégique.

Les tarifs d’Amazon Q in Connect commencent à 40 dollars par agent et par mois. Selon le site Web Connect d’AWS, les utilisateurs peuvent essayer Amazon Q dans Connect « gratuitement jusqu’au 1er mars 2024 ».

Lire plus
Intelligence Artificielle

Comprendre les 7 types d’Intelligence Artificielle : de l’IA étroite à l’IA consciente de soi

Comprendre les 7 types d'Intelligence Artificielle : de l'IA étroite à l'IA consciente de soi

L’intelligence artificielle (IA) est devenue omniprésente dans notre quotidien, des assistants vocaux aux systèmes de recommandation en ligne. Cependant, l’IA n’est pas monolithique et se décline en plusieurs types, chacun avec des capacités et des fonctionnalités spécifiques. Cet article vise à introduire les sept types d’IA, classés selon leurs capacités et leurs fonctionnalités, tout en mettant en lumière les avancées récentes dans le domaine.

Les capacités et les fonctionnalités de l’IA sont deux façons différentes de catégoriser et de comprendre l’intelligence artificielle, chacune se concentrant sur des aspects distincts de l’IA. Les capacités de l’IA font principalement référence au niveau d’intelligence et de complexité qu’un système d’IA peut atteindre. Cela va de l’intelligence artificielle étroite, spécialisée dans l’exécution d’une tâche unique ou limitée, à l’intelligence artificielle générale (AGI), qui reflète les capacités cognitives humaines en matière d’apprentissage et d’application des connaissances à un large éventail de tâches.

Au niveau le plus élevé, on trouve la super IA artificielle, un concept théorique dans lequel l’IA surpasse l’intelligence humaine dans tous les aspects, y compris la créativité et la compréhension émotionnelle. Cette catégorisation met l’accent sur le potentiel et l’étendue de l’intelligence de l’IA et de ses capacités de résolution de problèmes.

Les capacités de l’IA

  • L’intelligence artificielle étroite (IA faible) : À l’heure actuelle, le seul type d’IA existant est l’IA artificielle étroite, également connue sous le nom d’IA faible. Cette IA est conçue pour effectuer une tâche spécifique avec précision, comme la reconnaissance vocale, les systèmes de recommandation ou la reconnaissance d’images. Cependant, elle ne peut pas effectuer de tâches au-delà de sa fonction désignée.
  • L’intelligence artificielle générale (AGI ou IA forte) : L’AGI, ou IA forte, est un concept théorique qui représente une avancée significative par rapport à l’IA faible. Contrairement à l’IA étroite, l’AGI pourrait appliquer ses apprentissages antérieurs à de nouvelles tâches dans des contextes différents, sans formation ni intervention humaine. Essentiellement, ce type d’IA aurait des capacités cognitives équivalentes à celles d’un être humain.
  • Super IA artificielle : le concept théorique le plus avancé en matière d’IA est la super IA artificielle. Cette IA ne se contenterait pas d’égaler les capacités cognitives humaines, mais les dépasserait largement. Elle pourrait potentiellement ressentir des émotions, avoir des besoins et des croyances, et prendre des décisions que seuls les humains peuvent actuellement prendre.

Intelligence Artificielle Étroit (IA Faible)

L’intelligence artificielle étroite, également connue sous le nom d’intelligence artificielle faible, est le type le plus courant d’intelligence artificielle que nous utilisons aujourd’hui.

78c6d7e2 03c6 4f34 8a58 eaef665941a6

Elle est conçue pour faire très bien un travail spécifique. Par exemple, Siri ou Alexa sur votre téléphone sont des types d’IA étroite. Ils savent très bien écouter ce que vous dites et répondre à vos questions, ou un ordinateur qui joue aux échecs peut déterminer les meilleurs mouvements du jeu. Mais ces systèmes d’IA ne peuvent faire que le travail pour lequel ils ont été conçus. Ils ne peuvent pas utiliser ce qu’ils savent des échecs pour accomplir d’autres tâches, comme résoudre un problème de mathématiques ou réserver un vol.

C’est la principale caractéristique de l’IA étroite : elle est très performante dans sa tâche spécifique, mais elle ne peut rien faire d’autre.

Intelligence Artificielle Générale (AGI ou IA Forte)

L’intelligence artificielle générale (AGI), ou IA forte, n’est encore qu’une idée. L’AGI représenterait un grand changement par rapport à l’IA étroite. Au lieu de se contenter de faire une seule chose, l’AGI pourrait apprendre différents types de tâches et utiliser ce qu’elle apprend de manière nouvelle.

Par exemple, si l’AGI apprend à jouer aux échecs, elle pourrait utiliser ces connaissances pour d’autres tâches, comme la planification d’un itinéraire de livraison ou la résolution de problèmes financiers, sans que personne n’ait à la reprogrammer. Pour l’instant, l’AGI n’est qu’une théorie, mais si elle devenait réalité, ce serait un grand pas en avant. Cela signifierait que les ordinateurs pourraient penser et apprendre comme les humains.

Par exemple, OpenAI a récemment dévoilé le modèle o1, conçu pour améliorer les capacités de raisonnement de l’IA, se rapprochant ainsi de l’AGI (Business Insider).

Super Intelligence Artificielle

Au sommet du développement de l’IA se trouve l’idée d’une super IA artificielle. Ce type d’IA ne se contenterait pas de copier la façon dont les gens pensent ; elle serait encore plus intelligente que nous.

La super IA pourrait, par exemple, comprendre les sentiments, avoir ses propres croyances et prendre des décisions vraiment compliquées, mieux que n’importe qui. Cela peut sembler sortir d’un film de science-fiction, mais les chercheurs se penchent sérieusement sur la question. La création d’une super IA soulèverait de grandes questions sur ce qu’est réellement l’intelligence, sur le degré de conscience qu’elle peut avoir et sur la manière dont elle modifierait la façon dont les humains et les machines interagissent à l’avenir.

Les fonctionnalités de l’IA

Les fonctionnalités de l’IA, quant à elles, concernent la manière dont les systèmes d’IA fonctionnent et interagissent avec le monde. Il s’agit notamment de l’intelligence artificielle réactive, qui réagit à des entrées spécifiques sans se souvenir des interactions passées, ce qui la rend idéale pour les tâches simples, fondées sur des règles. L’IA à mémoire limitée représente une catégorie plus avancée, capable d’utiliser les expériences passées pour éclairer les décisions futures, une caractéristique essentielle dans des applications telles que les voitures auto-conduites.

Les catégories théoriques les plus avancées, la théorie de l’esprit et l’IA consciente d’elle-même représentent des systèmes capables de comprendre et de traiter les émotions et les pensées humaines, voire de posséder une conscience de soi. Les fonctionnalités de l’IA se concentrent donc sur les modes opérationnels et les dynamiques d’interaction des systèmes d’IA, détaillant la manière dont ils traitent les informations et s’adaptent à leur environnement.

  • IA de réaction (IA réactive) : cette IA est conçue pour effectuer une tâche spécifique sans avoir la capacité d’apprendre des expériences ou des résultats antérieurs. Deep Blue, le superordinateur d’IBM qui joue aux échecs, peut élaborer des stratégies, mais ne peut pas tirer de leçons de ses parties antérieures ; il s’agit là d’un excellent exemple d’intelligence artificielle réactive.
  • IA à mémoire limitée : l’IA à mémoire limitée est un cran au-dessus de l’IA de machine réactive, car elle peut se souvenir d’événements et de résultats passés. Cette IA peut surveiller des objets ou des situations spécifiques au fil du temps, ce qui la rend adaptée à des applications, telles que les voitures autonomes qui doivent se souvenir des schémas de circulation et de l’état des routes.
  • IA à théorie de l’esprit : cette IA théorique aurait la capacité de comprendre et d’interpréter les pensées et les émotions d’autres entités, en particulier des humains. L’IA théorique pourrait interagir avec les humains de manière plus naturelle, plus intuitive et plus empathique, améliorant ainsi l’expérience de l’interaction homme-machine.
  • IA consciente d’elle-même : le concept théorique le plus avancé en matière de fonctionnalités d’IA est l’IA consciente d’elle-même. Cette IA aurait la capacité de comprendre ses propres conditions et caractéristiques internes, ce qui entraînerait un ensemble d’émotions, de besoins et de croyances qui lui sont propres, à l’instar d’un être sensible.

Intelligence Artificielle Réactive

Ces systèmes sont conçus pour effectuer des tâches très spécifiques en traitant des données et en produisant des résultats sur la base de ces données. L’exemple classique est celui d’une IA de jeu d’échecs, qui analyse l’échiquier et décide du meilleur coup en fonction de la situation actuelle, mais qui ne se souvient pas des parties passées et n’utilise pas les expériences passées pour éclairer ses décisions actuelles. Son intelligence se concentre uniquement sur le moment présent, ce qui la rend très efficace, mais limitée à la tâche programmée.

L’IA réactive excelle dans les environnements où les réponses doivent être rapides et basées sur des données immédiates, mais elle n’a pas la capacité d’apprendre du passé ou d’anticiper les résultats futurs sur la base de données historiques.

Un exemple classique est Deep Blue, l’ordinateur d’IBM qui a battu le champion du monde d’échecs Garry Kasparov en 1997.

e8bfead4 583f 4d03 86b8 523b497c7c2a

Intelligence Artificielle à Mémoire Limitée

À l’inverse, l’IA à mémoire limitée représente une forme plus avancée, dans laquelle les systèmes d’IA ont la capacité d’utiliser les expériences passées pour prendre des décisions actuelles. Ce type d’IA intègre à la fois des données historiques et de nouvelles informations pour informer ses actions. La technologie utilisée dans les voitures autonomes en est un excellent exemple.

Ces systèmes d’IA collectent et traitent en permanence des données provenant de leur environnement, comme l’état de la route, les feux de signalisation et le comportement des autres véhicules, et les combinent avec des données antérieures, comme les trajets précédents ou les schémas de conduite appris, pour prendre des décisions en temps réel. Cette fonctionnalité permet à l’IA d’être plus adaptative et réactive et de s’améliorer au fil du temps, en tirant des enseignements de ses expériences passées pour améliorer ses performances dans des situations futures similaires.

Les voitures autonomes en sont un exemple, car elles analysent en temps réel l’environnement tout en tenant compte des données historiques pour améliorer la conduite.

L’Intelligence Artificielle de la théorie de l’esprit

Si l’on passe à des domaines plus théoriques, on rencontre l’IA de type théorie de l’esprit. Ce type d’IA est envisagé pour comprendre et traiter les émotions et les pensées humaines, ce qui représenterait une avancée significative dans l’interaction entre l’IA et l’homme. L’objectif est que les systèmes d’IA puissent non seulement reconnaître les états émotionnels humains, mais aussi y répondre de manière appropriée, permettant ainsi une communication plus naturelle et plus efficace entre les humains et l’IA.

Bien qu’il s’agisse encore d’un concept, le développement de l’IA basée sur la théorie de l’esprit pourrait avoir des implications considérables, en particulier dans les domaines nécessitant une interaction humaine nuancée, comme le service à la clientèle ou les soins de santé.

L’Intelligence Artificielle consciente d’elle-même

Enfin, le concept d’IA consciente d’elle-même est à la pointe du développement théorique de l’IA. Ce type d’IA comprendrait ses propres états et caractéristiques internes — une forme de conscience de soi analogue à celle des humains. Ces systèmes d’IA ne se contenteraient pas de traiter et d’analyser des données externes, mais auraient également une compréhension de leur propre existence et de leurs capacités. Il s’agirait d’une étape monumentale dans l’évolution de l’IA, qui conduirait à des machines conscientes de leurs propres limites, capables de s’auto-évaluer et peut-être même de comprendre leur rôle dans le contexte plus large de leur environnement.

Bien qu’il s’agisse encore d’un concept théorique, le développement de l’IA consciente d’elle-même pourrait redéfinir les limites de l’intelligence et des capacités des machines.

Avancées récentes en IA

Les progrès en IA sont rapides et constants. Par exemple, OpenAI a récemment introduit le modèle o1, qui améliore les capacités de raisonnement de l’IA, se rapprochant ainsi de l’AGI. De plus, des chercheurs de DeepMind ont proposé un cadre de classification des modèles d’AGI, définissant des niveaux de performance et de généralité, et évaluant les systèmes existants tels que GPT-4.

Ces développements montrent que, bien que l’AGI soit encore en phase de recherche, des avancées significatives sont réalisées pour rapprocher l’IA des capacités cognitives humaines.

Comprendre les différents types d’intelligence artificielle est essentiel pour appréhender les technologies qui façonnent notre monde. Des IA étroites que nous utilisons quotidiennement aux concepts théoriques de super IA, chaque type représente une étape dans l’évolution de cette technologie fascinante. Les avancées récentes indiquent que nous nous rapprochons de systèmes d’IA plus sophistiqués, capables de comprendre et d’interagir avec le monde de manière plus humaine.

En restant informés des développements en IA, nous pouvons mieux anticiper les opportunités et les défis qu’elle présente pour l’avenir.

Lire plus
Intelligence Artificielle

Microsoft pousse une mise à niveau GPT-4 Turbo pour Copilot dans Windows 11

Windows 11 Copilot

Bing AI, que Microsoft a récemment renommé de Bing Chat à Copilot devrait recevoir GPT-4 Turbo assez tôt, mais il y a encore des problèmes à résoudre autour de la mise en œuvre.

Actuellement, Copilot utilise GPT-4, mais GPT-4 Turbo permettra de bénéficier de divers avantages, notamment des réponses plus précises aux requêtes et d’autres avancées importantes.

Nous en avons appris davantage sur les progrès réalisés dans le cadre du passage à GPT-4 Turbo grâce à un échange sur X (anciennement Twitter) entre un utilisateur de Copilot et Mikhail Parakhin, responsable de la publicité et des services Web chez Microsoft.

Comme l’a repéré MS Power User, Ricardo a noté qu’ils venaient d’avoir accès à la nouvelle présentation de Bing et à ses plug-ins, et a demandé : « Est-ce que Bing utilise maintenant GPT-4 Turbo ? ». Comme vous pouvez le voir dans le tweet ci-dessous, Parakhin a répondu que GPT-4 Turbo ne fonctionne pas encore dans Copilot, car quelques problèmes doivent encore être résolus.

Bien entendu, outre Copilot sur le Web (anciennement Bing Chat), cette amélioration sera également apportée à Copilot dans Windows 11 (qui est essentiellement Bing AI — juste avec des contrôles pour Windows et des manipulations des paramètres).

Un modèle plus puissant

On peut penser que le commentaire selon lequel il reste encore « quelques » problèmes à résoudre suggère qu’une grande partie du travail d’implémentation de GPT-4 Turbo a été effectuée. Cela signifie que GPT-4 Turbo pourrait bientôt arriver dans Copilot.

On peut s’attendre à ce qu’il apporte des réponses plus précises et plus pertinentes aux requêtes, comme indiqué, et qu’il soit également plus rapide (comme son nom l’indique). Comme l’indique Microsoft, elle « dispose des dernières données d’entraînement avec des connaissances jusqu’en avril 2023 » — bien qu’il s’agisse encore d’une preview. OpenAI n’a annoncé GPT-4 Turbo qu’au début du mois, et a déclaré qu’il serait également moins cher à utiliser (pour les développeurs qui paient pour GPT-4, en l’occurrence).

En théorie, cela devrait représenter un grand pas en avant pour l’IA de Bing, et c’est quelque chose que l’on attend avec impatience dans un avenir proche.

Lire plus
Intelligence Artificielle

xAI lancera le chatbot Grok cette semaine : Voici à quoi s’attendre

b315dbf6 5cba 40a9 8399 98ff69d41f48

La société fondée par Elon Musk pour affronter OpenAI et d’autres startups qui se battent dans le secteur insaisissable de l’IA, xAI, s’apprête à lancer sa première offre, « Grok », cette semaine. Le milliardaire, connu pour ses entreprises telles que Tesla, SpaceX et Neuralink, a annoncé que le chatbot d’IA serait intégré à la plateforme X (anciennement Twitter) dans le cadre d’un programme d’accès anticipé.

L’entreprise a déjà ouvert les inscriptions à ce programme, mais l’avertissement est qu’il ne sera disponible que pour ceux qui ont souscrit à l’offre payante la plus chère de la plateforme du réseau social. Les personnes ayant souscrit à d’autres formules ou utilisant X gratuitement n’y auront pas accès pour le moment.

Cette décision intervient quelques semaines seulement après l’annonce de Grok par xAI et devrait remettre en cause la domination de ChatGPT d’OpenAI, qui est l’assistant d’IA polyvalent par excellence depuis près d’un an.

Que peut-on attendre de Grok ?

Bien que de nombreux détails restent confidentiels, les messages X partagés par Musk et son équipe de xAI indiquent que Grok sera un concurrent de ChatGPT, qui sera capable de s’engager dans des conversations complexes lorsqu’on le lui demandera. Il devrait pouvoir répondre à toutes sortes de questions posées par les utilisateurs, qu’il s’agisse de problèmes mathématiques ou de défis de codage.

Cependant, contrairement aux autres acteurs de la course à l’IA, Grok se distinguera par un accès exclusif à X et à ses messages et informations générés en temps réel par les utilisateurs. Le modèle qui sous-tend l’assistant a été formé sur des milliards de messages (anciennement appelés tweets) sur X et aura accès aux données les plus récentes publiées sur X, ce qui lui permettra de fournir des informations actualisées lorsqu’il sera interrogé sur un sujet d’actualité.

Toby Pohlen, l’un des membres fondateurs de xAI, issu de Google Deepmind, note qu’il faut actuellement « quelques secondes » au chatbot pour analyser les informations collectées à partir de plusieurs messages et renvoyer une réponse sous la forme d’un résumé.

Il précise que l’entreprise travaille à l’amélioration du système et que la fonction devrait devenir plus rapide, bien que la manière dont elle prévoit d’empêcher la désinformation — qui est également assez courante sur X — de passer entre les mailles du filet ne soit pas claire.

Au-delà des réponses basées sur des données en temps réel, Grok AI se différenciera également par des fonctionnalités supplémentaires telles qu’un mode « fun » dédié, le multitâche, les chats partageables et le retour d’information sur les conversations. Le mode « fun » sera le plus intéressant de tous, car il devrait donner à Grok une personnalité distincte qui lui permettra de tenir des conversations plus engageantes avec une touche de sarcasme et d’humour.

Grâce aux trois autres fonctionnalités, les utilisateurs pourront avoir plusieurs conversations avec Grok sur la même fenêtre, partager ces conversations en dehors de la plateforme grâce à un lien et fournir à xAI des commentaires détaillés sur la qualité des conversations individuelles, ce qui permettra à l’entreprise d’améliorer le bot au fil du temps.

Pour chaque retour d’information avec une réponse optimale, les utilisateurs obtiendront ce que xAI appelle un « score de retour d’information ».

Comment accéder à Grok ?

xAI a créé un site Web dédié à Grok, qui invite les utilisateurs à s’inscrire au programme d’accès anticipé.

Voici ce qu’il en est : tout le monde peut se connecter avec son compte X pour s’inscrire à ce programme, mais l’accès initial ne sera accordé qu’aux personnes dont le profil a été vérifié et qui disposent d’un abonnement X Premium Plus (anciennement Twitter Blue) coûtant 19,20 euros/mois.

Si un utilisateur ayant souscrit à cet abonnement s’inscrit, il devrait avoir accès au chatbot dans le courant de la semaine. Musk précise que l’accès se fait par blocs, en fonction de la date à laquelle l’utilisateur a souscrit à l’abonnement.

Le milliardaire prévoit également de créer un onglet Grok dédié sur X afin de permettre aux premiers utilisateurs de discuter plus facilement avec l’assistant d’IA. Cette initiative devrait stimuler l’engagement des utilisateurs sur la plateforme, bien que l’on ne sache pas encore quand l’entreprise ira au-delà des utilisateurs vérifiés. Musk a acheté X pour 44 milliards de dollars en 2022.

Quel que soit le calendrier, une chose est claire : xAI agit très rapidement pour généraliser Grok. L’entreprise a commencé à travailler sur l’assistant il y a environ trois mois et est maintenant en train de le rendre disponible — tout en se concentrant sur l’amélioration du système et de ses réponses en même temps. Nous pouvons nous attendre à ce que le chatbot s’améliore et devienne plus rapide au cours des prochains mois, pour finalement être disponible à grande échelle.

Lire plus
Intelligence Artificielle

Les appareils photo Sony combattent l’IA avec des actes de naissance pour les images

37c56d0a edef 4208 a79a 99e751376de3

Des applications comme Midjourney vous permettent de créer des œuvres d’art à l’aide de l’IA, mais certains utilisent même l’IA pour manipuler leurs photos prises avec un appareil photo réel. C’est à vous de décider si cela est acceptable ou non. Cependant, Sony est conscient des dangers que cela représente et souhaite lutter contre la présence croissante de photos d’IA. Sony veut s’assurer qu’il existe toujours une distinction entre les photos réelles et les photos générées (ou manipulées) par l’IA.

Pour ce faire, Sony s’est associé à l’Associated Press (AP), une agence de presse américaine à but non lucratif, ainsi qu’à Camera Bits, une société de logiciels à l’origine de Photo Mechanic. Ensemble, ils ont confirmé qu’une « deuxième série de tests » avait été réalisée pour la technologie d’authentification intégrée à l’appareil photo de Sony.

Cette technologie d’authenticité à l’intérieur de l’appareil photo consiste à apposer une signature numérique sur l’image afin de créer un « certificat de naissance pour les images ». Ainsi, la vérification d’une photo devient un processus très simple. Sony décrit sa nouvelle technologie comme « une couche de sécurité supplémentaire » et vise à aider les agences de presse « dans leur lutte contre les images falsifiées ».

« Les images falsifiées et manipulées sont une préoccupation majeure pour les organismes de presse. Non seulement elles contribuent à la désinformation, mais en fin de compte, elles sapent la confiance du public dans les images factuelles et précises », explique David Ake, directeur de la photographie à l’AP.

En outre, Sony a collaboré avec Camera Bits pour permettre l’édition de ces photos en conservant la signature numérique. Le logiciel Photo Mechanic mentionné est en fait un outil largement utilisé dans l’industrie de la photographie. Même après l’édition de toutes les métadonnées de la photo, la signature numérique sera préservée. Ainsi, malgré les modifications, les organismes de presse devraient être en mesure de vérifier facilement l’authenticité d’une image. C’est une grande victoire pour le photojournalisme !

Une mise à jour en 2024

Neal Manowitz, président de Sony, s’inquiète de plus en plus de l’impact des « images modifiées ou manipulées dans le journalisme ». Il semble que ces problèmes seront résolus avec succès, grâce à la nouvelle fonction de sécurité ajoutée par Sony à ses appareils photo. Les photos créées par l’IA existeront, quoi qu’il arrive. Mais lorsqu’il s’agit d’événements de la vie réelle, en particulier d’événements sensibles, un authentique photojournalisme humain est nécessaire.

Trois appareils photo de Sony : Alpha 9 III, Alpha 1 et Alpha 7 S III, recevront tous des mises à jour de micrologiciel au printemps 2024 qui permettront d’activer ces technologies d’authentification.

Que pensez-vous de ce nouvel ajout de Sony, qui contribue à lutter contre les préoccupations croissantes liées aux photos manipulées par l’IA ?

Lire plus
Intelligence Artificielle

Comment Microsoft réduit sa dépendance à l’égard de OpenAI ?

7a6a8d84 5931 460b b68e 2f4c68ae5c32

Le partenariat entre Microsoft et OpenAI s’est avéré mutuellement bénéfique. L’investissement de Microsoft dans OpenAI l’a propulsé à la pointe de l’innovation en matière d’IA, élargissant ainsi le marché pour ses offres de cloud et d’IA destinées aux entreprises.

De son côté, OpenAI a tiré parti des ressources financières, de la puissance de calcul et de la présence sur le marché de Microsoft pour passer d’un laboratoire de recherche à une entreprise d’IA qui pourrait être évaluée à environ 86 milliards de dollars.

Cependant, Microsoft prend des mesures stratégiques pour réduire sa dépendance à l’égard d’OpenAI, en veillant à ce que l’entreprise capte autant de valeur que possible sur le marché en évolution rapide des modèles de langage et autres technologies d’IA générative.

La marque Copilot

Alors que OpenAI a fait du terme GPT un synonyme de sa marque, Microsoft s’est efforcée d’associer le terme « Copilot » à sa propre marque. Lors de la conférence Ignite de Microsoft, de nombreuses annonces ont été faites concernant Copilot, notamment des mises à jour majeures de Copilot pour Microsoft 365, le lancement de Copilot pour les services et les ventes, et même le changement de nom de Bing Chat en Copilot.

Microsoft a également dévoilé Copilot Studio, un outil low code pour personnaliser Copilot pour Microsoft 365 et créer des Copilot autonomes. Copilot Studio offre une gamme de capacités conversationnelles, y compris des GPT personnalisés et des plugins d’IA générative. Les utilisateurs peuvent créer, tester et publier des Copilot autonomes et des GPT personnalisés, en les connectant à des sources de données externes telles que SAP. Copilot Studio présente des similitudes avec GPT Builder et GPT Store d’OpenAI, auxquelles s’ajoutent des fonctions d’entreprise telles que les contrôles d’accès aux données et les contrôles d’utilisateur.

L’expansion des grands modèles de langage (LLM) rappelle les premiers jours de l’informatique mobile, lorsqu’Apple a déposé la phrase « Il y a une application pour ça ». Aujourd’hui, les LLM sont tellement omniprésents qu’ils semblent trouver leur place dans chaque application, parfois même sans cas d’utilisation justifié. La question est de savoir si le nouveau mantra sera « Il y a un GPT pour cela » ou « il y a un Copilot pour cela ».

Investir dans des LLM open source

OpenAI a créé un précédent sur le marché des LLM en gardant ses modèles fermés, créant un marché d’un milliard de dollars pour ses modèles par le biais de sa plateforme API payante et de l’application ChatGPT. Cependant, un marché rival en pleine expansion pour les modèles à code source ouvert tels que Llama, Mistral, Falcon, Cerebras GPT et MPT est en train d’émerger. Bien que la mise en place d’un modèle open source ne soit pas aussi pratique que l’utilisation d’un modèle prêt à l’emploi comme GPT-4, elle offre des avantages tels qu’un meilleur contrôle des données, de la performance, de l’infrastructure et de la personnalisation.

On peut constater des progrès et des améliorations rapides dans les outils de formation, de personnalisation, de quantification, d’intégration et de déploiement à grande échelle des modèles open source. De nombreuses entreprises fournissent des services qui permettent aux organisations d’exécuter et d’affiner facilement leurs LLM personnalisés sur les serveurs sur site ou dans le cloud de leur choix. En fait, le marché des LLM à open source pourrait potentiellement devenir beaucoup plus important que les modèles à code source fermé comme ChatGPT en raison de sa flexibilité et de ses nombreux cas d’espèce.

Malgré sa participation importante dans OpenAI, Microsoft ne néglige pas le marché des modèles open source. Au début de l’année, Microsoft a ajouté la prise en charge de modèles open source tels que Llama 2, Mistral et Falcon sur son Azure AI Studio. Lors du Ignite 2023, la société est allée plus loin en ajoutant la prise en charge du « modèle en tant que service » pour les modèles Llama 2 et Mistral, ce qui les rend aussi faciles à utiliser que les appels d’API vers les modèles OpenAI.

L’avenir de Microsoft et de l’OpenAI

Google n’a pas été le premier moteur de recherche, Facebook n’a pas été le premier réseau social et Apple n’a pas été le premier fabricant de smartphones. De même, si OpenAI est actuellement la marque leader en matière de modèles de langage et d’IA générative, elle n’a pas encore consolidé sa place en tant qu’acteur dominant dans ce domaine. Et une autre startup pourrait finir par usurper sa position.

Alors que le marché continue de mûrir et de se développer, Microsoft veille à ne pas mettre tous ses œufs dans le même panier. En adoptant des modèles propriétaires et open source et en développant sa marque Copilot, Microsoft s’assure de rester un acteur clé sur le marché de l’IA, quelle que soit l’évolution de ses relations avec OpenAI.

Lire plus
Intelligence Artificielle

Vous pouvez poser des questions sur les vidéos YouTube à Google Bard

3b5f89b8 cfb5 4c89 8dbc 17940f7d1ee8

Google Bard n’est peut-être pas aussi performant que ChatGPT à bien des égards, mais il s’en rapproche. En effet, Bard n’a cessé de gagner en utilité après une introduction en demi-teinte. Par exemple, Google a annoncé aujourd’hui que Bard offrirait désormais une analyse plus approfondie du contenu vidéo de YouTube, ce qui pourrait être très utile.

Il s’agit là d’un outil potentiellement très utile, mais qui risque d’inquiéter davantage les créateurs en matière d’IA générative.

Pour être clair, Bard pouvait déjà analyser les vidéos YouTube depuis une précédente mise à jour en septembre. Cependant, cela n’impliquait pas d’examen réel du contenu vidéo et de la capacité d’interpréter ce contenu pour des requêtes détaillées.

Dans une mise à jour du journal des modifications de Bard, Google a brièvement décrit la nouvelle capacité de Bard à analyser les vidéos YouTube et a inclus un exemple de ce qui est possible :

Nous faisons les premiers pas dans la capacité de Bard à comprendre les vidéos YouTube. Par exemple, si vous recherchez des vidéos sur la préparation d’un gâteau à l’huile d’olive, vous pouvez désormais demander combien d’œufs la recette de la première vidéo nécessite.

Cette capacité à poser des questions spécifiques sur une vidéo pourrait s’avérer inestimable. Un autre bon exemple de ce qui est possible est de demander quel outil spécifique est utilisé dans une vidéo de bricolage ou le lieu particulier d’une vidéo de voyage.

« Un engagement plus profond avec les vidéos YouTube »

Google explique qu’il introduit cette fonctionnalité parce que « vous souhaitez un engagement plus profond avec les vidéos YouTube » et que vous voulez « une conversation plus riche avec Bard à ce sujet ».

Pour commencer à utiliser Bard, rendez-vous sur son portail Web et assurez-vous que l’extension YouTube est activée. Attention, étant donné qu’ils sont uniquement disponibles dans la langue de Shakespeare, il faudra changer la langue de votre compte.

Parallèlement, YouTube teste une fonctionnalité qui permet aux abonnés de « poser » des questions sur les vidéos. Cette expérience, exclusive aux abonnés de YouTube Premium, introduit un chatbot qui peut fournir des résumés de vidéos, recommander des contenus connexes et offrir des informations supplémentaires tirées de la vidéo et du Web.

Lire plus