fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Apple Intelligence : Bientôt disponible en Chine grâce à Tencent ou ByteDance ?

Apple Intelligence : Bientôt disponible en Chine grâce à Tencent ou ByteDance ?

Apple se trouve actuellement à la table des négociations avec des géants technologiques chinois, notamment Tencent et ByteDance, pour discuter des conditions dans lesquelles Apple Intelligence pourrait être introduit en Chine.

Ces discussions portent sur l’intégration des fonctionnalités d’intelligence artificielle d’Apple, notamment celles associées à Siri, dans les iPhone vendus dans ce pays.

Apple a récemment intégré ChatGPT d’OpenAI dans ses appareils via Apple Intelligence, ce qui renforce Siri avec des capacités d’IA avancées, telles que la gestion de documents et des requêtes liées aux photos. Cependant, en Chine, ChatGPT reste indisponible en raison de l’exigence d’une approbation gouvernementale pour les services d’IA générative.

Apple Intelligence ChatGPT 4

Pour contourner cet obstacle, Apple explore des partenariats locaux, mais avec prudence, afin de se conformer aux réglementations strictes. Les discussions, toujours en phase préliminaire, visent à définir comment les modèles d’IA d’Apple pourraient fonctionner localement.

Une collaboration fructueuse pourrait offrir à Apple un moyen de reprendre du terrain face à la concurrence croissante des entreprises chinoises.

Potentiels partenariats avec Tencent et ByteDance

Les négociations avec Tencent et ByteDance – la société mère de TikTok – pourraient jouer un rôle crucial pour Apple, selon des sources citées par Reuters. Apple aurait également envisagé de travailler avec Baidu, mais des désaccords sur l’utilisation des données des utilisateurs d’iPhone ont entravé ces discussions.

Pour Tencent, l’intégration pourrait s’appuyer sur son modèle d’IA Hunyuan, tandis que ByteDance pourrait offrir une synergie avec sa propre solution d’IA, Doubao. Cependant, ni Apple, ni Tencent, ni ByteDance n’ont fait de commentaires officiels à ce sujet.

La menace croissante des concurrents locaux

L’absence des capacités d’IA d’Apple dans les iPhone vendus en Chine est perçue comme un désavantage notable, surtout face à des concurrents tels que Huawei. Ce dernier a fait un retour triomphal sur le marché haut de gamme en août avec sa série Mate 70, alimentée par une puce fabriquée en Chine et dotée de fonctionnalités d’IA propriétaires. Huawei a enregistré une augmentation de 42 % de ses ventes au troisième trimestre, tandis qu’Apple a vu ses ventes en Chine chuter de 0,3 %.

Pour Apple, ces partenariats pourraient offrir une opportunité de regagner une part de marché en Chine, où l’innovation technologique locale progresse rapidement. Cependant, les contraintes réglementaires et les tensions liées à la gestion des données utilisateur compliquent les discussions.

Si Apple Intelligence parvient à entrer sur le marché chinois, il est peu probable qu’il devienne un succès disruptif immédiat, étant donné la domination des acteurs locaux et les préférences bien ancrées des consommateurs chinois. Pourtant, cette initiative pourrait marquer un pas stratégique dans la reconquête d’un marché clé pour la marque à la pomme.

Lire plus
Intelligence Artificielle

ChatGPT : Boostez votre productivité avec les nouvelles intégrations !

ChatGPT : Boostez votre productivité avec les nouvelles intégrations !

Dans le cadre de son événement des « 12 jours d’OpenAI », OpenAI a dévoilé lors du 11e jour des mises à jour importantes pour son application de bureau ChatGPT.

Ces améliorations élargissent les intégrations disponibles avec d’autres applications, notamment la compatibilité avec davantage d’environnements de développement intégrés (IDE), de terminaux et d’applications textuelles. Cela devrait rendre l’utilisation de l’IA en conjonction avec d’autres applications sur votre bureau moins pénible.

Parallèlement, OpenAI a annoncé que son Advanced Voice Mode (Mode vocal avancé) peut désormais interagir avec ces applications, renforçant ainsi son utilité dans les workflows quotidiens.

Nouvelles intégrations et applications prises en charge par ChatGPT

Depuis son lancement initial en novembre, l’application de bureau de ChatGPT a intégré des outils tels que VS Code, Xcode, Terminal, iTerm2 et TextEdit. Désormais, la liste s’élargit avec des applications supplémentaires :

  • IDE (Environnements de Développement Intégrés) :
    • BBEdit, MatLab, Nova, Script Editor, TextMate.
    • IDE JetBrains: Android Studio, AppCode, CLion, DataGrip, GoLand, IntelliJ IDEA, PHPStorm, PyCharm, RubyMine, RustRover, WebStorm.
    • Forks de VS Code : VSCode Insiders, VSCodium, Cursor, WindSurf.
  • Applications de terminaux :
    • Warp et Prompt.
  • Applications traitement de texte :
    • Apple Notes, Notion et Quip.

Cette extension ne se limite pas au codage : ChatGPT est désormais capable d’interagir avec des applications textuelles pour aider à la rédaction, la gestion de projets ou la prise de notes. L’Advanced Voice Mode peut également accéder à ces applications pour fournir des réponses contextuelles en fonction des projets en cours.

Screen 2024 12 20 at 07.05.17 scaled

ChatGPT et la gestion informatique : Vers une utilisation agentique

Kevin Weil, directeur produit chez OpenAI, a déclaré que ces mises à jour sont une étape vers une expérience utilisateur agentique pour ChatGPT. L’objectif est de permettre au chatbot non seulement de répondre à des questions, mais également d’effectuer des tâches directement sur les appareils des utilisateurs. « Nous investissons beaucoup dans nos applications de bureau », a-t-il expliqué. « Avec l’amélioration de nos modèles, ChatGPT évoluera au-delà des simples questions et réponses pour exécuter des actions à votre place ».

Weil a souligné que le format de l’application de bureau offre plus de possibilités qu’une simple interface via un navigateur, notamment la capacité pour ChatGPT de voir, avec l’autorisation des utilisateurs, ce qui est affiché à l’écran, et d’automatiser diverses tâches.

Bien qu’OpenAI n’ait pas encore permis à ChatGPT d’interagir directement avec l’ordinateur de l’utilisateur, comme le fait la fonction Claude Computer Use d’Anthropic, cela semble être l’une des directions prises pour 2025. Actuellement, des outils comme Copilot Vision de Microsoft et Project Astra de Google offrent des capacités similaires.

Comment activer les intégrations et utiliser le mode vocal avancé ?

Les utilisateurs de macOS peuvent facilement accéder aux nouvelles fonctionnalités avec des raccourcis clavier :

  • Accéder à ChatGPT : Appuyez sur option + espace pour ouvrir ChatGPT et choisir l’application de bureau à intégrer.
  • Application active : Utilisez option + shift + 1 pour afficher l’application active.
  • Mode vocal : Depuis cette fenêtre, il est également possible d’activer l’Advanced Voice Mode, qui détectera automatiquement le contexte de l’application.

Ces intégrations sont disponibles pour les utilisateurs des versions Plus, Pro, Team, Enterprise et Edu de ChatGPT. Toutefois, les abonnés Enterprise et Edu devront demander à leurs administrateurs informatiques d’activer la fonctionnalité.

Ces mises à jour renforcent la position de ChatGPT comme un outil polyvalent, capable de s’intégrer dans une variété d’applications pour améliorer la productivité, que ce soit pour le développement de logiciels ou la gestion quotidienne. En rendant les interactions plus contextuelles et en permettant une interaction directe avec des applications de bureau, OpenAI pousse encore plus loin les capacités de ChatGPT, en le rapprochant de véritables outils agentiques pour les utilisateurs professionnels et personnels.

Lire plus
Intelligence Artificielle

Gemini 2.0 Flash Thinking : l’IA de Google qui « pense » comme un humain !

Gemini 2.0 Flash Thinking : l’IA de Google qui « pense » comme un humain !

Google continue d’avancer à grands pas dans le domaine de l’intelligence artificielle avec l’introduction de Gemini 2.0 Flash Thinking, un modèle de raisonnement expérimental conçu pour répondre à des questions complexes tout en fournissant une explication détaillée de ses « pensées ». Cette nouvelle approche vise à concurrencer directement le modèle de raisonnement o1 d’OpenAI.

Selon Jeff Dean, scientifique en chef de Google DeepMind, Gemini 2.0 Flash Thinking est « entraîné à utiliser des pensées pour renforcer son raisonnement ». Ce modèle profite également de la vitesse accrue offerte par l’architecture de Gemini 2.0 Flash, ce qui le rend particulièrement performant pour résoudre des problèmes complexes.

Un exemple partagé par Dean illustre comment le modèle aborde une question de physique. Plutôt que de fournir une réponse directe, l’IA décompose le problème en plusieurs étapes logiques, simulant ainsi un processus de réflexion avant d’arriver à une solution. Bien que ce raisonnement ne soit pas identique à celui des humains, il démontre la capacité de la machine à segmenter les tâches pour produire des résultats plus précis et fiables.

Gemini 2.0 Flash Thinking, un modèle multimodal en action

L’un des points forts de Gemini 2.0 Flash Thinking réside dans sa capacité à intégrer différents types de données. Par exemple, Logan Kilpatrick, chef de produit chez Google, a publié une démonstration où le modèle résout un problème impliquant des éléments visuels et textuels. Grâce à cette capacité multimodale, Gemini 2.0 Flash Thinking élargit son champ d’application pour englober des scénarios complexes combinant des formats variés.

Kilpatrick a décrit cette avancée comme « la première étape de notre voyage dans le raisonnement », laissant entendre que Google continuera à développer cette approche dans le futur.

thinking mode

Une IA transparente et accessible

Ce qui distingue particulièrement Gemini 2.0 Flash Thinking de ses concurrents, c’est sa transparence dans le raisonnement. Les utilisateurs peuvent accéder à un menu déroulant qui expose étape par étape le processus de réflexion suivi par le modèle. Cette fonctionnalité répond à une préoccupation majeure dans le domaine de l’IA, où les systèmes sont souvent perçus comme des « boîtes noires ».

De plus, le modèle est déjà accessible via Google AI Studio, permettant aux développeurs de tester ses capacités en temps réel. Sa combinaison de rapidité, de transparence et de raisonnement structuré en fait un outil puissant pour des applications allant du codage à la résolution de problèmes scientifiques complexes.

Un contexte de forte compétition

L’arrivée de Gemini 2.0 Flash Thinking intervient dans un contexte marqué par une intense compétition entre les géants de l’IA. Plus tôt ce mois-ci, Google a dévoilé la version améliorée de Gemini 2.0, s’inscrivant dans une stratégie plus large visant à intégrer des capacités « agentiques » à ses modèles. Pendant ce temps, OpenAI a élargi l’accès à son modèle de raisonnement o1, le rendant disponible pour les abonnés de ChatGPT.

Avec Gemini 2.0 Flash Thinking, Google renforce sa position sur le marché en proposant un modèle capable de gérer des données multimodales et de produire des résultats précis tout en rendant son processus décisionnel transparent. Alors que les utilisateurs explorent ce nouvel outil, il est clair que cette technologie marque un tournant dans la manière dont les modèles d’IA abordent le raisonnement et l’interaction avec des problèmes complexes.

En résumé, Gemini 2.0 Flash Thinking s’impose comme un acteur clé dans l’évolution de l’intelligence artificielle. Grâce à sa capacité à combiner raisonnement, multimodalité et rapidité, il redéfinit les standards des modèles de langage avancés et laisse entrevoir des opportunités inédites pour l’avenir de l’IA.

Lire plus
Intelligence Artificielle

ChatGPT : Appelez et discutez avec l’IA… gratuitement !

ChatGPT : Appelez et discutez avec l'IA... gratuitement !

Dans le cadre de ses annonces des « 12 jours d’OpenAI », la société a présenté une avancée majeure pour rendre son IA plus accessible : la possibilité de passer des appels vocaux à ChatGPT et une intégration officielle avec WhatsApp. Ces nouvelles fonctionnalités marquent une étape importante pour les utilisateurs curieux de découvrir l’IA de manière simple et intuitive.

Des appels vocaux gratuits avec ChatGPT : une nouveauté aux États-Unis

OpenAI a introduit une nouvelle manière d’interagir avec ChatGPT : par téléphone, en appelant le 1-800-CHATGPT (1-800-242-8478). Ce service permet aux utilisateurs situés aux États-Unis de discuter avec l’IA jusqu’à 15 minutes gratuitement chaque mois.

Points clés de cette fonctionnalité :

  • Limitation mensuelle : Chaque numéro de téléphone peut passer jusqu’à 15 minutes d’appels gratuits par mois. Toutefois, des utilisateurs ingénieux pourraient contourner cette limite en utilisant des services comme Google Voice pour générer plusieurs numéros.
  • Technologie derrière : Les appels sont alimentés par l’API Realtime d’OpenAI, qui garantit une interaction fluide et rapide.
  • Accessibilité simplifiée : Cette fonctionnalité vise à introduire l’IA à un public plus large via un canal familier et accessible, sans nécessiter de connexion Internet haut débit ou d’appareils sophistiqués.

ChatGPT s’invite officiellement sur WhatsApp

OpenAI élargit également son empreinte mondiale en intégrant ChatGPT à WhatsApp, accessible via le 1-800-CHATGPT. Contrairement aux appels vocaux limités aux États-Unis, cette fonctionnalité est disponible pour les utilisateurs du monde entier.

Fonctionnalités actuelles sur WhatsApp :

  • Alimentée par le modèle GPT-4o mini, l’intégration se concentre sur les échanges textuels.
  • Les utilisateurs peuvent poser des questions et recevoir des réponses rapides, bien que des fonctions avancées comme l’analyse d’images ou le téléchargement de fichiers ne soient pas encore disponibles.
  • Développement futur : OpenAI prévoit d’intégrer des fonctionnalités premium pour les abonnés ChatGPT Plus, rendant l’expérience encore plus riche et personnalisée.

Un service simplifié, mais pas d’utilisation des données pour l’entraînement

Dans une démarche de transparence, OpenAI a précisé que les appels et les messages via WhatsApp ne seront pas utilisés pour entraîner ses modèles d’IA. Cette déclaration intervient alors que certains observateurs établissent des parallèles entre ce service et des initiatives passées, comme le GOOG-411 de Google. Lancé en 2007, ce service permettait d’obtenir des renseignements vocaux gratuits, mais il a été interrompu en 2010, après avoir amassé une quantité suffisante d’échantillons vocaux pour perfectionner la reconnaissance vocale de Google.

Cependant, OpenAI insiste sur le fait que son objectif est de fournir un moyen accessible et pratique de découvrir l’IA, et non de collecter des données pour ses modèles.

Une porte d’entrée vers l’IA pour le grand public

Ces nouvelles fonctionnalités visent à démocratiser l’accès à l’intelligence artificielle, offrant une alternative simplifiée à l’expérience ChatGPT classique sur le Web. Pour les utilisateurs à la recherche de fonctionnalités plus avancées, OpenAI recommande néanmoins de continuer à utiliser leurs comptes ChatGPT habituels.

Avec l’événement des 12 jours presque terminé, OpenAI a publié une litanie de nouveaux modèles, produits et fonctionnalités. Nous avons vu la sortie du modèle de raisonnement o1, du générateur vidéo Sora et des projets pour ChatGPT, des mises à jour de la fonction Canvas, un nouveau niveau d’abonnement Pro à 200 dollars/mois et une multitude de nouveaux outils pour les développeurs.

Lire plus
Intelligence Artificielle

Whisk : Google réinvente la création visuelle avec un outil IA innovant

download 2024 12 17T124228.146

Google a lancé un nouvel outil d’intelligence artificielle (IA) baptisé Whisk, qui permet de générer des images en combinant des prompts visuels et textuels pour créer des rendus uniques et personnalisés.

Comment fonctionne Whisk ?

Dans son dernier billet de blog, Google explique que Whisk repose sur une combinaison des technologies Gemini et Imagen 3, les modèles d’IA les plus récents de l’entreprise. Voici comment cela fonctionne :

  1. Soumettez une image : L’utilisateur peut télécharger une image pour définir le sujet, la scène ou le style.
  2. Génération de prompts : Whisk utilise Gemini pour extraire les caractéristiques essentielles de l’image afin de créer des prompts textuels détaillés.
  3. Remixage et création : Ces prompts sont ensuite injectés dans Imagen 3, le générateur d’images IA de Google, qui produit un remix basé sur les entrées visuelles et textuelles.

Par exemple, si vous téléchargez une image d’un personnage en peluche et que vous entrez un texte comme « autocollant émaillé », Whisk pourra générer une nouvelle version de l’image adaptée à ce style artistique.

Un outil d’exploration visuelle plutôt qu’un éditeur d’images traditionnel

Google précise que Whisk n’est pas un éditeur d’images classique. L’objectif principal de cet outil est d’offrir une exploration visuelle rapide et créative plutôt que des modifications précises au pixel près. Selon Google : « Whisk extrait uniquement quelques caractéristiques clés de votre image, il pourrait donc générer des visuels différents de vos attentes. Par exemple, le sujet généré pourrait avoir une taille, une coiffure ou une couleur de peau différentes ».

Pour affiner les résultats, les utilisateurs peuvent modifier ou compléter les prompts générés par Gemini afin d’obtenir des rendus plus proches de leurs idées.

Google souligne que des artistes et des créateurs ayant testé Whisk en avant-première le considèrent comme un outil d’idéation pour tester rapidement des variations visuelles et sélectionner les options les plus inspirantes.

Comment essayer Whisk ?

Pour l’instant, Whisk est uniquement disponible aux États-Unis via la plateforme Google Labs. Les utilisateurs basés en Amérique peuvent l’essayer gratuitement en se rendant sur le site officiel de Google Labs. Google n’a pas encore annoncé de date pour un déploiement international.

Avec Whisk, Google propose une nouvelle manière d’utiliser l’intelligence artificielle pour remixer et personnaliser des visuels, offrant aux créateurs un outil puissant pour explorer rapidement des idées. Grâce à la synergie entre Gemini et Imagen 3, Whisk permet de générer des contenus créatifs uniques tout en restant accessible et flexible pour les utilisateurs. Toutefois, pour ceux qui recherchent un éditeur d’images précis, il pourrait s’avérer limité dans sa forme actuelle.

Alors que l’IA générative continue de transformer le monde de la création visuelle, Whisk s’ajoute à l’arsenal de Google pour concurrencer d’autres outils populaires tels que MidJourney ou DALL·E.

Lire plus
Intelligence Artificielle

Gemini Advanced : Découvrez Gemini-Exp-1206, l’IA ultra-puissante !

Gemini Advanced : Découvrez Gemini-Exp-1206, l'IA ultra-puissante !

Google pousse encore plus loin les capacités de son IA avec l’introduction de Gemini-Exp-1206, un modèle expérimental accessible aux abonnés Gemini Advanced. Cette nouveauté arrive peu après le lancement du modèle expérimental Gemini 2.0 Flash, témoignant de la cadence rapide à laquelle Google enrichit son offre en IA générative.

Dans le sélecteur de modèles accessible sur les plateformes Web (mais pas encore via l’application mobile), une nouvelle option baptisée « 2.0 Experimental Advanced » permet de tester le modèle Gemini-Exp-1206. Selon Google, ce modèle se distingue particulièrement dans les domaines suivants :

  • Codage : meilleur traitement des bases de code complexes.
  • Mathématiques : résolution avancée de problèmes et calculs multi-étapes.
  • Raisonnement : capacité accrue à fournir des réponses précises sur des sujets exigeant une réflexion approfondie.
  • Instruction sur mesure : génération de plans d’affaires personnalisés ou instructions détaillées pour des projets complexes.

Ce modèle Gemini-Exp-1206 promet des améliorations significatives en termes de performance et d’efficacité, bien que Google précise qu’il est encore en phase de « prévisualisation précoce ». Cela signifie que certaines fonctionnalités existantes de Gemini ne sont pas encore compatibles et que le modèle n’a pas accès à des informations en temps réel.

Élargir l’écosystème Gemini

Depuis son lancement, Gemini Advanced a introduit plusieurs modèles puissants, notamment les versions 1.0 Ultra et 1,5 Pro. Il est possible que Gemini-Exp-1206 devienne la version 2.0 Pro ou une variante encore plus avancée, préparant ainsi le terrain pour un développement futur.

En outre, Google prévoit de déployer plus de tailles de modèles Gemini 2.0 en janvier 2025, incluant la disponibilité de Gemini 2.0 Flash pour les développeurs. Ces évolutions marquent une nouvelle étape dans l’expansion de la plateforme Gemini et confirment l’ambition de Google de rivaliser avec des leaders comme OpenAI dans le domaine de l’IA générative.

Coût et accès

Pour explorer Gemini-Exp-1206, les utilisateurs doivent souscrire à l’abonnement Gemini Advanced via l’offre Google One AI Premium, au tarif de 21,99 euros par mois. Cet abonnement donne accès à des modèles d’IA hautement performants, ainsi qu’aux nouvelles fonctionnalités expérimentales.

Ce modèle témoigne du potentiel croissant des technologies d’IA générative. Bien que Gemini-Exp-1206 soit encore en phase de test, ses capacités dans des domaines complexes montrent à quel point l’IA peut transformer des tâches techniques en solutions accessibles et puissantes.

L’avenir s’annonce passionnant pour les amateurs de technologie et les professionnels qui dépendent de ces outils avancés. Alors que Google continue d’affiner et d’étendre sa gamme Gemini, il sera intéressant de voir comment ces innovations redéfiniront le paysage de l’IA générative dans les années à venir.

Lire plus
Intelligence Artificielle

OpenAI o1 : Le modèle d’IA avancé arrive sur l’API !

OpenAI o1 : Le modèle d'IA avancé arrive sur l'API !

Dans le cadre de son événement « 12 Days of OpenAI », OpenAI a franchi une nouvelle étape en rendant son modèle o1 complet disponible pour les développeurs via son API. Ce lancement marque un moment clé pour les entreprises et développeurs cherchant à intégrer des capacités d’IA avancées dans leurs applications et flux de travail.

Le modèle o1 complet, désormais référencé comme o1-2024-12-17, excelle dans les tâches de raisonnement complexes et multi-étapes. Comparé à la version o1-preview, ce modèle améliore considérablement la précision, l’efficacité et la flexibilité. Par exemple, les performances sur des benchmarks tels que SWE-bench Verified ont grimpé de 41,3 à 48,9, tandis que les résultats aux tests de mathématiques AIME ont bondi de 42 à 79,2.

Cette amélioration rend le modèle idéal pour des cas d’usage variés, tels que :

  • L’optimisation du support client.
  • La résolution de problèmes analytiques complexes.
  • L’automatisation des processus logistiques.

Nouvelles fonctionnalités pour les développeurs liées au modèle o1

OpenAI a introduit plusieurs nouvelles fonctionnalités pour le modèle o1 :

  • Structured Outputs : Les réponses du modèle respectent des formats personnalisés tels que des schémas JSON, assurant une interaction cohérente avec les systèmes externes.
  • Function Calling : Le modèle peut désormais appeler des fonctions API et interagir avec des bases de données pour générer des réponses plus précises.
  • Reason over visual inputs : Les développeurs peuvent analyser des images, des documents et des schémas pour répondre à des cas d’usage industriels, scientifiques ou techniques.
  • Reasoning_effort : Cette nouvelle option permet de contrôler le temps alloué à une tâche, équilibrant la performance et le temps de réponse.

API Realtime : Une IA vocale et conversationnelle optimisée

OpenAI a également mis à jour son API Realtime pour offrir une expérience audio et vocale en temps réel avec une faible latence, idéale pour les assistants vocaux, les outils de traduction en direct et les tuteurs virtuels.

Les principales améliorations incluent :

  1. Intégration WebRTC : Cette mise à jour simplifie considérablement le développement d’applications vocales grâce à une prise en charge native de la diffusion audio, de la suppression du bruit et de la gestion de la congestion.
  2. Tarification réduite : Le coût des tokens audio pour GPT-4o baisse de 60 %, passant à 40 dollars par million de tokens d’entrée et 80 dollars par million de tokens de sortie. De plus, le modèle GPT-4o mini devient disponible à un prix encore plus compétitif : 10 dollars pour un million de tokens d’entrée et 20 dollars pour un million de tokens de sortie.
  3. Contrôle accru : Les développeurs peuvent désormais exécuter des tâches en arrière-plan sans interrompre l’expérience utilisateur grâce aux réponses concurrentes.

Ces améliorations visent à rendre les applications conversationnelles et interactives plus fluides, précises et accessibles.

Fine-Tuning préférentiel : Plus de personnalisation

OpenAI a également introduit une nouvelle méthode de fine-tuning appelée « Preference Fine-Tuning ». Contrairement au fine-tuning supervisé classique, cette méthode repose sur des comparaisons par paires pour indiquer quelles réponses sont préférées. Cela s’avère particulièrement utile pour des tâches subjectives, comme la rédaction créative, le résumé de contenus et les cas où le ton et le style sont essentiels.

Pour faciliter l’intégration, OpenAI a élargi ses outils avec de nouveaux SDK pour Go et Java, rejoignant les bibliothèques existantes pour Python, Node.js et .NET.

Avec la disponibilité du modèle o1 via son API, OpenAI renforce sa capacité à offrir des solutions d’IA performantes et flexibles aux développeurs. Que ce soit pour le raisonnement complexe, les interactions vocales en temps réel ou la personnalisation avancée, ces nouvelles mises à jour permettent aux entreprises et aux développeurs de repousser les limites de l’intégration d’IA dans leurs applications.

Le futur de l’IA semble plus accessible que jamais, avec des performances accrues, des coûts réduits et des outils plus puissants pour bâtir des expériences intelligentes, créatives et interactives.

Lire plus
Intelligence Artificielle

Bixby : Le retour en force avec l’IA générative !

Bixby : Le retour en force avec l'IA générative !

Samsung semble prêt à réintroduire Bixby dans la course des assistants intelligents. Jadis éclipsé par des concurrents comme Google Assistant, Bixby pourrait faire son grand retour grâce à une mise à jour majeure intégrant un modèle de langage étendu (LLM).

Bixby avec IA générative : Un lancement mondial en janvier 2025

Selon le média coréen ETNews, le nouveau Bixby LLM, déjà disponible sur les modèles chinois W25 Fold et W25 Flip, sera lancé mondialement avec la série Galaxy S25 prévue pour janvier 2025. Samsung semble vouloir marquer un tournant avec cette version nettement améliorée, à l’image de la montée en puissance de solutions comme Gemini Nano.

Initialement, Samsung envisageait de lancer cette nouvelle version de Bixby avec les Z Fold 6 et Z Flip 6, mais des problèmes de calendrier ont retardé ce plan. Avec l’arrivée imminente de One UI 7, le déploiement mondial de Bixby LLM ne semble désormais plus qu’à quelques semaines.

Samsung a déjà dévoilé quelques capacités du nouvel assistant à travers ses modèles W25 en Chine. Parmi les fonctionnalités les plus attendues :

  • Génération de documents : Bixby pourra créer des documents, probablement grâce à une IA générative intégrée, permettant de rédiger des rapports, des notes ou des présentations rapidement.
  • Traitement vocal avancé : Avec une meilleure reconnaissance et une compréhension plus naturelle des commandes vocales, Bixby pourrait rattraper, voire surpasser ses concurrents en fluidité et efficacité.
  • Capacités sur appareil : Contrairement à certains assistants dépendant du cloud, Bixby offrirait de nombreuses fonctionnalités directement sur l’appareil, garantissant une utilisation plus rapide et privée.

Des fonctionnalités supplémentaires pourraient être annoncées lors du lancement global en janvier.

Un concurrent sérieux pour Google Assistant ?

Avec ce nouveau départ, Samsung espère repositionner Bixby comme une alternative crédible à Google Assistant, en particulier pour les utilisateurs des appareils Galaxy. L’intégration directe dans l’écosystème One UI et les appareils Samsung pourrait séduire ceux recherchant une expérience fluide et centrée sur leur smartphone.

Le lancement mondial du nouvel assistant Bixby représente une étape majeure pour Samsung dans le domaine de l’IA et des assistants intelligents. Avec des fonctionnalités prometteuses et des performances renforcées grâce à l’IA générative, Bixby pourrait bien renaître de ses cendres.

Lire plus
Intelligence Artificielle

ChatGPT : La recherche Web gratuite pour tous !

ChatGPT : La recherche Web gratuite pour tous !

Dans le cadre de son événement « 12 Days of OpenAI », OpenAI a annoncé une mise à jour majeure pour ChatGPT, rendant sa fonctionnalité de recherche sur le Web accessible aux utilisateurs gratuits.

Auparavant réservée aux abonnés des plans ChatGPT Plus ou Pro, cette fonctionnalité, qui permet d’explorer Internet et de synthétiser des réponses à partir de contenus en ligne, est désormais disponible pour tous les utilisateurs connectés.

Kevin Weil, directeur produit d’OpenAI, a présenté cette mise à jour lors du livestream de lundi : « Nous avons lancé cette fonctionnalité pour les utilisateurs payants il y a environ deux mois. Je ne peux plus imaginer utiliser ChatGPT sans Search. Je suis tellement ravi de la rendre accessible gratuitement à tous, dès aujourd’hui ».

Une recherche Web intégrée à ChatGPT pour tous

La fonctionnalité de recherche est conçue pour offrir une alternative aux moteurs de recherche traditionnels comme Google. Contrairement à ces derniers, ChatGPT synthétise les données en réponses conversationnelles, éliminant le besoin de cliquer à travers une page de résultats. Cela rapproche ChatGPT d’applications analogues, comme Perplexity AI, qui gagne également en popularité.

Avec cette mise à jour, ChatGPT s’aligne davantage sur les moteurs de recherche traditionnels tout en gardant sa valeur ajoutée en synthétisant des réponses à partir des données trouvées en ligne. Voici ce qui change :

  • Résultats enrichis sur mobile : Lorsque vous recherchez des lieux, tels que des restaurants ou des attractions locales, ChatGPT affiche désormais une liste avec des images, évaluations, horaires d’ouverture, et bien plus encore. En cliquant sur un lieu, vous obtenez des détails supplémentaires, et vous pouvez même afficher une carte avec des itinéraires directement dans l’application.
  • Liens directs pour des recherches spécifiques : Si vous recherchez des sites spécialisés, comme des plateformes de réservation d’hôtels, ChatGPT fournit des liens avant de générer une réponse détaillée. Cela rend la recherche plus rapide et plus ciblée.

Fonctionnement et disponibilité

Disponible à l’échelle mondiale sur toutes les plateformes, la fonctionnalité ChatGPT Search est intégrée au Mode vocal avancé, permettant de poser des questions à ChatGPT via la voix tout en exploitant les capacités de recherche en temps réel. « Nous apportons ChatGPT Search à tous les utilisateurs connectés de ChatGPT gratuitement, sur n’importe quelle plateforme, à partir d’aujourd’hui », a ajouté Weil.

Des résultats confiants… mais parfois erronés

Malgré son potentiel, la recherche par ChatGPT présente encore des limites. Une récente étude menée par le Tow Center for Digital Journalism de l’université Columbia a révélé que ChatGPT pouvait fournir des réponses « confiantes mais erronées » dans de nombreux cas.

L’étude a testé la capacité de ChatGPT à identifier l’origine d’extraits de texte tirés de 20 éditeurs différents. Sur 200 tests, ChatGPT a fourni des réponses partiellement ou entièrement incorrectes dans 153 cas, bien qu’il ait admis son incapacité à répondre correctement dans seulement sept cas.

« Ces erreurs montrent que, même avec des fonctionnalités de recherche en temps réel, ChatGPT reste parfois limité dans sa capacité à interpréter et restituer des informations avec précision », ont noté les chercheurs.

Un ajout à une semaine riche en annonces

Cette mise à jour marque le 8e jour de l’événement 12 Days of OpenAI. Parmi les autres annonces marquantes, OpenAI a dévoilé :

Avec cette extension de la fonctionnalité ChatGPT Search, OpenAI démocratise une puissante capacité, permettant aux utilisateurs gratuits de bénéficier de recherches enrichies et synthétiques. Si des améliorations restent nécessaires, notamment en matière de précision, cette mise à jour consolide ChatGPT comme un outil central dans l’écosystème de l’IA conversationnelle.

Lire plus
Intelligence Artificielle

Veo 2 : La génération vidéo 4K par IA de Google est lancée !

Veo 2 : La génération vidéo 4K par IA de Google est lancée !

DeepMind, la division d’IA de Google, a officiellement lancé Veo 2, son modèle de génération vidéo basé sur l’intelligence artificielle, conçu pour rivaliser avec le modèle Sora d’OpenAI.

Alors que Sora se limite à créer des clips de 20 secondes avec une résolution maximale de 1080p, Veo 2 se distingue en produisant des vidéos de plusieurs minutes en résolution 4K époustouflante. Selon Google, Veo 2 excelle grâce à sa compréhension des « lois physiques du monde réel » et des « subtilités des mouvements et expressions humaines », ce qui améliore grandement le réalisme des vidéos générées.

Veo 2, une précision sans précédent dans la génération vidéo

Dans mes quelques tests avec Sora, j’ai remarqué que le modèle d’OpenAI manque souvent de précision en matière de physique, produisant des anomalies telles que des doigts supplémentaires ou des objets inattendus. Veo 2 promet de surmonter ces défauts grâce à des résultats plus réalistes et moins de phénomènes hallucinés.

Avec Veo 2, les utilisateurs peuvent également générer des vidéos dans divers styles, en définissant des éléments comme :

  • L’objectif utilisé
  • Le genre cinématographique
  • Les effets de mise en scène
  • Des angles spécifiques comme les plans rapprochés ou les travellings en contre-plongée

Disponibilité de Veo 2

Veo 2 est en cours de déploiement progressif via plusieurs plateformes : VideoFX, YouTube et Vertex AI. Pour l’instant, les clips générés sont actuellement limités à 8 secondes et une résolution 720p, loin des capacités théoriques de 2 minutes en 4K.

Les utilisateurs intéressés peuvent rejoindre une liste d’attente pour y accéder. Google prévoit également d’intégrer Veo 2 à YouTube Shorts dès l’année prochaine, ce qui permettra de démocratiser la génération vidéo par IA sur l’une des plus grandes plateformes vidéo au monde. Pour garantir l’intégrité des vidéos générées par Veo 2, Google utilise la technologie SynthID, une marque invisible intégrée dans chaque vidéo pour signaler qu’elle a été créée par une IA.

Annonce de Imagen 3 : génération d’images IA encore plus puissante

watermarked photo squirrel snow

Parallèlement à Veo 2, Google a présenté Imagen 3, son modèle de génération d’images, qui propose désormais des visuels plus lumineux, mieux composés, et d’une précision accrue. Imagen 3 prend en charge une grande variété de styles artistiques, notamment : Abstrait, Anime, Photoréalisme et Impressionnisme.

Imagen 3 est déjà largement déployé via ImageFX dans plus de 100 pays, offrant une solution polyvalente pour les créateurs.

Présentation de Whisk : un outil expérimental pour fusionner scènes, sujets et styles

En complément, Google a dévoilé Whisk, un outil innovant permettant aux utilisateurs de créer des images uniques en combinant plusieurs éléments :

  1. Sujets : possibilité d’ajouter une photo ou un objet principal.
  2. Scènes : description ou choix d’un décor précis.
  3. Styles : application d’un style visuel pour obtenir des rendus personnalisés.

Whisk utilise la puissance combinée d’Imagen 3 et de la compréhension visuelle de Gemini pour fusionner les entrées et générer une image totalement nouvelle. L’outil est accessible sur Google Labs pour les utilisateurs désireux d’expérimenter cette nouvelle approche créative.

Un écosystème d’outils IA en pleine expansion

Avec le lancement de Veo 2, Imagen 3, et Whisk, Google montre sa volonté de repousser les limites de la création numérique. Que ce soit pour la vidéo, l’image ou la combinaison des deux, ces nouveaux outils promettent de transformer la manière dont les créateurs travaillent et imaginent leurs projets.

Lire plus
Intelligence Artificielle

Phi-4 : L’IA de Microsoft qui bat les géants !

Phi-4 : L'IA de Microsoft qui bat les géants !

Microsoft a dévoilé Phi-4, un modèle d’intelligence artificielle qui redéfinit les standards de l’industrie en combinant raisonnement mathématique avancé et efficacité informatique.

Avec ses 14 milliards de paramètres, Phi-4 surpasse régulièrement des modèles bien plus volumineux, tels que le Gemini Pro 1.5 de Google, tout en utilisant bien moins de ressources computationnelles. Ce lancement marque une rupture avec la course effrénée aux modèles gigantesques, privilégiant une approche plus ciblée et efficace.

Petite taille, grandes performances : Un changement de paradigme

Alors que des modèles tels que GPT-4o d’OpenAI ou Gemini Ultra de Google comptent des centaines de milliards de paramètres, Phi-4 démontre que la taille n’est pas un gage absolu de performance. Grâce à une architecture optimisée, il offre des résultats remarquables, notamment en raisonnement mathématique complexe, surpassant souvent des modèles beaucoup plus grands sur des tests rigoureux.

Frame 6

Microsoft positionne Phi-4 à la pointe de l’efficacité-performance, un indicateur crucial pour les entreprises cherchant à réduire leurs coûts d’exploitation tout en maintenant un haut niveau de précision.

Une réduction drastique des coûts pour les entreprises

Les implications pour les entreprises sont considérables. Contrairement aux modèles géants nécessitant des ressources massives, Phi-4 offre une solution beaucoup plus économique en réduisant les coûts énergétiques et d’infrastructure liés au déploiement de l’IA.

  • Accessibilité accrue : Les entreprises de taille moyenne ou avec des budgets limités pourront profiter de capacités IA avancées auparavant réservées aux grands groupes.
  • Efficacité énergétique : Une adoption plus large d’un modèle économe comme Phi-4 pourrait considérablement réduire l’empreinte carbone des solutions IA, un point crucial dans un contexte de durabilité.

Ce développement intervient alors que de nombreuses organisations hésitent à intégrer pleinement l’IA en raison des coûts associés aux modèles actuels. Phi -4 pourrait devenir une solution clé pour accélérer l’adoption de l’IA dans des secteurs variés.

Des capacités exceptionnelles en mathématiques et au-delà

Phi-4 excelle particulièrement dans la résolution de problèmes mathématiques complexes. Lors des tests AMC 10/12 de novembre 2024, organisés par la Mathematical Association of America, le modèle a obtenu les meilleurs résultats, surpassant même des géants comme Gemini Pro.

  • Applications scientifiques : Ces performances laissent entrevoir un potentiel immense pour des domaines comme la recherche scientifique, l’ingénierie ou la modélisation financière, où la précision mathématique est essentielle.
  • Excellence ciblée : Phi-4 démontre qu’un modèle bien conçu et spécialisé peut surpasser des IA généralistes plus volumineuses dans des contextes spécifiques, rendant ses capacités idéales pour des applications métier.

clipboard image 1 1734043173845

Engagement en matière de sécurité et déploiement mesuré

Microsoft adopte une approche prudente pour le déploiement de Phi-4, en le rendant initialement accessible via sa plateforme Azure AI Foundry sous un accord de licence de recherche. La société prévoit une diffusion élargie sur Hugging Face, accompagnée d’outils robustes pour garantir la sécurité et éviter les abus.

  • Outils d’évaluation : Les développeurs peuvent analyser la qualité et la sécurité du modèle grâce aux outils disponibles sur Azure.
  • Filtrage de contenu : Des mécanismes intégrés aident à prévenir les usages malveillants, une préoccupation croissante dans l’industrie de l’IA.

Cette attention à la sécurité souligne une volonté de répondre aux défis éthiques liés à l’IA tout en offrant des solutions pratiques aux entreprises.

Un futur centré sur l’efficacité

Avec Phi-4, Microsoft montre que l’avenir de l’intelligence artificielle pourrait ne pas résider dans des modèles toujours plus massifs, mais dans la conception de systèmes optimisés capables d’en faire plus avec moins.

Pour les entreprises cherchant à intégrer l’IA de manière rentable et durable, Phi-4 pourrait inaugurer une nouvelle ère de déploiements pratiques et économiques, tout en élargissant les possibilités dans des secteurs nécessitant une précision accrue.

Lire plus
Intelligence Artificielle

NotebookLM Plus : Google lance une version premium pour les pros !

NotebookLM Plus : Google lance une version premium pour les pros !

Google continue d’améliorer son application NotebookLM, renommée pour sa version professionnelle en NotebookLM Plus, et étend son usage à de nouveaux secteurs, notamment les entreprises et les équipes collaboratives.

Depuis son lancement en avant-première en juillet dernier, NotebookLM a gagné en popularité, devenant accessible au grand public en décembre. Désormais, la version premium propose des fonctionnalités supplémentaires pour les utilisateurs intensifs, en plus de mises à jour innovantes, comme l’interaction audio en temps réel.

NotebookLM Plus : Pensé pour les entreprises et les équipes

Google a observé une adoption croissante de NotebookLM dans les projets d’entreprise, ce qui a motivé la création de NotebookLM Plus. Cette version offre 5x plus de ressources que la version gratuite, incluant davantage de Audio Overviews, de cahiers, et de sources par notebook. De plus, les utilisateurs premium peuvent personnaliser le style et le ton des réponses, partager des notebooks avec leurs collègues, et accéder à des analyses d’utilisation détaillées.

FINAL FOR BLOG.width 1000.format

En matière de sécurité et de confidentialité, NotebookLM Plus intègre des fonctionnalités renforcées, adaptées aux entreprises et aux organisations. Accessible via Google Workspace ou Google Agentspace, NotebookLM Plus sera inclus dans l’abonnement Google One AI Premium à partir de 2025.

Audio Overviews interactifs : Une nouvelle manière d’explorer l’information

Introduits en septembre, les Audio Overviews ont rapidement séduit les utilisateurs par leur format inspiré des podcasts. Ces résumés audio permettent de digérer des informations complexes grâce à une conversation simulée entre deux hôtes générés par l’IA. Aujourd’hui, cette fonctionnalité franchit une nouvelle étape en permettant aux utilisateurs d’interagir directement avec les hôtes.

Avec cette mise à jour, les utilisateurs peuvent poser des questions en temps réel via leur voix pour orienter la discussion. Il suffit de créer un nouvel Audio Overview, d’activer le mode interactif, et de rejoindre la conversation. Les hôtes IA inviteront alors l’utilisateur à poser des questions. Toutefois, Google précise que cette fonctionnalité est encore en phase expérimentale, et des temps de réponse ou des erreurs occasionnelles pourraient survenir.

Nouvelle interface repensée

Google a également introduit une interface redessinée pour simplifier la navigation et l’interaction avec les données. NotebookLM se divise désormais en trois panneaux principaux :

  • Panneau Sources : Regroupe tous les documents ou fichiers téléchargés dans NotebookLM.
  • Panneau Chat : Permet d’accéder à une boîte de dialogue avec Gemini pour poser des questions directement liées aux sources.
  • Panneau Studio : Outil dédié à la création de guides d’étude, de documents de briefing, et d’Audio Overviews.

Cette refonte vise à unifier les différentes activités dans une interface cohérente, facilitant ainsi la transition entre la consultation de sources, les questions à l’IA, et la création de contenu.

3 panel ui keyword final 7 sources

Un intérêt croissant des entreprises

Depuis son lancement, NotebookLM s’est imposé comme un outil polyvalent, même dans le domaine professionnel. Certains utilisateurs l’ont décrit comme un « CRM killer », remplaçant les systèmes traditionnels de gestion de la relation client.

Sur les réseaux sociaux, des témoignages d’entreprises et d’investisseurs mettent en avant des usages variés, notamment pour centraliser les recherches ou documenter des politiques internes. Sam Lessin, ancien vice-président produit chez Meta, a révélé que son entreprise utilisait NotebookLM comme alternative à un CRM classique.

Avec NotebookLM Plus et ses nouvelles fonctionnalités interactives, Google enrichit son offre pour les professionnels, les étudiants, et les entreprises. Ces mises à jour renforcent l’utilité de NotebookLM comme outil de recherche, de collaboration et d’analyse, tout en ouvrant la voie à des usages plus vastes et personnalisés.

Lire plus
Intelligence Artificielle

ChatGPT : Organisez vos conversations avec « Projets » !

ChatGPT : Organisez vos conversations avec « Projets » !

Dans le cadre de son événement 12 Days of OpenAI, OpenAI a dévoilé une nouvelle fonctionnalité appelée Projets, conçue pour optimiser la gestion des conversations et des fichiers dans ChatGPT. Bien qu’elle ne soit pas aussi festive que l’annonce de la veille avec le mode Père Noël, cette fonctionnalité est un outil puissant pour organiser vos workflows et collaborations.

L’événement promotionnel saisonnier d’OpenAI est maintenant à mi-parcours. À ce jour, l’entreprise a officiellement lancé son moteur de génération vidéo Sora, la version complète de son modèle de raisonnement o1, un niveau d’abonnement Pro à 200 dollars et diverses mises à jour de la fonctionnalité Canvas.

Qu’est-ce que la fonctionnalité « Projets » de ChatGPT ?

Projets est une sorte de « tiroir numérique » qui permet de ranger vos conversations, documents et fichiers en dossiers bien organisés. Avant cette nouveauté, les utilisateurs devaient naviguer dans une barre latérale encombrée de discussions individuelles, ce qui rendait difficile de retrouver des informations importantes. Avec « Projets », OpenAI offre une solution claire et intuitive pour regrouper et classer vos données en fonction de thèmes ou de sujets.

Kevin Weil, Directeur Produit chez OpenAI, a expliqué que Projets transforme l’expérience utilisateur, passant d’un bureau encombré à un espace de travail parfaitement organisé.

Comment fonctionnent les Projets ?

Créer un Projet est simple : il suffit de lui attribuer un nom et une couleur pour le différencier facilement. Voici les principales fonctionnalités :

  • Regrouper des conversations : Ajoutez des discussions existantes ou démarrez-en de nouvelles dans un espace dédié.
  • Téléverser des fichiers : Importez des documents ou données que ChatGPT pourra utiliser dans ses réponses.
  • Configurer des instructions : Personnalisez le comportement de ChatGPT dans un Projet donné. Par exemple, précisez un style d’écriture ou des détails spécifiques pour qu’ils soient pris en compte tout au long des échanges.

Prenons l’exemple d’un scénario : si vous travaillez sur un scénario de film, vous pouvez créer un Projet avec vos notes sur les personnages, votre plan de l’intrigue et des préférences de formatage. ChatGPT appliquera automatiquement ces informations à toutes les conversations dans ce Projet, éliminant la nécessité de répéter vos consignes.

Cas d’utilisation et applications pratiques

Projets ne sert pas seulement à organiser ; c’est un outil qui améliore la productivité. OpenAI a présenté plusieurs cas d’utilisation durant son live :

  • Projets créatifs : Idéal pour des travaux collaboratifs comme l’écriture de scénarios ou la conception graphique. Les utilisateurs peuvent importer des brouillons, des images ou des scripts, et ChatGPT peut les affiner ou développer des idées.
  • Développement de sites web : Importez des fichiers de design ou des idées de contenu, spécifiez des langages de programmation, et laissez ChatGPT générer du code ou améliorer le contenu.
  • Organisation d’événements : Un exemple concret montré par OpenAI : organiser un échange Secret Santa. Téléversez une feuille de calcul avec les participants et leurs listes de souhaits, et ChatGPT peut gérer les tâches, y compris envoyer des e-mails anonymes avec les assignations de cadeaux.

Une nouveauté familière, mais essentielle

Si la fonctionnalité Projets vous semble familière, c’est parce qu’elle existe déjà dans Claude, un chatbot concurrent développé par Anthropic. Cependant, la version d’OpenAI s’intègre parfaitement à d’autres outils, comme Canvas et ChatGPT Search, renforçant ainsi son utilité.

Projets marque une avancée significative dans la manière dont les utilisateurs interagissent avec l’IA. Jusqu’ici, ChatGPT souffrait de limitations en matière de mémoire et d’organisation, forçant les utilisateurs à gérer manuellement leurs conversations et fichiers. Avec Projets, c’est un peu comme passer de post-it éparpillés à des classeurs bien rangés.

Limites et points à considérer

Malgré sa puissance, Projets a quelques défis :

  • Importance de la clarté des consignes : Comme l’a montré la démonstration, des instructions vagues peuvent entraîner des résultats inattendus, comme révéler par erreur un Secret Santa.
  • Vérification des résultats : Les utilisateurs devront toujours relire les réponses de ChatGPT pour s’assurer qu’elles répondent à leurs attentes.

Pour l’instant, Projets est disponible uniquement pour les abonnés ChatGPT Plus, Pro, et Teams, mais une version pour les utilisateurs gratuits est en cours de développement.

Projets s’ajoute à une série de nouvelles fonctionnalités dévoilées par OpenAI lors de son événement de fin d’année, comme le moteur de génération vidéo Sora, le modèle de raisonnement o1, et des améliorations à Canvas. OpenAI continue de montrer son engagement à rendre ChatGPT plus polyvalent et adapté à un large éventail de besoins personnels et professionnels.

Si vous êtes abonné, testez la fonctionnalité Projets pour voir comment elle peut transformer votre productivité. Pour les utilisateurs gratuits, un peu de patience : cette fonctionnalité promet de révolutionner la manière dont vous interagissez avec ChatGPT une fois qu’elle sera accessible à tous.

Lire plus
Intelligence Artificielle

Anthropic lance Claude 3.5 Haiku sur son chatbot !

Anthropic lance Claude 3.5 Haiku sur son chatbot !

Anthropic a discrètement lancé Claude 3.5 Haiku, sa dernière version du modèle d’IA, sur le chatbot Claude accessible via le web et les applications mobiles iOS et Android. Cette version, auparavant réservée aux développeurs via l’API depuis son lancement en octobre 2024, s’impose comme une alternative rapide et économique aux modèles plus volumineux, comme ceux de ses concurrents ChatGPT d’OpenAI et Gemini de Google.

Claude 3.5 Haiku: une IA rapide et efficace

Claude 3.5 Haiku est conçu pour les tâches nécessitant rapidité et précision, comme le traitement de grands ensembles de données, l’analyse de documents financiers ou la génération de contenus complexes à partir de longues informations contextuelles. Avec une fenêtre contextuelle de 200 000 tokens, il surpasse les capacités des modèles GPT-4 et GPT-4o, qui plafonnent à 128 000 tokens.

Le modèle intègre également des fonctionnalités d’analyse d’images et de fichiers joints, ce qui le rend particulièrement utile pour les tâches multimédias et les flux de travail impliquant des ensembles de documents volumineux.

Intégration avec les Artifacts pour une expérience enrichie

Claude 3.5 Haiku s’intègre pleinement aux Artifacts, une barre latérale interactive introduite en juin 2024. Cette fonctionnalité permet de manipuler et d’affiner en temps réel les contenus générés par l’IA, notamment via l’exécution d’applications complètes. Lors de tests récents, Haiku a démontré sa puissance en codant une version jouable du jeu Pong en moins d’une minute.

Limites actuelles de Claude 3.5 Haiku

Malgré ses capacités impressionnantes, Haiku présente quelques restrictions. Contrairement à ses concurrents, tels que GPT-4o d’OpenAI, il ne prend pas encore en charge la navigation web ni la génération d’images.

De plus, bien qu’il soit performant sur des tâches complexes, il a échoué à un test courant, comme le « Strawberry Test », qui consiste à identifier les trois R dans le mot strawberry.

Accès et abonnements

Claude 3.5 Haiku est accessible gratuitement via le chatbot Claude, mais les utilisateurs doivent composer avec une limite quotidienne variable de messages, en fonction de la demande sur les serveurs. Sur la version gratuite, cette limite est d’environ 10 échanges (soit 20 messages en tout).

Pour des besoins plus intensifs, Anthropic propose un abonnement Claude Pro à 20 dollars par mois, qui offre jusqu’à 5x plus de capacité d’utilisation, un accès prioritaire en période de forte affluence, et l’accès à des modèles supplémentaires comme Claude 3 Opus.

Coût et performances

Sur l’API, Claude 3.5 Haiku se distingue par son rapport performance-prix attractif. Les coûts commencent à 0,80 dollar par million de tokens en entrée et 4 dollars par million de tokens en sortie, ce qui le rend économique face aux modèles plus volumineux. Des options comme la mise en cache des prompts et l’utilisation de l’API Message Batches permettent de réduire encore davantage les coûts, respectivement jusqu’à 90 % et 50 %.

Lors des tests, Haiku a surpassé de nombreux modèles plus grands, obtenant un score de 40,6 % sur SWE-bench Verified, un benchmark clé en matière de codage, ce qui en fait un excellent choix pour les applications nécessitant rapidité et intelligence.

Points à considérer

Bien que Claude 3.5 Haiku offre des capacités impressionnantes, son absence de fonctionnalités, comme la navigation Web et la génération d’images, pourrait limiter son attrait pour certains utilisateurs. De plus, les limites quotidiennes de messages peuvent frustrer ceux qui ne souhaitent pas s’abonner à la version Pro.

Cependant, pour les tâches nécessitant une précision et une vitesse élevées, ainsi que pour des workflows collaboratifs grâce aux Artifacts, Haiku reste un outil puissant et polyvalent.

Lire plus
Intelligence Artificielle

Le mode vocal avancé de ChatGPT peut désormais voir votre écran et analyser les vidéos

Le mode vocal avancé de ChatGPT peut désormais voir votre écran et analyser les vidéos

Dans le cadre de sa campagne festive « 12 Days of OpenAI », OpenAI a lancé de nouvelles fonctionnalités pour ChatGPT, notamment le Mode Père Noël et des options de partage vidéo et d’écran pour son mode vocal avancé.

Ces mises à jour visent à enrichir l’expérience utilisateur et à offrir des applications pratiques et ludiques pendant la saison des fêtes.

Partage vidéo et écran : Une fonctionnalité très attendue

OpenAI a également introduit une fonctionnalité de partage vidéo et d’écran dans le mode vocal avancé, permettant aux utilisateurs de partager visuellement leur environnement ou leur écran avec ChatGPT pour une assistance en temps réel et contextuelle.

Fonctionnalités principales :

  • Analyse vidéo : Montrez un flux vidéo à ChatGPT et posez des questions sur ce que vous voyez, pour des retours en temps réel.
  • Partage d’écran : Que ce soit pour résoudre un problème ou demander des conseils, partagez votre écran avec ChatGPT pour une aide instantanée sans avoir à décrire longuement vos besoins.

Comment accéder à ces fonctionnalités :

  1. Lancez le mode vocal avancé sur l’application mobile.
  2. Touchez l’icône caméra vidéo en bas à gauche pour activer le partage vidéo.
  3. Pour partager l’écran, sélectionnez le menu à trois points, puis choisissez « Partager l’écran ».

Discutez avec le Père Noël grâce au mode saisonnier de ChatGPT

Le tout nouveau Mode Père Noël transforme ChatGPT en une version virtuelle du célèbre personnage, avec une voix profonde et joviale, et une interface à thème festif. Disponible exclusivement pour les abonnés Plus et Pro, cette fonctionnalité sera active jusqu’à début janvier, sur les applications mobiles et desktop.

Pour activer le mode Père Noël :

  1. Connectez-vous à votre compte ChatGPT Plus ou Pro.
  2. Cliquez sur l’icône flocon de neige à côté de la barre de saisie.
  3. Sélectionnez la voix du Père Noël dans le menu déroulant, confirmez votre choix, et commencez à discuter.

Les conversations en Mode Père Noël sont temporaires et non enregistrées dans votre historique de chat. OpenAI garantit également que ces échanges n’affecteront pas la mémoire de ChatGPT, permettant ainsi une interaction amusante et privée.

Disponibilité et déploiement

Ces nouvelles fonctionnalités sont en cours de déploiement pour les abonnés Plus et Pro dans la plupart des pays, ainsi que pour tous les utilisateurs de Teams. Cependant, en raison des régulations sur la confidentialité, les utilisateurs en UE, Suisse, Islande, Norvège et Liechtenstein devront patienter un peu plus longtemps, la disponibilité étant prévue prochainement. Les utilisateurs Enterprise et Edu auront accès à ces fonctionnalités à partir de janvier 2025.

Jour 4 des « 12 Days of OpenAI »

Ces annonces marquent le 4e jour de l’événement en direct d’OpenAI, qui a déjà dévoilé :

  • Le modèle Sora pour la génération vidéo : Un nouvel outil puissant pour créer des vidéos générées par IA.
  • Le modèle de raisonnement 01 : Pour des capacités logiques et de résolution de tâches complexes.
  • Un abonnement Pro à 200 dollars/mois : Offrant des outils avancés et des limites d’utilisation étendues pour les utilisateurs intensifs.
    Mises à jour de ChatGPT Canvas : Améliorations pour des fonctionnalités collaboratives et d’édition visuelle.

Que ce soit pour discuter avec le Père Noël ou partager votre écran pour résoudre un problème, les mises à jour d’OpenAI promettent une expérience ChatGPT plus interactive et festive cette saison. 🎄

Lire plus