Alors que l’année a été dominée par les polémiques autour de Siri, l’un des succès de l’assistant vocal d’Apple — sa capacité à commencer à écouter lorsqu’il est invoqué avec « Hey Siri » — est le sujet de la dernière entrée dans le Machine Learning Journal, qui fait également allusion à de futures améliorations pour la fonctionnalité. Le blog explique comment les appareils iOS écoutent en permanence l’invite et indique les progrès de l’IA qui pourraient éliminer le besoin de Siri pour la formation initiale.
Dans « Personalized Hey Siri », l’équipe note que certains des plus grands défis de la fonctionnalité sont les activations accidentelles et les activations accidentellement manquées. Actuellement, Apple tente de prévenir ces problèmes en initiant Siri avec la voix du propriétaire de l’appareil, et demandant aux utilisateurs de former brièvement l’assistant avec cinq courtes phrases, qui créent un profil d’utilisateur stocké dans l’appareil. Siri ajoute ensuite tranquillement les 35 prochaines phrases « acceptées » de l’utilisateur pour améliorer le profil.
Ce qui est intéressant à propos du déclencheur « Hey Siri », c’est que le profil n’essaie pas seulement de faire correspondre une seule empreinte vocale avec les répétitions ultérieures de la même phrase. Au lieu de cela, le profil inclut finalement une version de base de la phrase avec 40 variations mathématiquement notées ; Siri ne se réveille que si un énoncé « Hey Siri » donné est égal ou supérieur au score moyen. L’appareil stocke également les enregistrements de ces 40 requêtes, ce qui permet de reconstruire le profil de l’utilisateur sans que ce dernier se perfectionne à chaque fois qu’Apple améliore le système avec une mise à jour logicielle.
À l’avenir, Apple s’attend à ce que Siri ne soit pas formé à l’avance — le profil d’utilisateur commencera vide, puis utilisera la permission de l’utilisateur pour se développer et se mettre à jour organiquement au fur et à mesure que d’autres demandes arriveront. L’entreprise travaille également sur les moyens d’éliminer les « faux déclenchements ». En utilisant un réseau neuronal profond, Apple croit qu’elle pourrait réduire le taux de fausse acceptation de 50 %, le taux de faux rejet (lorsque l’utilisateur dit « Hey Siri », mais que l’appareil ne répond pas) d’environ 40 %, et l’activation de Siri par une autre personne de près de 75 %.
Une prochaine annonce dans la WWDC 2018
L’autre astuce consiste à faire en sorte que Siri soit plus performant dans les grandes pièces réverbérantes et les environnements bruyants tels que les voitures ou les environnements extérieurs venteux. L’équipe d’Apple précise qu’elle recherche actuellement des moyens de traiter les environnements présentant des graves discordants avec les enregistrements Hey Siri existants du profil utilisateur.
Parce qu’Apple change continuellement Siri et ne signale pas nécessairement toutes les modifications, il n’est pas clair quand les améliorations mises en évidence ci-dessus seront mises en œuvre. Cela dit, la société souligne fréquemment les changements majeurs apportés à Siri lors de la conférence mondiale des développeurs de juin, et étant donné la quantité de discussions récentes sur les lacunes de Siri, nous nous attendons à entendre des annonces majeures dans un proche avenir.