Matt Cutts est un blogueur très suivi puisqu’il communique régulièrement auprès de la communauté SEO des informations sur Google. Après avoir publié une vidéo dans laquelle il explique de façon très didactique les différentes étapes de fonctionnement du moteur de recherche de Google, crawl, indexation et ranking, Matt vient de publier une nouvelle vidéo sur la chaine Youtube, Google Webmaster Help, discutant de la façon dont Google traite l’Ajax, acronyme d’Asynchronous JavaScript and XML. Il va décrire point par point la réponse à la question soumise par les utilisateurs :
How effective is Google now at handling content supplied via Ajax, is this likely to improve in the future?
Note : Traduction : Désormais, quelle est l’efficacité de Google à manipuler du contenu fourni via la technologie Ajax, et cela va t-il progresser à l’avenir ?
« Et bien, permettez-moi de prendre l’Ajax, qui est Asynchronous JavaScript, et de le rendre tout simplement Javascript pour le moment » explique Cutts. « Google devient plus efficace au fil du temps, ce qui fait qu’actuellement nous ayons la capacité de non seulement de parcourir dans le contenu Javascript pour chercher des URL, mais également la capacité de traiter une partie du code JavaScript », poursuit-il. Ainsi, il est important pour aider l’indexation de votre site, autrement dit l’examen de votre site Web par le GoogleBot, que Google soit en mesure de comprendre le code JavaScript, notamment pour ceux qui utilisent ce langage pour aider à la navigation, où par des menus déroulants, ou toutes sortes de choses… Alors que l’on sait que l’Asynchronous JavaScript est un peu plus compliqué, et qu’il va peut-être devenir à l’avenir le standard, ne doit pas être une priorité, « le cas le plus courant étant le JavaScript », dit-il.
« Nous sommes de mieux en mieux, et nous continuons à améliorer la façon dont nous sommes en mesure de traiter le JavaScript » poursuit-il. Ensuite, il lâche une information très importante. En effet, il indique que si vous bloquez le JavaScript ou le CSS dans votre fichier robots.txt
, le GoogleBot ne pourra malheureusement pas l’indexer ! Sachez que c’est regrettable puisque le robot de Google peut analyser le JavaScript ainsi que le CSS, « because that makes it a lot easier for us to figure out what’s going on if we’re processing the Javascript or if we’re seeing and able to process and get a better idea of what the page is like », indique t-il.
En fait, Cutts a effectivement publié une vidéo séparée à ce sujet le mois dernier, dans lequel il indique que si vous bloquez l’indexation par Googlebot du JavaScript ou du CSS, malheureusement Google ne pourra se faire une idée de ce qui se passe sur votre page. Laissez donc le robot explorer vos fichiers JavaScript et CSS…
Alors, allez-vous autoriser le GoogleBot venir indexer vos fichiers ? Plus généralement, que pensez-vous de votre indexation sur Google ? Venez réagir à ce mini débat.