mercredi 3 octobre 2007

Optimisation des URL de pages dynamiques

Présence de mots-clé dans les URL

Il est préférable d'utiliser des mots-clés stratégiques dans les URL, plutôt que des nombres ou des éléments dénués de sens. En effet, comme je l'avais montré dans un test publié sur WRI, les moteurs tiennent compte de la présence de mots-clés dans les URL. Par contre, ne vous attendez pas à des miracles avec cette optimisation, ce critère étant peu pris en compte. En résumé : si vous le pouvez (aidez-vous de la réécriture d'URL), utilisez des mots ayant du sens dans vos URL.

Tant qu'à faire, évitez d'utiliser dans ces URL certains mots apportant trop peu de sens (les articles par exemple). Mais dans certains cas il est nécessaire d'en garder (soit parce qu'ils sont importants en terme de référencement comme dans La Rochelle ou l'article La est important, soit pour rendre l'URL compréhensible).

Bonus pour AdSense

Si l'URL contient les mots-clés associés à la page, AdSense pourra s'en servir pour mieux cibler les publicités, surtout pour les tout premiers affichages quand la page vient d'être publiée.

Séparateurs de mots dans les URL

Pour séparer correctement les mots dans les URL, il faut utiliser des caractères interprétés comme des séparateurs par les moteurs de recherche. L'espace est déconseillé, mieux vaut utiliser le tiret, la virgule, la barre en biais (/) ou la barre verticale, mais pas le tiret bas (underscore : _). Ne vous fiez pas à la mise en gras de certains mots ou expressions dans les pages de résultats de Google, la gestion de l'affichage des résultats et l'algorithme de classement des résultats sont deux processus distincts. Pour l'instant, MSN Search indexe rarement les pages dont l'URL comporte plus de 2 tirets.

Longueur des URL

La longueur n'est pas un problème pour les moteurs, qui indexent des URL très longues. Par contre, ce n'est pas très pratique à exploiter, par exemple quand une URL est copiée dans un forum ou un blog, elle est souvent tronquée pour éviter de déformer l'affichage. Dans ce cas, les éventuels mots-clés qui la composent risquent de ne pas apparaître. Certains disent qu'il faut se limiter à 255 caractères, ce qui laisse déjà de la marge !

URL multiples

Si une page est accessible à deux URL (ou plus), il y a un risque de contenu dupliqué (duplicate content). Si un même contenu est accessible à plusieurs endroits, les moteurs de recherche tentent de déterminer ce qu'on appelle l'URL canonique, c'est-à-dire l'URL de la page la plus légitime (par exemple celle qui reçoit le plus de liens). Ils n'indexent alors que cette URL canonique, et n'indexent pas les autres (par exemple, Google vient d'améliorer son algorithme à ce sujet depuis la mise en place de BigDaddy). Le problème est qu'il est difficile de prévoir quelle URL va être retenue par les moteurs. Par ailleurs, avoir une page accessible à plusieurs URL est mauvais également en terme de stratégies de liens, puisque l'optimisation s'éparpille sur plusieurs URL plutôt que de se concentrer sur une seule. Voilà pourquoi il faut faire attention de ne pas avoir d'URL multiples pour une page donnée.

A ce propos, comme l'indique SuperPJ dans les commentaires, si on utilise l'URL Rewriting, il ne faut pas oublier de désindexer les pages dynamiques ayant l'ancien format d'URL. Pour cela, il faut utiliser le fichier robots.txt. Dans le cas contraire, une même page sera accessible sur 2 URL ce qui posera des problèmes de duplicate content.

Aucun commentaire: