février 27, 2010 1

[épisode 2] Référencement de ce blog, techniques, idées, choix

By in Référencement/SEO

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO.

Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent:

  • proposer un contenu de bonne facture, argumenté, référencé.
  • “soyez comme vous êtes et pas comme vous aimeriez être”; autrement dit, faire preuve de transparence, d’honnêteté, ne pas se créer un personnage blogueur, qui sera vite démasqué et dénigré par vos potentiels visiteurs.
  • utiliser avec précision et parcimonie les outils de référencement, les annuaires.
  • intervenir là ou vous souhaitez qu’on vous attende; si vous parlez de fleurs, intervenez sur les forums/blog/sites qui parlent de fleurs! Plus vous ferez bonne impression, plus vous attirerez de visiteurs sans risquez de manquer votre coeur de cible.

Titre, description,keywords

Oui, je sais, vieille vielle rengaine. N’empeche qu’une recherche Google montre bien que

  1. soit certains se fichent de leur référencement
  2. soit il est finalement bon de répéter cette rengaine.

Que ce soit pour un blog ou pour un site, chacune de vos pages se doit d’avoir au minimum les balises meta TITLE, DESCRIPTION et KEYWORDS. L’utilité de cette derniere balise étant perfectible, je dirais qu’a défaut de servir à quelque chose, elle ne gêne en rien.

Sous wordpress, rien de tel pour répondre à ce besoin avec le plugin All in One SEO.

Un sitemap de toute beauté.

Le sitemap est, littéralement, un plan de site. Ce protocole est un standard, fondé sur une syntaxe XML, dans lequel on peut trouver :

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.example.com/</loc>
      <lastmod>2005-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
</urlset>

Bien qu’un sitemap ne soit pas en soi la garantie d’un référencement optimal, il est un point d’entrée intéressant pour tout robot d’indexation, en lui fournissant non seulement l’url des pages de votre site, mais également des méta-données relatives à l’importance de chaque page, à sa fréquence de mise à jour…

Associé à un fichier robots.txt (dont on reparlera plus tard) qui indiquera l’url vers ce fameux sitemap, l’ensemble des pages de votre site est sûr de ne pas être raté par les crawlers.

Encore une fois, WordPress dispose d’un excellent plugin pour générer à la volée, dès la mise à jour de votre contenu, un sitemap : le Google Sitemap Generator. Ce plugin, en plus de générer ledit fichier, va automatiquement pinger les robots Google, Yahoo, Ask et Bing, leur signalant ainsi de nouveaux contenus qu’ils peuvent s’empresser de venir indexer.

Enfin, n’oubliez pas que si vous disposez d’un flux RSS, il peut faire office de sitemap (ah, tiens, du xml encore… bizarre…).

Woorank.com, et les outils de synthèse sémantico-techniques

Sans être des référents parfaits, les outils de synthèse à la fois techniques et sémantiques auront le mérite, en peu de temps, de mettre le doigt là où ca peut faire mal.

Ainsi, Woorank propose de benchmarker votre site de fond en comble, en abordant autant les aspects purement techniques, et des aspects plus sémantiques, qui rentrent en ligne de mire pour le parfait SEO.

WooRank of pixelboy.fr

Il existe beaucoup d’outils de ce genre, mais celui-ci à le mérite de hiérarchiser avec clarté les informations, et en prime de proposer des pistes pour l’optimisation. Un coup d’oeil régulier à ce type d’outils vous permettra de remonter les problèmes impactant sur le référencement de votre site/blog.

URL rewritting, oui !

Tous les grands CMS d’aujourd’hui proposent cette option, mais pour un site home made, il faudra prendre soin de tweaker son .htaccess, et sa config Apache, pour générer des url dites ‘user-friendly.’

En fait il s’agit de rendre vos url, comprenant à l’origine des variables incompréhensibles, humainement lisibles. Mais quel intéret pour le référencement ? Il est double en fait.

Quand vous lisez ceci, vous ne comprenez sans doute pas grand, et meme si vous comprenez cette url, vous auriez du mal à la retenir:

http://www.pixelboy.fr/article.php?action=edit&post=568&category=5

Alors que si vous lisez et bookmarkez et devez diffuser cette url:

http://www.pixelboy.fr/ecommerce/le-ecommerce-en-2010

ca devient tout de suite beaucoup plus facile.

Mais la réécriture d’urls n’a pas que l’avantage de transfomer vos url en fil d’ariane, cette technique à aussi le mérite de sécuriser (partiellement cela va de soi) vos variables, et bien entendu de faciliter l’indexation et la compréhension pour les robots crawlers de ce qu’ils indexent. Ces robots n’acceptent en effet qu’un nombre limité de variables (dans l’exemple ci-dessus, on a trois variables, action, post et category), contre des url sans variable plus longues.

Assurer la dégradabilité de votre site/blog

Si vous avez respecté tout ou partie des recommandations de cet article ainsi que de l’article précédent, vous devriez avoir un contenu lisible facilement par un robot d’indexation.

En effet, un robot d’indexation ne voit pas le contenu de votre site avec les mêmes yeux que vous.

Quand vous voyez ca:

le robot Google par exemple, voit ca :


En clair, le robot lit le document html qui lui est fourni, quand vous voyez la traduction de ce meme code html par votre navigateur web.

Or, et c’est la qu’il faut assurer la portablité/dégradabilité de site/blog, votre navigateur est capable d’interpréter une partie très agréable de votre site que le crawler ne lira pas (pas encore, même si ca commence à évoluer ): le javascript.

La meilleure manière de s’assurer que votre site, full ajax, blindé d’animations js, sera correctement lu et compris par les robots, c’est de tester, tester, tester. Je ne peux que vous conseiller deux solutions complémentaires:

  • d’abord, utilisez un lynx viewer (Lynx, c’est le navigateur textuel par excellence, qui se content d’afficher le contenu du site, sans se soucier des styles, scripts… http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php
  • ensuite, d’installer l’excellente web dev toolbar sous firefox. Je vous épargnerai un tuto sur l’utilisation de ce plugin, mais sachez que cet outil va vous permettre de naviguer sur votre site en désactivant le javascript, les css, de linéariser votre contenu, et par ailleurs de vous permettre de quantifier précisément le poids de vos pages etc etc… un must have donc !

Méfiez vous toutefois de pratiquer cette dégradabilité avec classe, sinon, ca va sentir le cloaking, et ca, les robots détestent !

Poids, ratio contenu/html

Récemment Google à introduit une section dans ses outils pour webmasters : “Performances de site”. C’est loin d’etre une nouveauté, mais là, ca marque un tournant : non seulement votre contenu est important aux yeux des robots, mais votre code est pénalisant par rapport à ce même référencement ! Le ratio entre le poids du code html et le poids de vos contenus est important. Ahhhh… mais c’est là finalement qu’un balisage sémantique et conforme W3C devient logique si jusqu’à présent vous n’y faisiez pas attention. Styles inline, tableaux, insertions de styles et de scripts, tout cela devient complètement pénalisant aux yeux des robots, qui ne se fatigueront pas à faire le tri entre le code et le contenu : si votre page est trop lourde, s’ils mettent trop de temps à indexer votre page, ils zappent !! Et votre référencement en pâti.

Prenez donc l’habitude de compresser votre code js et css, et passez si ce n’est déja fait à un code sémantique, rigoureux, respectueux, vous n’en serez que mieux référencé.

Léo, qui est intervenu dans les commentaires de précédents article, en parle sur son blog.

Bannir le duplicate content, et les redirections autres que 301

La seule redirection que les moteurs accèptent est la redirection 301. Selon Wikipedia, ” 301 Moved permanently, This and all future requests should be directed to the given URI”. Donc, ne jouez pas avec le feu en proposant des redirections que vous ne maitriseriez pas : 301 ou rien.

Le duplicate content, c’est le black listage assuré.

Vous ne pouvez plus passer outre les version mobiles de votre contenu

La version mobile de votre site sera indexée exactement de la meme manière que sa version desktop… MAIS : fournir votre contenu sans adapter son affichage aux smartphones, c’est le rendre illisible, inapproprié, et donc, d’une certaine manière, vous nuirez à votre référencement. Vous vous devez de peser les tenants e les aboutissants de l’existence d’une version mobile (cibles potentielles…) , et, le cas échéant, mettre autant d’amour dans cette version ‘allégée’.

Vous l’avez vu, techniquement, le référencement d’un blog est vraiment une savante équation, qui demande du temps, de l’attention, et beaucoup de travail. Je ne peux conclurre qu’en vous ce-onseillant quelques outils dont vous ne pourrez pas vous passer pour tester, tester tester !!

D’ici quelques temps, je rédigerai un dernier article pour conclure cette série d’articles destinée à vous décrire comment, pourquoi, et par ùu commencer pour améliorer son référencement.

Tags: , , , ,

One Response to “[épisode 2] Référencement de ce blog, techniques, idées, choix”

  1. Re salut PixelBoy (cela ressemble un un nom de super-héros ;) )

    Tout d’abord merci pour le la mention et le lien. Ton article donne de très bonnes pistes pour évaluer et améliorer le référencement de son site.

    J’aimerai simplement revenir sur 2 petits points : la redirection et la vitesse.

    Les robots acceptent d’autres redirection que la 301 et utiliser une redirection 302 (temporaire) peut parfois être utile. C’est le cas, par exemple, lors d’une campagne de pub qui entraine un changement radical de design / branding de la page d’accueil d’un site. Il est possible de rediriger le visiteur et les robots temporairement vers une URL secondaire.

    Sur le point de la vitesse, la “propreté” du code et l’optimisation du ratio html/contenu ne peuvent souvent faire gagner que quelques centièmes de secondes. Par contre la compression (gzip et minification), le nombre de requêtes, ainsi que le serveur et le type de site (WP/Joomla/base de données vs PHP pur sans BDD ou carrément HTML statique) auront une grande influence sur la vitesse d’un site.

    Vivement article n°3 :)

Leave a Reply