Le ratio ultime : sources du trafic de ce blog

Lire Plus

Merci, merci, merci ! J’ai atteind l’ultime ratio en terme de sources de traffic.

Autrement dit, vous êtes aussi nombreux en accès direct, via les moteurs de recherches, et via les sites référents (réseaux sociaux et compagnie).

Et comme, dans Google Analytics, c’est vachement beau, voila, je verse ma larme et et je partage!

Merci encore, j’espere continuer à vous régaler, vous intéresser, bref, que ce blog continue de vous plaire!

Référencement de ce blog, épisode 2 : techniques, idées, choix.

Lire Plus

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO

Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent:

  • proposer un contenu de bonne facture, argumenté, référencé.
  • “soyez comme vous êtes et pas comme vous aimeriez être”; autrement dit, faire preuve de transparence, d’honnêteté, ne pas se créer un personnage blogueur, qui sera vite démasqué et dénigré par vos potentiels visiteurs.
  • utiliser avec précision et parcimonie les outils de référencement, les annuaires.
  • intervenir là ou vous souhaitez qu’on vous attende; si vous parlez de fleurs, intervenez sur les forums/blog/sites qui parlent de fleurs! Plus vous ferez bonne impression, plus vous attirerez de visiteurs sans risquez de manquer votre coeur de cible.

Titre, description,keywords

Oui, je sais, vieille vielle rengaine. N’empeche qu’une recherche Google montre bien que

  1. soit certains se fichent de leur référencement
  2. soit il est finalement bon de répéter cette rengaine.

Que ce soit pour un blog ou pour un site, chacune de vos pages se doit d’avoir au minimum les balises meta TITLE, DESCRIPTION et KEYWORDS. L’utilité de cette derniere balise étant perfectible, je dirais qu’a défaut de servir à quelque chose, elle ne gêne en rien.

Sous wordpress, rien de tel pour répondre à ce besoin avec le plugin All in One SEO

Un sitemap de toute beauté.

Le sitemap est, littéralement, un plan de site. Ce protocole est un standard, fondé sur une syntaxe XML, dans lequel on peut trouver :

<?xml version="1.0" encoding="UTF-8"?><urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">   <url>      <loc>http://www.example.com/</loc>      lastmod>2005-01-01</lastmod>      <changefreq>monthly</changefreq>      <priority>0.8</priority>   </url></urlset>

Bien qu’un sitemap ne soit pas en soi la garantie d’un référencement optimal, il est un point d’entrée intéressant pour tout robot d’indexation, en lui fournissant non seulement l’url des pages de votre site, mais également des méta-données relatives à l’importance de chaque page, à sa fréquence de mise à jour…

Associé à un fichier robots.txt (dont on reparlera plus tard) qui indiquera l’url vers ce fameux sitemap, l’ensemble des pages de votre site est sûr de ne pas être raté par les crawlers.

Encore une fois, WordPress dispose d’un excellent plugin pour générer à la volée, dès la mise à jour de votre contenu, un sitemap : le Google Sitemap Generator. Ce plugin, en plus de générer ledit fichier, va automatiquement pinger les robots Google, Yahoo, Ask et Bing, leur signalant ainsi de nouveaux contenus qu’ils peuvent s’empresser de venir indexer.

Enfin, n’oubliez pas que si vous disposez d’un flux RSS, il peut faire office de sitemap (ah, tiens, du xml encore… bizarre…).

Woorank.com, et les outils de synthèse sémantico-techniques

Sans être des référents parfaits, les outils de synthèse à la fois techniques et sémantiques auront le mérite, en peu de temps, de mettre le doigt là où ca peut faire mal.

Ainsi, Woorank propose de benchmarker votre site de fond en comble, en abordant autant les aspects purement techniques, et des aspects plus sémantiques, qui rentrent en ligne de mire pour le parfait SEO.

Il existe beaucoup d’outils de ce genre, mais celui-ci à le mérite de hiérarchiser avec clarté les informations, et en prime de proposer des pistes pour l’optimisation. Un coup d’oeil régulier à ce type d’outils vous permettra de remonter les problèmes impactant sur le référencement de votre site/blog.

URL rewritting, oui !

Tous les grands CMS d’aujourd’hui proposent cette option, mais pour un site home made, il faudra prendre soin de tweaker son .htaccess, et sa config Apache, pour générer des url dites ‘user-friendly.’

En fait il s’agit de rendre vos url, comprenant à l’origine des variables incompréhensibles, humainement lisibles. Mais quel intéret pour le référencement ? Il est double en fait.

Quand vous lisez ceci, vous ne comprenez sans doute pas grand, et meme si vous comprenez cette url, vous auriez du mal à la retenir:

/article.php?action=edit&post=568&category=5

Alors que si vous lisez et bookmarkez et devez diffuser cette url:

/ecommerce/le-ecommerce-en-2010

ca devient tout de suite beaucoup plus facile.

Mais la réécriture d’urls n’a pas que l’avantage de transfomer vos url en fil d’ariane, cette technique à aussi le mérite de sécuriser (partiellement cela va de soi) vos variables, et bien entendu de faciliter l’indexation et la compréhension pour les robots crawlers de ce qu’ils indexent. Ces robots n’acceptent en effet qu’un nombre limité de variables (dans l’exemple ci-dessus, on a trois variables, action, post et category), contre des url sans variable plus longues.

Assurer la dégradabilité de votre site/blog

Si vous avez respecté tout ou partie des recommandations de cet article ainsi que de l’article précédent, vous devriez avoir un contenu lisible facilement par un robot d’indexation.

En effet, un robot d’indexation ne voit pas le contenu de votre site avec les mêmes yeux que vous.

Quand vous voyez ca:

le robot Google par exemple, voit ca :

En clair, le robot lit le document html qui lui est fourni, quand vous voyez la traduction de ce meme code html par votre navigateur web.

Or, et c’est la qu’il faut assurer la portablité/dégradabilité de site/blog, votre navigateur est capable d’interpréter une partie très agréable de votre site que le crawler ne lira pas (pas encore, même si ca commence à évoluer ): le javascript

La meilleure manière de s’assurer que votre site, full ajax, blindé d’animations js, sera correctement lu et compris par les robots, c’est de tester, tester, tester. Je ne peux que vous conseiller deux solutions complémentaires:

  • d’abord, utilisez un lynx viewer (Lynx, c’est le navigateur textuel par excellence, qui se content d’afficher le contenu du site, sans se soucier des styles, scripts… http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php
  • ensuite, d’installer l’excellente web dev toolbar sous firefox. Je vous épargnerai un tuto sur l’utilisation de ce plugin, mais sachez que cet outil va vous permettre de naviguer sur votre site en désactivant le javascript, les css, de linéariser votre contenu, et par ailleurs de vous permettre de quantifier précisément le poids de vos pages etc etc… un must have donc !

Méfiez vous toutefois de pratiquer cette dégradabilité avec classe, sinon, ca va sentir le cloaking, et ca, les robots détestent !

Poids, ratio contenu/html

Récemment Google à introduit une section dans ses outils pour webmasters : “Performances de site”. C’est loin d’etre une nouveauté, mais là, ca marque un tournant : non seulement votre contenu est important aux yeux des robots, mais votre code est pénalisant par rapport à ce même référencement ! Le ratio entre le poids du code html et le poids de vos contenus est important. Ahhhh… mais c’est là finalement qu’un balisage sémantique et conforme W3C devient logique si jusqu’à présent vous n’y faisiez pas attention. Styles inline, tableaux, insertions de styles et de scripts, tout cela devient complètement pénalisant aux yeux des robots, qui ne se fatigueront pas à faire le tri entre le code et le contenu : si votre page est trop lourde, s’ils mettent trop de temps à indexer votre page, ils zappent !! Et votre référencement en pâti.

Prenez donc l’habitude de compresser votre code js et css, et passez si ce n’est déja fait à un code sémantique, rigoureux, respectueux, vous n’en serez que mieux référencé.

Léo, qui est intervenu dans les commentaires de précédents article, en parle sur son blog

Bannir le duplicate content, et les redirections autres que 301

La seule redirection que les moteurs accèptent est la redirection 301. Selon Wikipedia, ” 301 Moved permanently, This and all future requests should be directed to the given URI”. Donc, ne jouez pas avec le feu en proposant des redirections que vous ne maitriseriez pas : 301 ou rien.

Le duplicate content, c’est le black listage assuré.

Vous ne pouvez plus passer outre les version mobiles de votre contenu

La version mobile de votre site sera indexée exactement de la meme manière que sa version desktop… MAIS : fournir votre contenu sans adapter son affichage aux smartphones, c’est le rendre illisible, inapproprié, et donc, d’une certaine manière, vous nuirez à votre référencement. Vous vous devez de peser les tenants e les aboutissants de l’existence d’une version mobile (cibles potentielles…) , et, le cas échéant, mettre autant d’amour dans cette version ‘allégée’.

Vous l’avez vu, techniquement, le référencement d’un blog est vraiment une savante équation, qui demande du temps, de l’attention, et beaucoup de travail. Je ne peux conclurre qu’en vous ce-onseillant quelques outils dont vous ne pourrez pas vous passer pour tester, tester tester !!

D’ici quelques temps, je rédigerai un dernier article pour conclure cette série d’articles destinée à vous décrire comment, pourquoi, et par ùu commencer pour améliorer son référencement.

[épisode 2] Référencement de ce blog, techniques, idées, choix

Lire Plus

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO.

Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent:

  • proposer un contenu de bonne facture, argumenté, référencé.
  • « soyez comme vous êtes et pas comme vous aimeriez être »; autrement dit, faire preuve de transparence, d’honnêteté, ne pas se créer un personnage blogueur, qui sera vite démasqué et dénigré par vos potentiels visiteurs.
  • utiliser avec précision et parcimonie les outils de référencement, les annuaires.
  • intervenir là ou vous souhaitez qu’on vous attende; si vous parlez de fleurs, intervenez sur les forums/blog/sites qui parlent de fleurs! Plus vous ferez bonne impression, plus vous attirerez de visiteurs sans risquez de manquer votre coeur de cible.

Titre, description,keywords

Oui, je sais, vieille vielle rengaine. N’empeche qu’une recherche Google montre bien que

  1. soit certains se fichent de leur référencement
  2. soit il est finalement bon de répéter cette rengaine.

Que ce soit pour un blog ou pour un site, chacune de vos pages se doit d’avoir au minimum les balises meta TITLE, DESCRIPTION et KEYWORDS. L’utilité de cette derniere balise étant perfectible, je dirais qu’a défaut de servir à quelque chose, elle ne gêne en rien.

Sous wordpress, rien de tel pour répondre à ce besoin avec le plugin All in One SEO.

Un sitemap de toute beauté.

Le sitemap est, littéralement, un plan de site. Ce protocole est un standard, fondé sur une syntaxe XML, dans lequel on peut trouver :

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.example.com/</loc>
      <lastmod>2005-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
</urlset>

Bien qu’un sitemap ne soit pas en soi la garantie d’un référencement optimal, il est un point d’entrée intéressant pour tout robot d’indexation, en lui fournissant non seulement l’url des pages de votre site, mais également des méta-données relatives à l’importance de chaque page, à sa fréquence de mise à jour…

Associé à un fichier robots.txt (dont on reparlera plus tard) qui indiquera l’url vers ce fameux sitemap, l’ensemble des pages de votre site est sûr de ne pas être raté par les crawlers.

Encore une fois, WordPress dispose d’un excellent plugin pour générer à la volée, dès la mise à jour de votre contenu, un sitemap : le Google Sitemap Generator. Ce plugin, en plus de générer ledit fichier, va automatiquement pinger les robots Google, Yahoo, Ask et Bing, leur signalant ainsi de nouveaux contenus qu’ils peuvent s’empresser de venir indexer.

Enfin, n’oubliez pas que si vous disposez d’un flux RSS, il peut faire office de sitemap (ah, tiens, du xml encore… bizarre…).

Woorank.com, et les outils de synthèse sémantico-techniques

Sans être des référents parfaits, les outils de synthèse à la fois techniques et sémantiques auront le mérite, en peu de temps, de mettre le doigt là où ca peut faire mal.

Ainsi, Woorank propose de benchmarker votre site de fond en comble, en abordant autant les aspects purement techniques, et des aspects plus sémantiques, qui rentrent en ligne de mire pour le parfait SEO.

Il existe beaucoup d’outils de ce genre, mais celui-ci à le mérite de hiérarchiser avec clarté les informations, et en prime de proposer des pistes pour l’optimisation. Un coup d’oeil régulier à ce type d’outils vous permettra de remonter les problèmes impactant sur le référencement de votre site/blog.

URL rewritting, oui !

Tous les grands CMS d’aujourd’hui proposent cette option, mais pour un site home made, il faudra prendre soin de tweaker son .htaccess, et sa config Apache, pour générer des url dites ‘user-friendly.’

En fait il s’agit de rendre vos url, comprenant à l’origine des variables incompréhensibles, humainement lisibles. Mais quel intéret pour le référencement ? Il est double en fait.

Quand vous lisez ceci, vous ne comprenez sans doute pas grand, et meme si vous comprenez cette url, vous auriez du mal à la retenir:

/article.php?action=edit&post=568&category=5

Alors que si vous lisez et bookmarkez et devez diffuser cette url:

/ecommerce/le-ecommerce-en-2010

ca devient tout de suite beaucoup plus facile.

Mais la réécriture d’urls n’a pas que l’avantage de transfomer vos url en fil d’ariane, cette technique à aussi le mérite de sécuriser (partiellement cela va de soi) vos variables, et bien entendu de faciliter l’indexation et la compréhension pour les robots crawlers de ce qu’ils indexent. Ces robots n’acceptent en effet qu’un nombre limité de variables (dans l’exemple ci-dessus, on a trois variables, action, post et category), contre des url sans variable plus longues.

Assurer la dégradabilité de votre site/blog

Si vous avez respecté tout ou partie des recommandations de cet article ainsi que de l’article précédent, vous devriez avoir un contenu lisible facilement par un robot d’indexation.

En effet, un robot d’indexation ne voit pas le contenu de votre site avec les mêmes yeux que vous.

Quand vous voyez ca:

le robot Google par exemple, voit ca :

En clair, le robot lit le document html qui lui est fourni, quand vous voyez la traduction de ce meme code html par votre navigateur web.

Or, et c’est la qu’il faut assurer la portablité/dégradabilité de site/blog, votre navigateur est capable d’interpréter une partie très agréable de votre site que le crawler ne lira pas (pas encore, même si ca commence à évoluer ): le javascript.

La meilleure manière de s’assurer que votre site, full ajax, blindé d’animations js, sera correctement lu et compris par les robots, c’est de tester, tester, tester. Je ne peux que vous conseiller deux solutions complémentaires:

  • d’abord, utilisez un lynx viewer (Lynx, c’est le navigateur textuel par excellence, qui se content d’afficher le contenu du site, sans se soucier des styles, scripts… http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php
  • ensuite, d’installer l’excellente web dev toolbar sous firefox. Je vous épargnerai un tuto sur l’utilisation de ce plugin, mais sachez que cet outil va vous permettre de naviguer sur votre site en désactivant le javascript, les css, de linéariser votre contenu, et par ailleurs de vous permettre de quantifier précisément le poids de vos pages etc etc… un must have donc !

Méfiez vous toutefois de pratiquer cette dégradabilité avec classe, sinon, ca va sentir le cloaking, et ca, les robots détestent !

Poids, ratio contenu/html

Récemment Google à introduit une section dans ses outils pour webmasters : « Performances de site ». C’est loin d’etre une nouveauté, mais là, ca marque un tournant : non seulement votre contenu est important aux yeux des robots, mais votre code est pénalisant par rapport à ce même référencement ! Le ratio entre le poids du code html et le poids de vos contenus est important. Ahhhh… mais c’est là finalement qu’un balisage sémantique et conforme W3C devient logique si jusqu’à présent vous n’y faisiez pas attention. Styles inline, tableaux, insertions de styles et de scripts, tout cela devient complètement pénalisant aux yeux des robots, qui ne se fatigueront pas à faire le tri entre le code et le contenu : si votre page est trop lourde, s’ils mettent trop de temps à indexer votre page, ils zappent !! Et votre référencement en pâti.

Prenez donc l’habitude de compresser votre code js et css, et passez si ce n’est déja fait à un code sémantique, rigoureux, respectueux, vous n’en serez que mieux référencé.

Léo, qui est intervenu dans les commentaires de précédents article, en parle sur son blog.

Bannir le duplicate content, et les redirections autres que 301

La seule redirection que les moteurs accèptent est la redirection 301. Selon Wikipedia,  » 301 Moved permanently, This and all future requests should be directed to the given URI ». Donc, ne jouez pas avec le feu en proposant des redirections que vous ne maitriseriez pas : 301 ou rien.

Le duplicate content, c’est le black listage assuré.

Vous ne pouvez plus passer outre les version mobiles de votre contenu

La version mobile de votre site sera indexée exactement de la meme manière que sa version desktop… MAIS : fournir votre contenu sans adapter son affichage aux smartphones, c’est le rendre illisible, inapproprié, et donc, d’une certaine manière, vous nuirez à votre référencement. Vous vous devez de peser les tenants e les aboutissants de l’existence d’une version mobile (cibles potentielles…) , et, le cas échéant, mettre autant d’amour dans cette version ‘allégée’.

Vous l’avez vu, techniquement, le référencement d’un blog est vraiment une savante équation, qui demande du temps, de l’attention, et beaucoup de travail. Je ne peux conclurre qu’en vous ce-onseillant quelques outils dont vous ne pourrez pas vous passer pour tester, tester tester !!

D’ici quelques temps, je rédigerai un dernier article pour conclure cette série d’articles destinée à vous décrire comment, pourquoi, et par ùu commencer pour améliorer son référencement.

Référencement de ce blog, techniques,idées, choix

Lire Plus

Malgré un trafic régulier, cela reste léger par rapport à mes objectifs de diffusion et de partage de l’information. Sans être à la recherche de l’équation ultime me permettant de monétiser ce blog, j’espère surtout pouvoir asseoir ma vision du web, qui est par ailleurs mon gagne pain,  comme intéressante et juste, voire, pourquoi pas, comme une référence en la matière.

J’attaque donc aujourd’hui une campagne de référencement de ce blog. Jusqu’à présent, je me suis contenté de relayer les infos de ce site sur Twitter, Facebook, et LinkedIn, mais sans vraiment chercher à etre repris, relayé, diffusé.

Mais il devient évident que, vu le “bruit de fond” omniprésent sur ces supports, deux solutions s’offrent à moi :

  • me concentrer sur ces modes de relai, au risque de ne jamais vraiment tirer mon épingle du jeu, à moins d’être “retweeté” un jour par L. Le Meur et consorts,
  • trouver d’autres canaux de diffusion, peut être plus spécialisés…

Je ne sais pas dans quelle mesure mon choix aura un impact sur le référencement et la fréquentation de ce site, mais, vu la profusion d’outils censés référencer un blog, le mettre en avant, et le rendre incontournable, il va falloir faire un tri.

Avant donc de se lancer dans ce genre d’entreprise, j’ai donc fait quelques recherches et lectures.

Parmi les tonnes de “Get your blog in first page” et autres “Top SEO WordPress tips to be number one”, il faut faire un sérieux tri pour trouver d’intéressantes pistes.

Déja pour commencer, parce que ca ne peut pas faire de mal, repenser et éventuellement corriger son style, sa syntaxe, son ton. Le slideshare suivant résume assez bien les points sur lesquels porter son attention lorsque l’on veut proposer un contenu de qualité.

Oui, en effet, être référencé, reconnu, lu, c’est en premier lieu proposer un contenu de bonne facture.

Vouloir être bon en présentant du mauvais, c’est la mort assurée de votre blog, aussi intéressant en soit le contenu.

Ecrire pour le Web en 2010
Soyez comme vous êtes et pas comme vous aimeriez être

Là, je cite Loic Le Meur, qui, dans son article “Conseils de base pour écrire un bon blog pro“, distille un certain nombre de conseils orientés encore une fois sur le contenu. Certes, ce n’est pas l’objet premier de ce billet, mais en fin de compte, il semble que si.

La première équation solide et concrète que je puisse dégager de mes recherches, aussi logique et basique soit elle, est la suivante :

pour améliorer mon référencement, je dois travailler sur mes contenus. Améliorer mon contenu, c’est se garantir le cercle vertueux contenu/lectures/abonnements/référencement

Le raccourci est un peu brutal mais me semble résumer ce qui se fait de mieux de ce point de vue.

Avec la richesse/quantité exponentielle de sites/réseaux , relativement bien illustrée ci-après, il devient de plus en plus difficile de propager l’info au bon endroit, au bon moment.

Au gré de mes lectures, j’ai donc décidé de faire un audit des réseaux les plus susceptibles d’accueillir avec intérêt les infos et billets que je publie ici. Je publierai sans doute les résultats de cette recherche dans un prochain billet (si vous avez des infos, des sources, je suis toujours preneur). Même si, encore une fois, cibler son auditoire potentiel peut sembler évident, il est tentant de s’étaler partout à la fois, en espérant recueillir quelque backlinks, commentaires, followers, voire pourquoi pas quelques lecteurs réguliers. Mais au risque de manquer son coeur de cible, et d’asseoir son blog et sa réputation au bon endroit.

Les annuaires de blogs font aussi partie du débat, même si:

  1. leur utilisation peut être risquée (http://blog.hiha.fr/referencement-annuaires-23.html)
  2. ils ont tendance à générer un trafic alternatif, variable, et parfois même à gêner la visibilité d’un site, en le discréditant auprès de Google et consorts (mais là, je spécule suite aux avis divergeants que j’ai pû relever sur la toile).

Pour ces annuaires, quoi qu’il en soit, une tendance semble se distinguer : comme pour les réseaux sociaux, ou plus généralement pour tout ce qui touche au référencement et à l’indexation de son blog, il faut pouvoir être précis dans la description et les mots clefs associés à celui-ci.

J’ai donc choisi de signaler mon blog à deux annuaires : celui de webrankinfo.com, et sur Paperblog, que je qualifierai d’aggrégateur de billets. Ces deux annuaires proposent de vraies options de personnalisation de titre, description, pour le site que vous leur proposez.

Enfin, le référencement d’un site, d’un blog, passe par votre présence et votre positionnement ailleurs que sur ce même site.

Il est impératif, pour générer un trafic sain, que vous interveniez là où l’on parle de ce qui touche aux contenus de votre blog.

Pour faire court, si le web 2.0 a donné la parole, c’est pour que vous la preniez ! Inutile bien sûr de faire dans le spam-commenting, mais si vous devez réagir à un article, faites le ! Associez votre nom, celui de votre blog, à des commentaires réfléchis ne peut qu’etre positif à l’image de marque de votre blog.

Voila pour le moment mes conclusions. Le référencement d’un blog n’est pas une mince affaire, l’équation est complexe, opaque et pourra en rebuter plus d’un. Mais avec beaucoup d’huile de coude, d’amour, de lectures, de questions, ca devrait bien se passer.

La suite dans quelques jours/semaines !!

Pour info, les liens ci-dessous font partie du jeu: parfois obligatoires, d’autres fois facultatifs, ils sont pour certains annuaires de blog un point d’entrée supplémentaire leur permettant d’augmenter leur backlinking et donc potentiellement leur visibilité chez Google.