Référencement de ce blog, épisode 2 : techniques, idées, choix.

Lire Plus

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO

Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent:

  • proposer un contenu de bonne facture, argumenté, référencé.
  • “soyez comme vous êtes et pas comme vous aimeriez être”; autrement dit, faire preuve de transparence, d’honnêteté, ne pas se créer un personnage blogueur, qui sera vite démasqué et dénigré par vos potentiels visiteurs.
  • utiliser avec précision et parcimonie les outils de référencement, les annuaires.
  • intervenir là ou vous souhaitez qu’on vous attende; si vous parlez de fleurs, intervenez sur les forums/blog/sites qui parlent de fleurs! Plus vous ferez bonne impression, plus vous attirerez de visiteurs sans risquez de manquer votre coeur de cible.

Titre, description,keywords

Oui, je sais, vieille vielle rengaine. N’empeche qu’une recherche Google montre bien que

  1. soit certains se fichent de leur référencement
  2. soit il est finalement bon de répéter cette rengaine.

Que ce soit pour un blog ou pour un site, chacune de vos pages se doit d’avoir au minimum les balises meta TITLE, DESCRIPTION et KEYWORDS. L’utilité de cette derniere balise étant perfectible, je dirais qu’a défaut de servir à quelque chose, elle ne gêne en rien.

Sous wordpress, rien de tel pour répondre à ce besoin avec le plugin All in One SEO

Un sitemap de toute beauté.

Le sitemap est, littéralement, un plan de site. Ce protocole est un standard, fondé sur une syntaxe XML, dans lequel on peut trouver :

<?xml version="1.0" encoding="UTF-8"?><urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">   <url>      <loc>http://www.example.com/</loc>      lastmod>2005-01-01</lastmod>      <changefreq>monthly</changefreq>      <priority>0.8</priority>   </url></urlset>

Bien qu’un sitemap ne soit pas en soi la garantie d’un référencement optimal, il est un point d’entrée intéressant pour tout robot d’indexation, en lui fournissant non seulement l’url des pages de votre site, mais également des méta-données relatives à l’importance de chaque page, à sa fréquence de mise à jour…

Associé à un fichier robots.txt (dont on reparlera plus tard) qui indiquera l’url vers ce fameux sitemap, l’ensemble des pages de votre site est sûr de ne pas être raté par les crawlers.

Encore une fois, WordPress dispose d’un excellent plugin pour générer à la volée, dès la mise à jour de votre contenu, un sitemap : le Google Sitemap Generator. Ce plugin, en plus de générer ledit fichier, va automatiquement pinger les robots Google, Yahoo, Ask et Bing, leur signalant ainsi de nouveaux contenus qu’ils peuvent s’empresser de venir indexer.

Enfin, n’oubliez pas que si vous disposez d’un flux RSS, il peut faire office de sitemap (ah, tiens, du xml encore… bizarre…).

Woorank.com, et les outils de synthèse sémantico-techniques

Sans être des référents parfaits, les outils de synthèse à la fois techniques et sémantiques auront le mérite, en peu de temps, de mettre le doigt là où ca peut faire mal.

Ainsi, Woorank propose de benchmarker votre site de fond en comble, en abordant autant les aspects purement techniques, et des aspects plus sémantiques, qui rentrent en ligne de mire pour le parfait SEO.

Il existe beaucoup d’outils de ce genre, mais celui-ci à le mérite de hiérarchiser avec clarté les informations, et en prime de proposer des pistes pour l’optimisation. Un coup d’oeil régulier à ce type d’outils vous permettra de remonter les problèmes impactant sur le référencement de votre site/blog.

URL rewritting, oui !

Tous les grands CMS d’aujourd’hui proposent cette option, mais pour un site home made, il faudra prendre soin de tweaker son .htaccess, et sa config Apache, pour générer des url dites ‘user-friendly.’

En fait il s’agit de rendre vos url, comprenant à l’origine des variables incompréhensibles, humainement lisibles. Mais quel intéret pour le référencement ? Il est double en fait.

Quand vous lisez ceci, vous ne comprenez sans doute pas grand, et meme si vous comprenez cette url, vous auriez du mal à la retenir:

/article.php?action=edit&post=568&category=5

Alors que si vous lisez et bookmarkez et devez diffuser cette url:

/ecommerce/le-ecommerce-en-2010

ca devient tout de suite beaucoup plus facile.

Mais la réécriture d’urls n’a pas que l’avantage de transfomer vos url en fil d’ariane, cette technique à aussi le mérite de sécuriser (partiellement cela va de soi) vos variables, et bien entendu de faciliter l’indexation et la compréhension pour les robots crawlers de ce qu’ils indexent. Ces robots n’acceptent en effet qu’un nombre limité de variables (dans l’exemple ci-dessus, on a trois variables, action, post et category), contre des url sans variable plus longues.

Assurer la dégradabilité de votre site/blog

Si vous avez respecté tout ou partie des recommandations de cet article ainsi que de l’article précédent, vous devriez avoir un contenu lisible facilement par un robot d’indexation.

En effet, un robot d’indexation ne voit pas le contenu de votre site avec les mêmes yeux que vous.

Quand vous voyez ca:

le robot Google par exemple, voit ca :

En clair, le robot lit le document html qui lui est fourni, quand vous voyez la traduction de ce meme code html par votre navigateur web.

Or, et c’est la qu’il faut assurer la portablité/dégradabilité de site/blog, votre navigateur est capable d’interpréter une partie très agréable de votre site que le crawler ne lira pas (pas encore, même si ca commence à évoluer ): le javascript

La meilleure manière de s’assurer que votre site, full ajax, blindé d’animations js, sera correctement lu et compris par les robots, c’est de tester, tester, tester. Je ne peux que vous conseiller deux solutions complémentaires:

  • d’abord, utilisez un lynx viewer (Lynx, c’est le navigateur textuel par excellence, qui se content d’afficher le contenu du site, sans se soucier des styles, scripts… http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php
  • ensuite, d’installer l’excellente web dev toolbar sous firefox. Je vous épargnerai un tuto sur l’utilisation de ce plugin, mais sachez que cet outil va vous permettre de naviguer sur votre site en désactivant le javascript, les css, de linéariser votre contenu, et par ailleurs de vous permettre de quantifier précisément le poids de vos pages etc etc… un must have donc !

Méfiez vous toutefois de pratiquer cette dégradabilité avec classe, sinon, ca va sentir le cloaking, et ca, les robots détestent !

Poids, ratio contenu/html

Récemment Google à introduit une section dans ses outils pour webmasters : “Performances de site”. C’est loin d’etre une nouveauté, mais là, ca marque un tournant : non seulement votre contenu est important aux yeux des robots, mais votre code est pénalisant par rapport à ce même référencement ! Le ratio entre le poids du code html et le poids de vos contenus est important. Ahhhh… mais c’est là finalement qu’un balisage sémantique et conforme W3C devient logique si jusqu’à présent vous n’y faisiez pas attention. Styles inline, tableaux, insertions de styles et de scripts, tout cela devient complètement pénalisant aux yeux des robots, qui ne se fatigueront pas à faire le tri entre le code et le contenu : si votre page est trop lourde, s’ils mettent trop de temps à indexer votre page, ils zappent !! Et votre référencement en pâti.

Prenez donc l’habitude de compresser votre code js et css, et passez si ce n’est déja fait à un code sémantique, rigoureux, respectueux, vous n’en serez que mieux référencé.

Léo, qui est intervenu dans les commentaires de précédents article, en parle sur son blog

Bannir le duplicate content, et les redirections autres que 301

La seule redirection que les moteurs accèptent est la redirection 301. Selon Wikipedia, ” 301 Moved permanently, This and all future requests should be directed to the given URI”. Donc, ne jouez pas avec le feu en proposant des redirections que vous ne maitriseriez pas : 301 ou rien.

Le duplicate content, c’est le black listage assuré.

Vous ne pouvez plus passer outre les version mobiles de votre contenu

La version mobile de votre site sera indexée exactement de la meme manière que sa version desktop… MAIS : fournir votre contenu sans adapter son affichage aux smartphones, c’est le rendre illisible, inapproprié, et donc, d’une certaine manière, vous nuirez à votre référencement. Vous vous devez de peser les tenants e les aboutissants de l’existence d’une version mobile (cibles potentielles…) , et, le cas échéant, mettre autant d’amour dans cette version ‘allégée’.

Vous l’avez vu, techniquement, le référencement d’un blog est vraiment une savante équation, qui demande du temps, de l’attention, et beaucoup de travail. Je ne peux conclurre qu’en vous ce-onseillant quelques outils dont vous ne pourrez pas vous passer pour tester, tester tester !!

D’ici quelques temps, je rédigerai un dernier article pour conclure cette série d’articles destinée à vous décrire comment, pourquoi, et par ùu commencer pour améliorer son référencement.

Audit de référencement par Google, pour Google

Lire Plus

Google vu de l’intérieur : un rapport SEO intéressant

Le 2 mars dernier, Google publiait un document intéressant: le rapport d’un audit SEO au sujet des produits Google.

Comment ca ? Google, dieu absolu du référencement et de la recherche sémantique, doute de lui même ?

Oui, et c’est tant mieux!

En 50 pages, l’ essentielle du géant web-ivore est passé au crible dans le but d’en améliorer le référencement.

Les sujets abordés :

  • Présentation des résultats de recherche / Search result presentation
  • Urls et redirections / URLs and redirects
  • Optimisations dans les pages / On-page optimizations

Si vous n’avez jamais eu de SEO Report entre les mains, c’est un excellent exemple.

Télecharger cet audit

L’article original publié lors de la mise en ligne de ce rapport

Articles qui pourraient vous intéresser:

  1. Google Analytics lance ses alertes, en bêta, forcément.
  2. Après la recherche, la cartographie, les livres, etc, etc … voici Google Go , le language de programmation !
  3. Un petit pas de plus pour Google Chrome, une beta pour OS X, une pour Linux, et les extensions qui débarquent !
  4. Google Wave, twitter-facebook-tumblr killer app ?
  5. [épisode 2] Référencement de ce blog, techniques, idées, choix

audit référencement, Google, seo

  • Articles similaires
  • Trackbacks (1)
Aucun commentaire pour l’instant

[épisode 2] Référencement de ce blog, techniques, idées, choix

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO. Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent: proposer un contenu de bonne facture, argumenté, référencé. « soyez comme vous êtes et pas comme vous aimeriez être »; autrement

Référencement de ce blog, techniques,idées, choix

Malgré un trafic régulier, cela reste léger par rapport à mes objectifs de diffusion et de partage de l’information. Sans être à la recherche de l’équation ultime me permettant de monétiser ce blog, j’espère surtout pouvoir asseoir ma vision du web, qui est par ailleurs mon gagne pain,  comme intéressante et juste, voire, pourquoi pas,

Et un point de plus pour la pub virtuelle, un !

Un petit pas va bientot etre franchi en matiere d’avertising numérique : l’implémentation par Google, dans Street View, de panneaux publicitaires virtuels. Les ingénieux ingénieurs de chez Google ont semble-t-il, réussi à transformer Street View en machine à reconnaissance de publicité dans leurs photos, pour les transformer en panneaux virtuels. Si, dans l’absolu, je trouve

Un petit pas de plus pour Google Chrome, une beta pour OS X, une pour Linux, et les extensions qui débarquent !

Lu sur le blog Google ce soir: le navigateur maison du croqueur de kilo octets étend son invasion aux machines tournant avec OSX et Linux. Pour la version OSX, autant le dire, le sentiment est le meme qe sur pc : une interface proche du néant (mais c’est tant mieux, tout a fait dans l’esprit

Google Wave, twitter-facebook-tumblr killer app ?

Ca n’a pas fait énormément de bruit lors de sa sortie, exception faite dans les milieux autorisés. C’est encore un produit du géant glouton dévoreur de web, et c’est clairement une appli ‘en devenir’, une espèce de nightly build améliorée. Google wave est un produit étrange, une espece d’ovni ‘nouvelle génération’ de ce que pourrait

Google Analytics lance ses alertes, en bêta, forcément.

Le systeme Google Analytics, poids lourd de l’offre Google web apps, vient de se doter (ce matin, ou cette nuit) vient se voir doter d’un nouveau module : les Alertes Bêta Loin d’etre une révolution, cet apport est de mon avis le petit plus qui manquait au systeme d’analytics; il permet en effet, non pas de

Après la recherche, la cartographie, les livres, etc, etc … voici Google Go , le language de programmation !

La boulimie d’innovation du géant de la Silicon Valley à quand même quelque chose d’effrayant. Rappel : Google, c’est avant tout et en premier lieu un moteur de recherche s’étant donné pour objectif de « d’organiser l’information à l’échelle mondiale et de la rendre universellement accessible et utile ». Chouette idée. D’autant plus qu’en réussissant le tour

[épisode 2] Référencement de ce blog, techniques, idées, choix

Lire Plus

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO.

Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent:

  • proposer un contenu de bonne facture, argumenté, référencé.
  • « soyez comme vous êtes et pas comme vous aimeriez être »; autrement dit, faire preuve de transparence, d’honnêteté, ne pas se créer un personnage blogueur, qui sera vite démasqué et dénigré par vos potentiels visiteurs.
  • utiliser avec précision et parcimonie les outils de référencement, les annuaires.
  • intervenir là ou vous souhaitez qu’on vous attende; si vous parlez de fleurs, intervenez sur les forums/blog/sites qui parlent de fleurs! Plus vous ferez bonne impression, plus vous attirerez de visiteurs sans risquez de manquer votre coeur de cible.

Titre, description,keywords

Oui, je sais, vieille vielle rengaine. N’empeche qu’une recherche Google montre bien que

  1. soit certains se fichent de leur référencement
  2. soit il est finalement bon de répéter cette rengaine.

Que ce soit pour un blog ou pour un site, chacune de vos pages se doit d’avoir au minimum les balises meta TITLE, DESCRIPTION et KEYWORDS. L’utilité de cette derniere balise étant perfectible, je dirais qu’a défaut de servir à quelque chose, elle ne gêne en rien.

Sous wordpress, rien de tel pour répondre à ce besoin avec le plugin All in One SEO.

Un sitemap de toute beauté.

Le sitemap est, littéralement, un plan de site. Ce protocole est un standard, fondé sur une syntaxe XML, dans lequel on peut trouver :

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.example.com/</loc>
      <lastmod>2005-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
</urlset>

Bien qu’un sitemap ne soit pas en soi la garantie d’un référencement optimal, il est un point d’entrée intéressant pour tout robot d’indexation, en lui fournissant non seulement l’url des pages de votre site, mais également des méta-données relatives à l’importance de chaque page, à sa fréquence de mise à jour…

Associé à un fichier robots.txt (dont on reparlera plus tard) qui indiquera l’url vers ce fameux sitemap, l’ensemble des pages de votre site est sûr de ne pas être raté par les crawlers.

Encore une fois, WordPress dispose d’un excellent plugin pour générer à la volée, dès la mise à jour de votre contenu, un sitemap : le Google Sitemap Generator. Ce plugin, en plus de générer ledit fichier, va automatiquement pinger les robots Google, Yahoo, Ask et Bing, leur signalant ainsi de nouveaux contenus qu’ils peuvent s’empresser de venir indexer.

Enfin, n’oubliez pas que si vous disposez d’un flux RSS, il peut faire office de sitemap (ah, tiens, du xml encore… bizarre…).

Woorank.com, et les outils de synthèse sémantico-techniques

Sans être des référents parfaits, les outils de synthèse à la fois techniques et sémantiques auront le mérite, en peu de temps, de mettre le doigt là où ca peut faire mal.

Ainsi, Woorank propose de benchmarker votre site de fond en comble, en abordant autant les aspects purement techniques, et des aspects plus sémantiques, qui rentrent en ligne de mire pour le parfait SEO.

Il existe beaucoup d’outils de ce genre, mais celui-ci à le mérite de hiérarchiser avec clarté les informations, et en prime de proposer des pistes pour l’optimisation. Un coup d’oeil régulier à ce type d’outils vous permettra de remonter les problèmes impactant sur le référencement de votre site/blog.

URL rewritting, oui !

Tous les grands CMS d’aujourd’hui proposent cette option, mais pour un site home made, il faudra prendre soin de tweaker son .htaccess, et sa config Apache, pour générer des url dites ‘user-friendly.’

En fait il s’agit de rendre vos url, comprenant à l’origine des variables incompréhensibles, humainement lisibles. Mais quel intéret pour le référencement ? Il est double en fait.

Quand vous lisez ceci, vous ne comprenez sans doute pas grand, et meme si vous comprenez cette url, vous auriez du mal à la retenir:

/article.php?action=edit&post=568&category=5

Alors que si vous lisez et bookmarkez et devez diffuser cette url:

/ecommerce/le-ecommerce-en-2010

ca devient tout de suite beaucoup plus facile.

Mais la réécriture d’urls n’a pas que l’avantage de transfomer vos url en fil d’ariane, cette technique à aussi le mérite de sécuriser (partiellement cela va de soi) vos variables, et bien entendu de faciliter l’indexation et la compréhension pour les robots crawlers de ce qu’ils indexent. Ces robots n’acceptent en effet qu’un nombre limité de variables (dans l’exemple ci-dessus, on a trois variables, action, post et category), contre des url sans variable plus longues.

Assurer la dégradabilité de votre site/blog

Si vous avez respecté tout ou partie des recommandations de cet article ainsi que de l’article précédent, vous devriez avoir un contenu lisible facilement par un robot d’indexation.

En effet, un robot d’indexation ne voit pas le contenu de votre site avec les mêmes yeux que vous.

Quand vous voyez ca:

le robot Google par exemple, voit ca :

En clair, le robot lit le document html qui lui est fourni, quand vous voyez la traduction de ce meme code html par votre navigateur web.

Or, et c’est la qu’il faut assurer la portablité/dégradabilité de site/blog, votre navigateur est capable d’interpréter une partie très agréable de votre site que le crawler ne lira pas (pas encore, même si ca commence à évoluer ): le javascript.

La meilleure manière de s’assurer que votre site, full ajax, blindé d’animations js, sera correctement lu et compris par les robots, c’est de tester, tester, tester. Je ne peux que vous conseiller deux solutions complémentaires:

  • d’abord, utilisez un lynx viewer (Lynx, c’est le navigateur textuel par excellence, qui se content d’afficher le contenu du site, sans se soucier des styles, scripts… http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php
  • ensuite, d’installer l’excellente web dev toolbar sous firefox. Je vous épargnerai un tuto sur l’utilisation de ce plugin, mais sachez que cet outil va vous permettre de naviguer sur votre site en désactivant le javascript, les css, de linéariser votre contenu, et par ailleurs de vous permettre de quantifier précisément le poids de vos pages etc etc… un must have donc !

Méfiez vous toutefois de pratiquer cette dégradabilité avec classe, sinon, ca va sentir le cloaking, et ca, les robots détestent !

Poids, ratio contenu/html

Récemment Google à introduit une section dans ses outils pour webmasters : « Performances de site ». C’est loin d’etre une nouveauté, mais là, ca marque un tournant : non seulement votre contenu est important aux yeux des robots, mais votre code est pénalisant par rapport à ce même référencement ! Le ratio entre le poids du code html et le poids de vos contenus est important. Ahhhh… mais c’est là finalement qu’un balisage sémantique et conforme W3C devient logique si jusqu’à présent vous n’y faisiez pas attention. Styles inline, tableaux, insertions de styles et de scripts, tout cela devient complètement pénalisant aux yeux des robots, qui ne se fatigueront pas à faire le tri entre le code et le contenu : si votre page est trop lourde, s’ils mettent trop de temps à indexer votre page, ils zappent !! Et votre référencement en pâti.

Prenez donc l’habitude de compresser votre code js et css, et passez si ce n’est déja fait à un code sémantique, rigoureux, respectueux, vous n’en serez que mieux référencé.

Léo, qui est intervenu dans les commentaires de précédents article, en parle sur son blog.

Bannir le duplicate content, et les redirections autres que 301

La seule redirection que les moteurs accèptent est la redirection 301. Selon Wikipedia,  » 301 Moved permanently, This and all future requests should be directed to the given URI ». Donc, ne jouez pas avec le feu en proposant des redirections que vous ne maitriseriez pas : 301 ou rien.

Le duplicate content, c’est le black listage assuré.

Vous ne pouvez plus passer outre les version mobiles de votre contenu

La version mobile de votre site sera indexée exactement de la meme manière que sa version desktop… MAIS : fournir votre contenu sans adapter son affichage aux smartphones, c’est le rendre illisible, inapproprié, et donc, d’une certaine manière, vous nuirez à votre référencement. Vous vous devez de peser les tenants e les aboutissants de l’existence d’une version mobile (cibles potentielles…) , et, le cas échéant, mettre autant d’amour dans cette version ‘allégée’.

Vous l’avez vu, techniquement, le référencement d’un blog est vraiment une savante équation, qui demande du temps, de l’attention, et beaucoup de travail. Je ne peux conclurre qu’en vous ce-onseillant quelques outils dont vous ne pourrez pas vous passer pour tester, tester tester !!

D’ici quelques temps, je rédigerai un dernier article pour conclure cette série d’articles destinée à vous décrire comment, pourquoi, et par ùu commencer pour améliorer son référencement.

Référencement de ce blog, techniques,idées, choix

Lire Plus

Malgré un trafic régulier, cela reste léger par rapport à mes objectifs de diffusion et de partage de l’information. Sans être à la recherche de l’équation ultime me permettant de monétiser ce blog, j’espère surtout pouvoir asseoir ma vision du web, qui est par ailleurs mon gagne pain,  comme intéressante et juste, voire, pourquoi pas, comme une référence en la matière.

J’attaque donc aujourd’hui une campagne de référencement de ce blog. Jusqu’à présent, je me suis contenté de relayer les infos de ce site sur Twitter, Facebook, et LinkedIn, mais sans vraiment chercher à etre repris, relayé, diffusé.

Mais il devient évident que, vu le “bruit de fond” omniprésent sur ces supports, deux solutions s’offrent à moi :

  • me concentrer sur ces modes de relai, au risque de ne jamais vraiment tirer mon épingle du jeu, à moins d’être “retweeté” un jour par L. Le Meur et consorts,
  • trouver d’autres canaux de diffusion, peut être plus spécialisés…

Je ne sais pas dans quelle mesure mon choix aura un impact sur le référencement et la fréquentation de ce site, mais, vu la profusion d’outils censés référencer un blog, le mettre en avant, et le rendre incontournable, il va falloir faire un tri.

Avant donc de se lancer dans ce genre d’entreprise, j’ai donc fait quelques recherches et lectures.

Parmi les tonnes de “Get your blog in first page” et autres “Top SEO WordPress tips to be number one”, il faut faire un sérieux tri pour trouver d’intéressantes pistes.

Déja pour commencer, parce que ca ne peut pas faire de mal, repenser et éventuellement corriger son style, sa syntaxe, son ton. Le slideshare suivant résume assez bien les points sur lesquels porter son attention lorsque l’on veut proposer un contenu de qualité.

Oui, en effet, être référencé, reconnu, lu, c’est en premier lieu proposer un contenu de bonne facture.

Vouloir être bon en présentant du mauvais, c’est la mort assurée de votre blog, aussi intéressant en soit le contenu.

Ecrire pour le Web en 2010
Soyez comme vous êtes et pas comme vous aimeriez être

Là, je cite Loic Le Meur, qui, dans son article “Conseils de base pour écrire un bon blog pro“, distille un certain nombre de conseils orientés encore une fois sur le contenu. Certes, ce n’est pas l’objet premier de ce billet, mais en fin de compte, il semble que si.

La première équation solide et concrète que je puisse dégager de mes recherches, aussi logique et basique soit elle, est la suivante :

pour améliorer mon référencement, je dois travailler sur mes contenus. Améliorer mon contenu, c’est se garantir le cercle vertueux contenu/lectures/abonnements/référencement

Le raccourci est un peu brutal mais me semble résumer ce qui se fait de mieux de ce point de vue.

Avec la richesse/quantité exponentielle de sites/réseaux , relativement bien illustrée ci-après, il devient de plus en plus difficile de propager l’info au bon endroit, au bon moment.

Au gré de mes lectures, j’ai donc décidé de faire un audit des réseaux les plus susceptibles d’accueillir avec intérêt les infos et billets que je publie ici. Je publierai sans doute les résultats de cette recherche dans un prochain billet (si vous avez des infos, des sources, je suis toujours preneur). Même si, encore une fois, cibler son auditoire potentiel peut sembler évident, il est tentant de s’étaler partout à la fois, en espérant recueillir quelque backlinks, commentaires, followers, voire pourquoi pas quelques lecteurs réguliers. Mais au risque de manquer son coeur de cible, et d’asseoir son blog et sa réputation au bon endroit.

Les annuaires de blogs font aussi partie du débat, même si:

  1. leur utilisation peut être risquée (http://blog.hiha.fr/referencement-annuaires-23.html)
  2. ils ont tendance à générer un trafic alternatif, variable, et parfois même à gêner la visibilité d’un site, en le discréditant auprès de Google et consorts (mais là, je spécule suite aux avis divergeants que j’ai pû relever sur la toile).

Pour ces annuaires, quoi qu’il en soit, une tendance semble se distinguer : comme pour les réseaux sociaux, ou plus généralement pour tout ce qui touche au référencement et à l’indexation de son blog, il faut pouvoir être précis dans la description et les mots clefs associés à celui-ci.

J’ai donc choisi de signaler mon blog à deux annuaires : celui de webrankinfo.com, et sur Paperblog, que je qualifierai d’aggrégateur de billets. Ces deux annuaires proposent de vraies options de personnalisation de titre, description, pour le site que vous leur proposez.

Enfin, le référencement d’un site, d’un blog, passe par votre présence et votre positionnement ailleurs que sur ce même site.

Il est impératif, pour générer un trafic sain, que vous interveniez là où l’on parle de ce qui touche aux contenus de votre blog.

Pour faire court, si le web 2.0 a donné la parole, c’est pour que vous la preniez ! Inutile bien sûr de faire dans le spam-commenting, mais si vous devez réagir à un article, faites le ! Associez votre nom, celui de votre blog, à des commentaires réfléchis ne peut qu’etre positif à l’image de marque de votre blog.

Voila pour le moment mes conclusions. Le référencement d’un blog n’est pas une mince affaire, l’équation est complexe, opaque et pourra en rebuter plus d’un. Mais avec beaucoup d’huile de coude, d’amour, de lectures, de questions, ca devrait bien se passer.

La suite dans quelques jours/semaines !!

Pour info, les liens ci-dessous font partie du jeu: parfois obligatoires, d’autres fois facultatifs, ils sont pour certains annuaires de blog un point d’entrée supplémentaire leur permettant d’augmenter leur backlinking et donc potentiellement leur visibilité chez Google.