simplecart.js, 20Ko d’ecommerce plus tard

Lire Plus

Simplecart.js fait partie de ces petits plus qui rendent la vie de tous un peu plus facile, et rapide, et pas chère. Pourquoi, lorsqu’on à que quelques produits à vendre, mettre en branle la machine de guerre Prestashop (et consorts, cela va sans dire) ?

Lorsque l’on veut se mettre au ecommerce, il y a toujours une phase de dimensionnement des besoins. En général, les solutions open-sources à base de LAMP sont là pour répondre à quasiment tous ces besoins, étant plutôt souples, supportées par des communautés (plus ou moins) actives, et totalement gratuites. Cette gratuité justement, permet de concentrer l’effort d’investissement sur d’autres parties d’un projet e-commerce.

Très bien, mais admettons que :

  1. vous ayez 5 produits à vendre, et pas plus…
  2. vous ayez besoin d’une solution rapidement, très rapidement, dans la journée peut etre, qui vous permette de vendre
  3. (si les mentions ci-dessus sont remplies) vous n’ayez pas envie de faire appel à une ressource externe pour travailler sur cette mise en production, ou que vous n’en avez pas les moyens
  4. vous souhaitez passer par un paiement sécurisé, certes, mais n’avez pas le temps ou les moyens d’offrir à vos clients une solution bancaire sécurisée complète

Si l’une, ou toutes les mentions ci-dessus sont remplies, alors simplecart.js est le bout de code qu’il vous faut.

En seulement 20 Ko et avec un compte Paypal ou GoogleCheckOut, vous pouvez disposer d’un rayonnage virtuel sans fioritures, sans moteur de recherche (normal quand on n’a que quelques produits en magasin), et ou l’acte d’achat est réduit à sa plus simple expression : lecture de la description et du prix, ajout au panier, terminer la commande.

POINT BARRE

Avec quelques connaissances en html+Css, vous serez capable de monter un petite boutique virtuelle juste efficace. Ni trop sexy, ni trop riche, juste efficace.

Techniquement, pour faire tourner la (petite) bete, il faudra respecter un marquage sémantique pour chaque produit ressemblant à ceci:

<div>  <h2>Awesome T-Shirt</h2>  <span>$35.95</span>  <input value="1" type="text">  <a href="javascript:;">Add to Cart</a></div>

Et après ce n’est plus qu’une question de styles, et d’une pincée de javascript.

Pas de base de données, pas de php, juste un fichier javascript de 20Ko.

Du coup, vous pouvez vous concentrer sur le “look and feel” de votre rayonnage,  et vous mettre à vendre à la vitesse de la lumière.

Disponible en téléchargement sur github, vous trouverez un wiki détaillé, un bug tracking, bref, tout ce que github offre comme possibilités de suivi de projet ici : http://github.com/thewojogroup/simplecart-js

Et le site officiel de ce projet ( sous license Creative Commons )  est accessible à cette adresse : http://simplecartjs.com/

Référencement de ce blog, épisode 2 : techniques, idées, choix.

Lire Plus

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO

Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent:

  • proposer un contenu de bonne facture, argumenté, référencé.
  • “soyez comme vous êtes et pas comme vous aimeriez être”; autrement dit, faire preuve de transparence, d’honnêteté, ne pas se créer un personnage blogueur, qui sera vite démasqué et dénigré par vos potentiels visiteurs.
  • utiliser avec précision et parcimonie les outils de référencement, les annuaires.
  • intervenir là ou vous souhaitez qu’on vous attende; si vous parlez de fleurs, intervenez sur les forums/blog/sites qui parlent de fleurs! Plus vous ferez bonne impression, plus vous attirerez de visiteurs sans risquez de manquer votre coeur de cible.

Titre, description,keywords

Oui, je sais, vieille vielle rengaine. N’empeche qu’une recherche Google montre bien que

  1. soit certains se fichent de leur référencement
  2. soit il est finalement bon de répéter cette rengaine.

Que ce soit pour un blog ou pour un site, chacune de vos pages se doit d’avoir au minimum les balises meta TITLE, DESCRIPTION et KEYWORDS. L’utilité de cette derniere balise étant perfectible, je dirais qu’a défaut de servir à quelque chose, elle ne gêne en rien.

Sous wordpress, rien de tel pour répondre à ce besoin avec le plugin All in One SEO

Un sitemap de toute beauté.

Le sitemap est, littéralement, un plan de site. Ce protocole est un standard, fondé sur une syntaxe XML, dans lequel on peut trouver :

<?xml version="1.0" encoding="UTF-8"?><urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">   <url>      <loc>http://www.example.com/</loc>      lastmod>2005-01-01</lastmod>      <changefreq>monthly</changefreq>      <priority>0.8</priority>   </url></urlset>

Bien qu’un sitemap ne soit pas en soi la garantie d’un référencement optimal, il est un point d’entrée intéressant pour tout robot d’indexation, en lui fournissant non seulement l’url des pages de votre site, mais également des méta-données relatives à l’importance de chaque page, à sa fréquence de mise à jour…

Associé à un fichier robots.txt (dont on reparlera plus tard) qui indiquera l’url vers ce fameux sitemap, l’ensemble des pages de votre site est sûr de ne pas être raté par les crawlers.

Encore une fois, WordPress dispose d’un excellent plugin pour générer à la volée, dès la mise à jour de votre contenu, un sitemap : le Google Sitemap Generator. Ce plugin, en plus de générer ledit fichier, va automatiquement pinger les robots Google, Yahoo, Ask et Bing, leur signalant ainsi de nouveaux contenus qu’ils peuvent s’empresser de venir indexer.

Enfin, n’oubliez pas que si vous disposez d’un flux RSS, il peut faire office de sitemap (ah, tiens, du xml encore… bizarre…).

Woorank.com, et les outils de synthèse sémantico-techniques

Sans être des référents parfaits, les outils de synthèse à la fois techniques et sémantiques auront le mérite, en peu de temps, de mettre le doigt là où ca peut faire mal.

Ainsi, Woorank propose de benchmarker votre site de fond en comble, en abordant autant les aspects purement techniques, et des aspects plus sémantiques, qui rentrent en ligne de mire pour le parfait SEO.

Il existe beaucoup d’outils de ce genre, mais celui-ci à le mérite de hiérarchiser avec clarté les informations, et en prime de proposer des pistes pour l’optimisation. Un coup d’oeil régulier à ce type d’outils vous permettra de remonter les problèmes impactant sur le référencement de votre site/blog.

URL rewritting, oui !

Tous les grands CMS d’aujourd’hui proposent cette option, mais pour un site home made, il faudra prendre soin de tweaker son .htaccess, et sa config Apache, pour générer des url dites ‘user-friendly.’

En fait il s’agit de rendre vos url, comprenant à l’origine des variables incompréhensibles, humainement lisibles. Mais quel intéret pour le référencement ? Il est double en fait.

Quand vous lisez ceci, vous ne comprenez sans doute pas grand, et meme si vous comprenez cette url, vous auriez du mal à la retenir:

/article.php?action=edit&post=568&category=5

Alors que si vous lisez et bookmarkez et devez diffuser cette url:

/ecommerce/le-ecommerce-en-2010

ca devient tout de suite beaucoup plus facile.

Mais la réécriture d’urls n’a pas que l’avantage de transfomer vos url en fil d’ariane, cette technique à aussi le mérite de sécuriser (partiellement cela va de soi) vos variables, et bien entendu de faciliter l’indexation et la compréhension pour les robots crawlers de ce qu’ils indexent. Ces robots n’acceptent en effet qu’un nombre limité de variables (dans l’exemple ci-dessus, on a trois variables, action, post et category), contre des url sans variable plus longues.

Assurer la dégradabilité de votre site/blog

Si vous avez respecté tout ou partie des recommandations de cet article ainsi que de l’article précédent, vous devriez avoir un contenu lisible facilement par un robot d’indexation.

En effet, un robot d’indexation ne voit pas le contenu de votre site avec les mêmes yeux que vous.

Quand vous voyez ca:

le robot Google par exemple, voit ca :

En clair, le robot lit le document html qui lui est fourni, quand vous voyez la traduction de ce meme code html par votre navigateur web.

Or, et c’est la qu’il faut assurer la portablité/dégradabilité de site/blog, votre navigateur est capable d’interpréter une partie très agréable de votre site que le crawler ne lira pas (pas encore, même si ca commence à évoluer ): le javascript

La meilleure manière de s’assurer que votre site, full ajax, blindé d’animations js, sera correctement lu et compris par les robots, c’est de tester, tester, tester. Je ne peux que vous conseiller deux solutions complémentaires:

  • d’abord, utilisez un lynx viewer (Lynx, c’est le navigateur textuel par excellence, qui se content d’afficher le contenu du site, sans se soucier des styles, scripts… http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php
  • ensuite, d’installer l’excellente web dev toolbar sous firefox. Je vous épargnerai un tuto sur l’utilisation de ce plugin, mais sachez que cet outil va vous permettre de naviguer sur votre site en désactivant le javascript, les css, de linéariser votre contenu, et par ailleurs de vous permettre de quantifier précisément le poids de vos pages etc etc… un must have donc !

Méfiez vous toutefois de pratiquer cette dégradabilité avec classe, sinon, ca va sentir le cloaking, et ca, les robots détestent !

Poids, ratio contenu/html

Récemment Google à introduit une section dans ses outils pour webmasters : “Performances de site”. C’est loin d’etre une nouveauté, mais là, ca marque un tournant : non seulement votre contenu est important aux yeux des robots, mais votre code est pénalisant par rapport à ce même référencement ! Le ratio entre le poids du code html et le poids de vos contenus est important. Ahhhh… mais c’est là finalement qu’un balisage sémantique et conforme W3C devient logique si jusqu’à présent vous n’y faisiez pas attention. Styles inline, tableaux, insertions de styles et de scripts, tout cela devient complètement pénalisant aux yeux des robots, qui ne se fatigueront pas à faire le tri entre le code et le contenu : si votre page est trop lourde, s’ils mettent trop de temps à indexer votre page, ils zappent !! Et votre référencement en pâti.

Prenez donc l’habitude de compresser votre code js et css, et passez si ce n’est déja fait à un code sémantique, rigoureux, respectueux, vous n’en serez que mieux référencé.

Léo, qui est intervenu dans les commentaires de précédents article, en parle sur son blog

Bannir le duplicate content, et les redirections autres que 301

La seule redirection que les moteurs accèptent est la redirection 301. Selon Wikipedia, ” 301 Moved permanently, This and all future requests should be directed to the given URI”. Donc, ne jouez pas avec le feu en proposant des redirections que vous ne maitriseriez pas : 301 ou rien.

Le duplicate content, c’est le black listage assuré.

Vous ne pouvez plus passer outre les version mobiles de votre contenu

La version mobile de votre site sera indexée exactement de la meme manière que sa version desktop… MAIS : fournir votre contenu sans adapter son affichage aux smartphones, c’est le rendre illisible, inapproprié, et donc, d’une certaine manière, vous nuirez à votre référencement. Vous vous devez de peser les tenants e les aboutissants de l’existence d’une version mobile (cibles potentielles…) , et, le cas échéant, mettre autant d’amour dans cette version ‘allégée’.

Vous l’avez vu, techniquement, le référencement d’un blog est vraiment une savante équation, qui demande du temps, de l’attention, et beaucoup de travail. Je ne peux conclurre qu’en vous ce-onseillant quelques outils dont vous ne pourrez pas vous passer pour tester, tester tester !!

D’ici quelques temps, je rédigerai un dernier article pour conclure cette série d’articles destinée à vous décrire comment, pourquoi, et par ùu commencer pour améliorer son référencement.

Redonnez vie aux vieilles consoles : ressources pour développer en 8bits, 16bits

Lire Plus

Le plaisir du retro gaming, ce n’est pas que la joie de découvrir ou de redécouvrir des classiques, des bijoux oubliés, perdus par le temps, mais aussi des plateformes, un hardware, appliquant des concept de développement archaïques, originaux, différents, accessibles (ou pas ;) )

Et, comme toutes ces plateformes sont depuis longtemps abandonnées par leurs fabricants, producteurs et éditeurs, qu’elles ne rapportent plus d’argent aux maisons mères éditrices de ces consoles d’un autre âge, les outils de création, soit les SDK sont tombés dans le domaine public, soit des alternatives sont créées par des petits génies/malins/passionnés afin que leurs ludothèques favorites continuent de s’enrichir.

Et si, par curiosité, ou en tant que développeur, vous choisissiez votre console fétiche pour lui faire don de quelques heures de travail, pour donner une seconde jeunesse à votre NES, Super NES, Megadrive ? Saviez-vous que cela se faisait déjà ? Et que tous les outils et les informations nécessaires sont disponibles sur le web ?

Pour preuve, le trailer d’un Sturmwind, un shmup à venir sur … Dreamcast :D

Image de prévisualisation YouTube

Ou encore plus fort, Pier Solar sur Megadrive et Mega-CD !

Image de prévisualisation YouTube

Outils et ressources pour développer sur NES/Famicom

La plupart de compileurs NES sont basés sur de l’Assembleur.

Vous pouvez donc commencer par lire et vous exercer avec ce tuto complet sur l’assembleur.

Si vous n’êtes pas familier avec les concepts de BIT, Byte, ROM, RAM, VBLANK … etc… etc…  vous devriez commencer par consulter les différentes définitions et explications présentes sur cette page.

Les outils pour developper vos propres jeux NES :

Les compileurs/assembleurs:

  • nesasm
  • ca65, en C

Graphismes/sprites:

  • nespaint

Audio:

  • nerdtracker 2
  • une introduction à la création de chiptunes avec MCK/MML
  • le format nsf en détails

Le coeur de la NES : le 6502

  • Le jeu d’instructions du 6502, avec les différents types d’instructions et modes d’adressage

Comprendre le concept de sprite et de sprite memory :

  • http://benfry.com/mariosoup/

La Picture Processing Unit:

  • une documentation sur le fonctionnement de la PPU en francais s’il vous plait :)

Si l’envie vous prend de tester votre production sur le hardware original, le projet Munchausen Nintendo NES Flash Cartridge peut etre un excellent moyen, sans vous ruiner dans du materiel de flashage et des cartouches et puces vierges.

Autre projet pour le chargement et la lecture de roms, la cartouche NES Powerpack.

Image de prévisualisation YouTube

Avantage : elle est en vente libre, contrairement au projet Munchausen, encore en phase de beta testing. Inconvénient : son prix… 135$

  • Enfin, un site IN-CON-TOUR-NABLE, autant pour les ressources mises à disposition que pour le forum, pour tout comprendre du fonctionnement de la NES (hardware comme software) : http://nesdev.parodius.com/

Outils et ressources pour développer sur Super Nintendo/Famicom

La grande soeur de la NES dispose d’une architecture plus riche, plus complète, et, d’après mes recherches, la documentation technique à son sujet m’a semblé plus rare.

Néamoins, s’il ne devait y avoir qu’un site pour décortiquer les entrailles de la Super Nintendo, ce serait certainement  SNES Developement.

En plus de dispenser toutes les informations nécessaires pour comprendre le hardware de la console, vous trouverez des exemples concrets ( la gestion de la SRAM dans Secret of Evermore …), ainsi que d’excellents tutoriaux.

De la documentation offline ?

  • snesbase. Cette archive contient tout ce qu’il convient de savoir et comprendre concernant le hardware de la console, mais également des bonus comme un “How to” sur l’émulation, des démos en .asm. Bref, indispensable.

Si vous cherchez un assembleur/compileur :

  • WLA DX semble tout indiqué; cross-platform, il permet de compiler pour les CPU de la NES à la SNES, en passant par la pc-engine …

Mais, s’il s’agit de mettre la main sur le sdk et la documentation officielle Nintendo, une seule adresse: http://www.underground-gamer.com. Si toutefois ca ne vous intéresse pas de vous créer un compte (mais bon sang que ce serait dommage, si vous voulez connaitre le paradis du rétrogaming…) sur underground-gamer.com, voici les fichiers contenus dans le torrent.

  • SASM SNES DEV tools
  • Nintendo’s SNES Official Programming Manual
  • SNES Development Manual (Book 1 & Book 2)
  • Super Famicom Documents

La Dreamcast, et autres ressources utiles.

Plus récentes que les deux plateformes précédentes, le Dreamcast est néanmoins le terrain de jeu de nombreux amateurs de homebrew pour une très bonne raison: le développement passe par un os non propriétaire SEGA, un certain Windows CE…

Toutefois, le dev nécessite aussi une machine dédiée. Du coup, vos chances de pouvoir développer sur Dreamcast sont réduites. Si vous avez la chance et les moyens de vous payer un tel objet, la dreamcast est certainement à l’heure actuelle la console rétro la plus porteuse, offrant finalement un marché plus porteur vu son jeune age (pour rappel, elle est sortie en 1998 au Japon), et un support facile à produire et distribuer (le CD-ROM).

Si toutefois l’envie vous prenait d’utiliser le fameux GD-ROM (un hybride entre CD et DVD d’une capacité d’1,2Go), sachez qu’il devient difficile a trouver, de même que les graveurs dédiés…

Pour vous renseigner dans le développement sur d’autres support, ou par curiosité, voici une série de liens qui m’ont semblé très intéressants, bien que parfois très peu techniques:

http://fr.wikipedia.org/wiki/Retrogaming : comprendre le rétrogaming, c’est très intéressant. Comprendre ce qui motive les passionnés, leur attachement à une pensée particulière, c’est peut etre un bon début pour développer dans la plus pure tradition 80′s / 90′s.

http://fr.wikipedia.org/wiki/Histoire_des_consoles_de_jeux_vid%C3%A9o : l’histoire du jeu vidéo plus globalement, c’est un autre bon moyen de comprendre pourquoi et comment ont évolué les supports, le hardware.

http://nesdev.parodius.com/ déjà cité dans cet article, un point de passage o-bli-ga-toire pour comprendre la NES de fond en comble.

http://www.assemblergames.com/forums/index.php presque 10000 membres sur ce forum de passionnés, avec une très belle section consacrée à la programmation, tous supports confondus.

http://en.wikibooks.org/wiki/Category:Console_game_programming des infos sur le hardware/software des poids lourds du marché. Pas toujours très exhaustif, je vous invite à consulter la section SNES, la plus fournie.

http://gendev.spritesmind.net/forum/ 100% SEGA, ce forum est un incontournable. De même d’ailleurs que http://info.sonicretro.org/SCHG:Sonic_Community_Hacking_Guide qui vous guide dans les méandres du hack de roms Sonic, certainement la meilleur manière de comprendre ce qui se passe sous le capot.

Alors, vous vous lancez ? Vous avez déjà codé du homebrew sur un support de plus de 10ans ?

[épisode 2] Référencement de ce blog, techniques, idées, choix

Lire Plus

Suite à l’article précédent du Mercredi 20 janvier 2010,  nous allons aujourd’hui aborder un pan plus technique de la problématique SEO.

Récapitulons d’abord, dans les grandes lignes, ce qui avait été constaté/conseillé lors de l’article précédent:

  • proposer un contenu de bonne facture, argumenté, référencé.
  • « soyez comme vous êtes et pas comme vous aimeriez être »; autrement dit, faire preuve de transparence, d’honnêteté, ne pas se créer un personnage blogueur, qui sera vite démasqué et dénigré par vos potentiels visiteurs.
  • utiliser avec précision et parcimonie les outils de référencement, les annuaires.
  • intervenir là ou vous souhaitez qu’on vous attende; si vous parlez de fleurs, intervenez sur les forums/blog/sites qui parlent de fleurs! Plus vous ferez bonne impression, plus vous attirerez de visiteurs sans risquez de manquer votre coeur de cible.

Titre, description,keywords

Oui, je sais, vieille vielle rengaine. N’empeche qu’une recherche Google montre bien que

  1. soit certains se fichent de leur référencement
  2. soit il est finalement bon de répéter cette rengaine.

Que ce soit pour un blog ou pour un site, chacune de vos pages se doit d’avoir au minimum les balises meta TITLE, DESCRIPTION et KEYWORDS. L’utilité de cette derniere balise étant perfectible, je dirais qu’a défaut de servir à quelque chose, elle ne gêne en rien.

Sous wordpress, rien de tel pour répondre à ce besoin avec le plugin All in One SEO.

Un sitemap de toute beauté.

Le sitemap est, littéralement, un plan de site. Ce protocole est un standard, fondé sur une syntaxe XML, dans lequel on peut trouver :

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.example.com/</loc>
      <lastmod>2005-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
</urlset>

Bien qu’un sitemap ne soit pas en soi la garantie d’un référencement optimal, il est un point d’entrée intéressant pour tout robot d’indexation, en lui fournissant non seulement l’url des pages de votre site, mais également des méta-données relatives à l’importance de chaque page, à sa fréquence de mise à jour…

Associé à un fichier robots.txt (dont on reparlera plus tard) qui indiquera l’url vers ce fameux sitemap, l’ensemble des pages de votre site est sûr de ne pas être raté par les crawlers.

Encore une fois, WordPress dispose d’un excellent plugin pour générer à la volée, dès la mise à jour de votre contenu, un sitemap : le Google Sitemap Generator. Ce plugin, en plus de générer ledit fichier, va automatiquement pinger les robots Google, Yahoo, Ask et Bing, leur signalant ainsi de nouveaux contenus qu’ils peuvent s’empresser de venir indexer.

Enfin, n’oubliez pas que si vous disposez d’un flux RSS, il peut faire office de sitemap (ah, tiens, du xml encore… bizarre…).

Woorank.com, et les outils de synthèse sémantico-techniques

Sans être des référents parfaits, les outils de synthèse à la fois techniques et sémantiques auront le mérite, en peu de temps, de mettre le doigt là où ca peut faire mal.

Ainsi, Woorank propose de benchmarker votre site de fond en comble, en abordant autant les aspects purement techniques, et des aspects plus sémantiques, qui rentrent en ligne de mire pour le parfait SEO.

Il existe beaucoup d’outils de ce genre, mais celui-ci à le mérite de hiérarchiser avec clarté les informations, et en prime de proposer des pistes pour l’optimisation. Un coup d’oeil régulier à ce type d’outils vous permettra de remonter les problèmes impactant sur le référencement de votre site/blog.

URL rewritting, oui !

Tous les grands CMS d’aujourd’hui proposent cette option, mais pour un site home made, il faudra prendre soin de tweaker son .htaccess, et sa config Apache, pour générer des url dites ‘user-friendly.’

En fait il s’agit de rendre vos url, comprenant à l’origine des variables incompréhensibles, humainement lisibles. Mais quel intéret pour le référencement ? Il est double en fait.

Quand vous lisez ceci, vous ne comprenez sans doute pas grand, et meme si vous comprenez cette url, vous auriez du mal à la retenir:

/article.php?action=edit&post=568&category=5

Alors que si vous lisez et bookmarkez et devez diffuser cette url:

/ecommerce/le-ecommerce-en-2010

ca devient tout de suite beaucoup plus facile.

Mais la réécriture d’urls n’a pas que l’avantage de transfomer vos url en fil d’ariane, cette technique à aussi le mérite de sécuriser (partiellement cela va de soi) vos variables, et bien entendu de faciliter l’indexation et la compréhension pour les robots crawlers de ce qu’ils indexent. Ces robots n’acceptent en effet qu’un nombre limité de variables (dans l’exemple ci-dessus, on a trois variables, action, post et category), contre des url sans variable plus longues.

Assurer la dégradabilité de votre site/blog

Si vous avez respecté tout ou partie des recommandations de cet article ainsi que de l’article précédent, vous devriez avoir un contenu lisible facilement par un robot d’indexation.

En effet, un robot d’indexation ne voit pas le contenu de votre site avec les mêmes yeux que vous.

Quand vous voyez ca:

le robot Google par exemple, voit ca :

En clair, le robot lit le document html qui lui est fourni, quand vous voyez la traduction de ce meme code html par votre navigateur web.

Or, et c’est la qu’il faut assurer la portablité/dégradabilité de site/blog, votre navigateur est capable d’interpréter une partie très agréable de votre site que le crawler ne lira pas (pas encore, même si ca commence à évoluer ): le javascript.

La meilleure manière de s’assurer que votre site, full ajax, blindé d’animations js, sera correctement lu et compris par les robots, c’est de tester, tester, tester. Je ne peux que vous conseiller deux solutions complémentaires:

  • d’abord, utilisez un lynx viewer (Lynx, c’est le navigateur textuel par excellence, qui se content d’afficher le contenu du site, sans se soucier des styles, scripts… http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php
  • ensuite, d’installer l’excellente web dev toolbar sous firefox. Je vous épargnerai un tuto sur l’utilisation de ce plugin, mais sachez que cet outil va vous permettre de naviguer sur votre site en désactivant le javascript, les css, de linéariser votre contenu, et par ailleurs de vous permettre de quantifier précisément le poids de vos pages etc etc… un must have donc !

Méfiez vous toutefois de pratiquer cette dégradabilité avec classe, sinon, ca va sentir le cloaking, et ca, les robots détestent !

Poids, ratio contenu/html

Récemment Google à introduit une section dans ses outils pour webmasters : « Performances de site ». C’est loin d’etre une nouveauté, mais là, ca marque un tournant : non seulement votre contenu est important aux yeux des robots, mais votre code est pénalisant par rapport à ce même référencement ! Le ratio entre le poids du code html et le poids de vos contenus est important. Ahhhh… mais c’est là finalement qu’un balisage sémantique et conforme W3C devient logique si jusqu’à présent vous n’y faisiez pas attention. Styles inline, tableaux, insertions de styles et de scripts, tout cela devient complètement pénalisant aux yeux des robots, qui ne se fatigueront pas à faire le tri entre le code et le contenu : si votre page est trop lourde, s’ils mettent trop de temps à indexer votre page, ils zappent !! Et votre référencement en pâti.

Prenez donc l’habitude de compresser votre code js et css, et passez si ce n’est déja fait à un code sémantique, rigoureux, respectueux, vous n’en serez que mieux référencé.

Léo, qui est intervenu dans les commentaires de précédents article, en parle sur son blog.

Bannir le duplicate content, et les redirections autres que 301

La seule redirection que les moteurs accèptent est la redirection 301. Selon Wikipedia,  » 301 Moved permanently, This and all future requests should be directed to the given URI ». Donc, ne jouez pas avec le feu en proposant des redirections que vous ne maitriseriez pas : 301 ou rien.

Le duplicate content, c’est le black listage assuré.

Vous ne pouvez plus passer outre les version mobiles de votre contenu

La version mobile de votre site sera indexée exactement de la meme manière que sa version desktop… MAIS : fournir votre contenu sans adapter son affichage aux smartphones, c’est le rendre illisible, inapproprié, et donc, d’une certaine manière, vous nuirez à votre référencement. Vous vous devez de peser les tenants e les aboutissants de l’existence d’une version mobile (cibles potentielles…) , et, le cas échéant, mettre autant d’amour dans cette version ‘allégée’.

Vous l’avez vu, techniquement, le référencement d’un blog est vraiment une savante équation, qui demande du temps, de l’attention, et beaucoup de travail. Je ne peux conclurre qu’en vous ce-onseillant quelques outils dont vous ne pourrez pas vous passer pour tester, tester tester !!

D’ici quelques temps, je rédigerai un dernier article pour conclure cette série d’articles destinée à vous décrire comment, pourquoi, et par ùu commencer pour améliorer son référencement.