Référencement naturel

 

Référencement naturel ! Optimiser techniquement ses pages, travailler le contenu, promouvoir son site… Décryptage des points fondamentaux préconisés par Google dans son guide du SEO qui vient d’être mis à jour. Nième Conseil vous offre 10 conseils sur des points précis qui sont loin d’être toujours respectés. Ils sont pourtant essentiels aux yeux du moteur. 

 

1) Des textes d’ancre (anchor text) pertinents

Le texte placé entre les balises d’ancre de lien  informe Google sur le contenu de la page vers laquelle il pointe. “Il doit fournir au moins une idée approximative sur le contenu vers lequel il renvoie”. Ce conseil de Google peut sembler simple, pourtant, il est loin d’être bien respecté.

Il implique d’éviter de mettre dans cette balise les URL, ou surtout, des textes hors sujet, y compris les “cliquer ici” et autres numéros de page. Cela vaut pour les liens internes comme pour les liens externes.

Google rappelle qu’il faut également les différencier dans la feuille CSS pour qu’ils ne soient pas présentés de la même façon que le reste du texte. Il précise également que son moteur n’apprécie pas les textes d’ancrage remplis de mots clés, trop nombreux, ou au texte trop long. Google peut y voir du SEO Black Hat qu’il pourra sanctionner.

2) Bien renseigner l’attribut “alt” des images 

L’attribut “alt” permet d’associer un texte à une image. “Toutes les images peuvent avoir un nom de fichier et un attribut “alt” distincts et vous pouvez tirer un bénéfice de ces deux éléments”, indique Google. Il est en effet possible d’optimiser son référencement en renseignant bien cet attribut – avec un mot clé toujours efficace pour le SEO par exemple.

Les noms type “image1” en attribut alt sont à proscrire.

Tout comme pour les ancres de liens, il faut donc veiller à ne pas utiliser des noms de fichiers génériques, tel que “image1.jpg”, ou “im.gif par exemple. Le texte alt ne sert donc pas qu’à améliorer le référencement sur Google Images.

Par ailleurs, Google indique qu’un fichier Sitemap pour les images fournit des informations qui intéressent ses robots.

3) Des Captcha et des liens en nofollow pour les contenus générés par les internautes

Les liens no follow (rel=”nofollow”) indiquent à Google de ne pas suivre la direction pointée par ces liens. Ils ne transmettent donc pas l’éventuelle popularité de la page source à la page cible.

Google recommande explicitement d’appliquer la politique “no follow” aux liens postés dans les commentaires, et même dans tous les CGU (contenus générés par les utilisateurs). “Les zones de commentaires de blogs contiennent très probablement des commentaires de type spam“, remarque Moutain View.

Il s’agit de ne pas transmettre “la bonne réputation de votre site durement forgée à un site contenant du spam”, c’est-à-dire de ne pas faire profiter un tiers de ses efforts de SEO. 

Cela peut d’ailleurs être préjudiciable pour le site qui accueille ces liens “spam”, Google le précise clairement aussi. “Si vous renvoyez des liens vers des liens que Google considère comme du spam, vous pouvez mettre en danger la réputation de votre propre site”, c’est-à-dire son référencement.
Pour se prémunir contre “les spamindexers“, Google recommande d’utiliser les captcha et/ou l’activation de la modération des commentaires.

Enfin Google rappelle qu’il est possible d’attribuer un lien “nofollow” à tous les liens d’une page en utilisant une balise meta appropriée (du code HTML de la page).

4) Proposer du contenu et des services “de qualité” 

Avec la mise à jour Panda de l’algorithme de Google, le chapitre “Proposer du contenu et des services de qualité” du guide SEO de Google revêt une importance décuplée pour les webmasters et référenceurs.

“Créer du contenu attrayant et utile aura sans doute plus d’impact sur votre site Web que chacun des autres points traités dans ce guide”, y explique Google. En référencement, le contenu est Roi, comme le rappelle l’expert en SEO David Degrelle, PDG de l’agence 1ère Position, dans ses conseils pour se préparer à l’activation en France de la mise à jour de l’algorithme de Google.

Un contenu de qualité va attirer l’attention, puis être relayé par d’autres internautes, qui le diffuseront ensuite avec de précieux backlinks sur les blogs, les forums, les réseaux sociaux, etc. C’est ce que Matt Cutts, porte-parole du moteur de recherche, appelle le linkbait. Une sorte de Graal pour le SEO.

Pour y parvenir,  plusieurs leviers sont essentiels pour Google : il faut “proposer des services exclusifs“, et “produire du contenu actualisé“. Avec Panda, ces indicateurs semblent avoir vu leur importance augmenter. 

Google précise une nouvelle fois ne pas aimer “les sites qui “réchauffent” ou même copient du contenu existant sans valeur ajoutée ou peu utile pour les utilisateurs “. Google se réserve le droit de sanctionner de tels sites, et très sévèrement, comme le montre l’activation de Panda au Royaume-Uni.

Quant à “rédiger du texte facile à lire”, afin de viser le plus grand nombre, cela se traduit par un autre conseil concret : mélanger les mots clefs, pour qu’ils soient à la fois généralistes et spécialisés. Google AdWords propose d’ailleurs un générateur de mots clés très utile, entre autres pour cet usage

5) Bien désindexer des pages – et pas uniquement avec le fichier robots.txt

Comme le rappelle l’expert en SEO Alexandre Garnier, depuis la mise à jour Panda, le fichier robots.txt, qui empêche les robots de Google d’indexer le contenu, a été surnommé non sans humour “bambou”, en référence à la nourriture du Panda. Il risque en effet d’être utilisé par de nombreux webmasters désireux de “cacher” certains de leur contenu à Google.

Afin d’empêcher l’exploration de certaines pages d’un site, Google fournit aux webmasters un générateur de fichier robots.txt. Mais, il existe d’autres moyens pour protéger son site rappelle Mountain View. Un fichier .htaccess protège également les mots de passe des répertoires. La suppression de contenu ayant déjà fait l’objet d’une exploration est également possible depuis le Google Webmaster Tool. Matt Cutts a détaillé dans une vidéo tous les aspects importants à surveiller pour chacune des méthodes de blocage d’URL.

Que faut-il cacher au moteur ? Les réponses peuvent diverger, mais le contenu dupliqué ou les d’URL créées suite à l’utilisation de services de proxy sont bannies : Google connaît et punit ces techniques de Black Hat SEO

Google déconseille également l’indexation “de pages ressemblant à une page de résultats de recherche” d’un moteur interne à un site. Mais certains comparateurs de prix, d’ailleurs récemment sanctionné par Panda, ou d’autres sites indexent toujours les résultats de page de recherche d’un moteur interne

4 réponses

Trackbacks (rétroliens) & Pingbacks

  1. […] intégrants du texte, pour une bonne qualité de rédaction et pour rester discret aux yeux des robots d’indexation qui n’aime plus trop les mots clés sans queues ni têtes. En plus, même les internautes eux […]

  2. […] intégrants du texte, pour une bonne qualité de rédaction et pour rester discret aux yeux des robots d’indexation qui n’aime plus trop les mots clés sans queues ni têtes. En plus, même les internautes eux […]

  3. […] Le web 2.0 a introduit de nombreuses mutations dans la fonction marketing. En effet, le marketeur […]

Laisser un commentaire

Participez-vous à la discussion?
N'hésitez pas à contribuer!

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.