Pour faire suite à l’article précédent à propos de ce que Panda considère être un contenu de qualité. Voici une traduction libre du guide des bonnes pratiques éditées par Google lui même et reprise par Ron Gilles référence de Nouvelle-Zélande.
Sachez que si vous êtes injustement victime de la correction Panda, vous pourrez la contester via webmaster tools (update Bambou pour le re- examen et la restauration des sites frappés par Panda)
Votre site web est-il prêt pour la correction Panda ?
En suivant les lignes directrices des recommandations de Google, vous vous assurez l ‘indexation de votre site web et le rang que vous « méritez ». Nous vous recommandons de garder un mot à l’esprit « qualité » et de refuser les pratiques illicites qui peuvent conduire Google à pénaliser votre site voire à le désindexer (ce qui reste rare). Une fois pénalisé, un site mettra de longs mois avant de réapparaître dans les SERP de Google et des sites partenaires.
Conception et rédaction du contenu
- Faites un site ergonomiquement conçu, bénéficiant d’ une hiérarchisation des menus claire. Veillez à rendre chaque page accessible grâce à un hyperlien en texte au moins. (Donc, pas seulement depuis les menus).
- Éditez une page « plan de site » dont les liens pointeront vers les sections importantes de votre site. Si ce plan de site » affiche un très grand nombre de liens, divisez-la en plusieurs pages.
- Dans chaque article, n’abusez pas du nombre de liens pointant vers vos pages intérieures gardez ce nombre raisonnable ! (J’aime le flou du mot raisonnable – on parle de rester en dessous de 100 liens).
- Créez un site utile et riche en informations, utilisez un vocabulaire simple, précis qui corresponde bien au sujet de l’article (Dites -vous que Google sait lire, mais que son vocabulaire manque encore de finesse et qu’il lui reste des progrès à faire).
- Réfléchissez aux mots -clés logiques grâce auxquels vos lecteurs trouveront votre page et utilisez-les dans vos textes.
- Préférez le texte aux images ou aux liens pour énoncer les concepts les plus importants ; les robots d’exploration ne voient pas ce que contiennent les images. Et si vous devez utiliser des photos dans le contexte de votre article, remplissez les balises « alt » et l’attribut « Title » de l’image en y mettant quelques mots descriptifs. ( Cette dernière remarque est orientée utilisateur, de grands référenceurs ont maintes fois « montré » que l’attribut Title de l’image » n’était pas pris en compte par Glouglou).
- Corrigez votre code HTML et vérifiez vos liens brisés.
- Si votre site est une plateforme dynamique et que ces url appellent des requêtes, ne laissez pas de caractère comme « ? ou & » dans les url). Sachez que les spiders n’explorent pas les pages dynamiques de la même façon que les pages statiques. Réécrivez vos URL pour des énoncés courts des paramètres clairs et moins nombreux.
Directives techniques
- L’utilisation des ID de sessions et des arguments de traçage de navigation sont des freins à l’exploration des spiders de Google, les moteurs de recherche ne circulent pas dans un site de la même façon qu’un internaute …. L’utilisation de ces techniques peut donner lieu à une indexation incomplète de votre site, car les robots perdent, dans ce cas, la capacité à éliminer les URL qui semblent différentes bien qu’elles pointent vers la même page.
- Vérifiez le texte qui est effectivement perçu par Google souvenez-vous que le javascripts, les cookies, les ID de sessions, les cadres, le flash dissimulent certaines parties du texte et peuvent causer des problèmes d’exploration aux spiders.
- (le navigateur Lynx fait cela à la perfection mais il est difficile à installer et n’est pas compatible avec tous les sites), une astuce basique consiste à cliquer la version cache de la SERP (photo 1) puis cliquer sur « version en texte seul » du cache de la page (photo 2) ]
- Assurez-vous que votre serveur web supporte l’entête http If-Modified-Since ». Cette fonctionnalité permet à votre serveur web d’indiquer à Google que votre contenu a été modifié depuis sa dernière exploration de votre site. Cette fonctionnalité permet d’économiser votre bande passante donc des frais généraux.
- Utilisez le fichier robots.txt sur votre serveur web. Il indique aux robots les répertoires à explorer ou non. Assurez-vous qu’il est adapté à la techno de votre site afin de ne pas bloquer Googlebot durant son exploration. Aller sur la page info robot texte http://www.robotstxt.org/faq.html pour toute info sur ce sujet. On peut aussi tester le fichier robots.txt et vérifier qu’on l’utilise correctement avec l’outil d’analyse robots.txt disponible dans Google Webmaster Tools.
- Faites ce que vous pouvez pour vous assurer que les publicités ne portent pas atteinte au travail des moteurs de recherche. Par exemple, les annonces AdSense de Google et DoubleClick sont bien exclues de l’exploration par un fichier robots.txt. (petit appel à l’utilisation des bonnes régies de pub)
- Évitez l’exploration des pages générées « à la volée » (en général agrégation redondante, catégories, mots clés etc) qui n’apportent pas de valeur ajoutée au site. Utilisez le fichier robots.txt pour les exclure de l’indexation de Google.
- Si vous avez un CMS (Système de gestion de contenu), assurez-vous que la plateforme crée des pages et des liens que les moteurs de recherche sont en mesure d’explorer.
- Testez votre site pour être sûr qu’il s’affiche correctement dans les différents navigateurs.
- Surveillez la vitesse de chargement de votre site et optimisez-la au mieux. Google favorise l’expérience utilisateur et sanctionne les sites qui s’affichent trop lentement leurs pages. Les sites rapides donnent meilleure satisfaction aux internautes et consomment moins de bande passante.
Conseils qualité globale d’un site web
Voici un mini répertoire des comportements illicites et manipulatoires très courants pratiqués sur le web et que Google désapprouve et sanctionne. Tous n’y sont pas! Il ne serait pas réaliste de penser que sous prétexte qu’une technique spécifique trompeuse n’est pas incluse dans cette page, elle serait ignorée ou approuvée par Google. (Exemple, enregistrement de nom de domaine avec fautes d’orthographe sur des noms de sites connus). Les webmasters qui s’efforcent à respecter l’esprit des principes de base offrira une expérience utilisateur bien supérieure et fera bénéficier son site d’un classement bien meilleur que ceux qui passent leur temps à rechercher les failles à exploiter.
Si vous pensez qu’un autre site ne respecte pas les directives de qualité de Google, s’il vous plaît signaler-le à l’adresse ( https: / / www.google.com / webmasters / tools / SpamReport) . Google apporte à force d’ajustements des solutions évolutives et automatisées à chaque problématique de spam, ceci permet de réduite « la correction à la main ». Les reports de spam qui nous sont transmis sont utilisés pour faire évoluer nos algorithmes et bloquer les tentatives de spam à venir.
Conseils qualité: Les bases
- Faites des pages principalement pour les utilisateurs et non pour les moteurs de recherche.
- Ne décevez pas vos visiteurs en présentant un contenu différent de celui qu’il recherche.
- Ne présentez pas aux moteurs de recherche un contenu différent de celui affiché aux utilisateurs, (communément appelé «cloaking»)
- N’utilisez pas de logiciel « obscur » pour soumettre vos pages et faire des tests de positionnement, ces logiciels consomment des ressources précieuses et contreviennent aux règlements édictés par Google. (WebPosition Gold est nommément cité)
- Évitez les « trucs destinés à améliorer le classement des moteurs de recherche. La bonne conduite consiste à se poser ces trois questions:
- 1) Pouvez-vous justifier, sans en rougir ce que vous avez fait contre un site concurrent?
- 2) Ce que je fais pour ce site va-t-il aider mes visiteurs ?
- 3) Aurais-je fait la même chose si les moteurs de recherche n’existaient pas ?
- Évitez de participer aux fermes de liens, évitez d’en mettre en place. Ne créez pas votre réseau de site satellites afin de vous linker « tout seul », ne participez pas aux schémas mis en place par les adeptes du black hat.
Conseils qualité – Lignes directrices spécifiques
- Évitez le texte caché.
- N’envoyez pas de requêtes automatiques à Google.
- Évitezle contenu dupliqué, même à l intérieur de votre site.
- Ne créez pas de pages aux intentions malveillantes, comme phishing ou l’installation de virus, chevaux de Troie .
- Évitez les « portes d’entrées », pages créées exclusivement pour les moteurs de recherche, comme les programmes d’affiliation dont le contenu original n’a que peu ou pas d’intérêt.
- Si votre site participe à un programme d’affiliation, assurez-vous qu’il apporte une valeur ajoutée. Fournissez un contenu pertinent et original pour inciter les internautes à surfer sur votre site en premier.
- Ne pas charger les pages avec des mots clés non pertinents.
Conclusion
Pas grand-chose de si nouveau par rapport aux recommandations du guide Google du SEO 2010 (Version Eng) et c’est logique, les corrections ne sont pas faites pour modifier ce que l’on considère comme étant LA QUALITÉ mais pour sanctionner les abus des malins qui profitent des failles de l’algorithme.
C’est pourquoi votre site n’a rien à craindre de Panda si vous avez globalement respecté les règles du jeu.
Si vous désirez une rapide mais bonne synthèse des effets Panda sur le web anglophone, je vous recommande le blog d’EKO et l’article de DNCOM David Carle , leurs conclusions rejoignent le bon sens de la communauté du référencement propre, ce qui fait toujours plaisir.
En espérant que ce rappel de références sera utile à quelques-uns d’entre vous.
NB
Votre commentaire peut être sympathique ou/et constructif en tous cas, il ne sera jamais mauvais ni pour la popularité de cette page ni pour le petit backlink qui pointera chez vous.
Lâchez-vous
Autres articles dans la catégorie « rédaction web »
- Votre contenu est-il riche ?
- Rédacteur web à Montreal
- Rédaction de contenu web et architecture du site
- Formation Rédaction Web