Récemment une internaute m’a demandé quel outil j’utilisais pour réaliser mon audit, croyant sans nul doute que je n’avais qu’un clic à faire pour sortir un joli rapport facilement facturable : Erreur.!
Comme nombre de mes confrères, je suis abonné à de puissants analyseurs mensuellement fort coûteux à la vérité.
Une analyse SEO peut tout à fait se faire avec des outils gratuits (ou à l’essai) quand il s’agit d’identifier « le plus gros », mais sachez que même payant, aucun outil ne couvre l’ensemble des paramètres de l’optimisation Web et que c’est une combinaison de ces outils qui permet de bâtir un audit sérieux et exploitable.
Par ailleurs, si les outils apportent une analyse froide (on dira objective), les résultats sont basés sur des critères qui sont propres à l’outil lui-même, et qui sont:
- parfois imparfait,
- souvent incomplet
- et il arrive même que certains renvoient des résultats faux.
Je ne vous livrerai que les meilleurs.
La plupart du temps ces logiciels en ligne sont surtout offerts pour vendre leurs services, ce ne sont des teasers. Il ne faut pas être dupe.
Voici quelques outils qui permettront à un propriétaire de se faire une idée sur la santé SEO de son portail Web critère par critère, ils sont tous gratuits. Certains sont très connus et ne surprendront pas les amateurs éclairés de notre discipline, mais, fouillez un peu, les autres pourraient agréablement vous surprendre.
Ils ne sont pas assez performants pour les considérer comme des outils professionnels, utilisés par les experts en référencement SEO lesquels ont des capacités d’analyse bien supérieures en nombre de sites et en paramétrage.
1. Pingdom: analyse de la vitesse d’affichage
Analyse de la vitesse du site
Voici un crawler dont la version gratuite suffira à un entrepreneur piqué par le référencement Web.
Si Google livre son outil qui donne un indice et non une vitesse exprimée en unité de temps ( testmysite.withgoogle.com)
Je préfère de loin Pingdom, car il fonctionne tout le temps.
On pondérera ses résultats puisque les tests sont réalisés sur des serveurs situés à New York et autres places lointaines mais on prendra au sérieux les recommandations prodiguées. précises et très utiles.
Je préfère de loin Pingdom, car il fonctionne tout le temps.
On pondérera ses résultats puisque les tests sont réalisés sur des serveurs situés à New York, San José…et autres places lointaines mais on prendra au sérieux les recommandations prodiguées, précises et très utiles.
Pingdom : https://tools.pingdom.com/
2. Screaming frog
C’est un crawleur très puissant qui se présente comme un logiciel à télécharger, la version gratuite est limitée à 500 URL — suffisant pour bien des sites —.
Le crawl est obtenu en quelques secondes, il
- fait état des redirections et des liens brisés,
- met en évidence les métadonnées,
- passe en revue le robots.txt,
- audite les hreflang,
- montre les pages dupliquées
- génère un site map.xml prêt pour google search console
La prise en main n’est pas des plus conviviales et les rapports sont livrés sur d’austères tableurs, en revanche le crawl est parmi les meilleurs qui soient.
https://www.screamingfrog.co.uk/
3. Google search console (ex-Google Webmaster Tools)
J’aurais dû commencer par lui. C’est l’outil obligatoire, qui n’est que trop absent de bien des sites de PME et indépendants.
Créer votre accès via votre compte Google, coller le code de validation fourni dans votre <head> et attendez un mois qu’il crawle complètement votre site.
Ensuite, surveillez LA SANTÉ de votre site grâce à des outils qui donnent de vrais conseils, vous noterez qu’il fait la part belle aux microdatas. (Tiens serait-ce important ?)
- Données structurées avec leur validation et leurs erreurs
- Carte enrichie présente ou non
- Marquage de données
- Balises mit description en double
- Balises title en double
- Version AMP présente, validée ou pas
- Ergonomie mobile
- Indexation
- Pages bloquées
- Un module pour supprimer des URL
- Les erreurs d’explorations
- Les pages introuvables
- De quoi soumettre votre sitemap.xml
Il n’est pas parfait, il lui arrive de mentionner des erreurs alors que ses propres outils de vérification ne les trouvent pas. En effet, au-delà de l’analyse rendue, des outils de vérification sont mis à disposition…
Si votre score était 100 % clean chez GSC, ce serait déjà pas mal pour votre site…
4. Backlink watch, un explorateur de liens basique
Pour une vue générale et dépouillée des liens pointant vers un site, il suffit d’entrer l’URL d’un site dans le seul champ présent en page d’accueil, puis laissez mouliner.
Vous obtenez une liste de liens très épurée, qui ne ramasse guère que les URLs qui pointent vers le site. C’est mieux que rien, vous pouvez espionner vos concurrents et trouver de l’inspiration… Surtout si vous copiez-collez la liste dans un tableau Excel pour les trier.
La page propose d’autres outils qui vous redirigent vers le très pro Semrush, qui lui n’est pas gratuit (Mon préféré dans la catégorie couteau suisse du SEO).
Le site BacklinkWatch propose aussi l’achat de liens à vil prix (15 sous le lien oui 0,15 $ promettant des DA de 40 et plus), ce que ne vous devriez faire sous aucun prétexte, je vous aurai prévenu. (Vous n’avez pas entendu parler de Pingouin ?)
http://www.backlinkwatch.com/index.php
5. Chercher le contenu dupliqué
Il y a de nombreuses raisons de se méfier du vol ou de la copie de contenu sur le Web
- Votre agence Web vous a livré votre site tout neuf peu cher, mais le contenu viendrait-il de Wikipédia ou de concurrents ?
- Vous avez engagé un rédacteur Web à 5 dollars et il vous a livré en un éclair, méfiance.
- On vous a peut-être volé les textes que vous avez payés très cher.
- Votre site a pris une pénalité et vous en recherchez l’origine, serait-ce un coup de Panda ?
Il y a contenu dupliqué et il y a contenu similaire, c’est-à-dire avec un taux de copie important. C’est ce qui arrive hyper souvent quand le « rédacteur » n’a fait que reformuler un texte existant en le modifiant ici et là,
- le vocabulaire
- le genre
- ou l’ordre des phrases.
Ce taux de similarité est bien évalué par Google et ce type de texte, s’il échappe à Panda, n’est pas valorisé dans la SERP
Voici un outil de vérification de contenu dupliqué qui vous donne en plus le taux de similarité avec les URL qui lui ressemblent.
- Vous pouvez coller votre texte ou
- coller votre URL,
Dans le 2 en cas, l’outil va lire et prendre en compte le contenu de la side barre et du pied de page, et risque de trouver une proportion de contenu similaire entre vos propres pages… sans compter que ces contenus peuvent être très diluant pour certains articles
Si les premiers résultats apparaissent en fond rouge, c’est que le contenu n’est pas assez original.
https://www.positeo.com/check-duplicate-content/
6. Analyse sémantique et densité de mot clé
Vous avez probablement lu des tas de conseils SEO sur la densité de mot-clé et bien des légendes urbaines survivent encore sur le sujet. Sans commentaire !
Dans la catégorie des outils géniaux, peu connus et gratuits, voici un analyseur de texte qui vérifie la densité de mot-clé de vos textes, mais pondère ses résultats en fonction des emphases appliquées sur le vocabulaire.
Résultat, votre texte, après analyse, affiche des pourcentages de répétition non basés sur le nombre de fois où ils sont présents, mais aussi en fonction du code HTML qui les entoure.
Logique, ne vous a-t-on pas dit que les mots-clés placés en <H1> pèsent plus lourds que perdus dans un paragraphe…
J’utilise Alyse.info de façon constante pour des vérifications fines. C’est un analyseur sémantique unique, très ancien et qui a bien évolué. Certes son interface est un peu revêche, mais son algorithme n’a pas d’équivalent.
Attention l’onglet « optimisation n’est pas à jour des pratiques SEO 2018, il ne sait pas que la méta description est montée à 230 caractères.
Il possède aussi un module d’analyse des images que je ne connais pas.
7. Outils de positionnement
Serposcope
Un des rares outils de vérification de positionnement gratuit ! À ce prix il lui manque une qualité, contournable avec un peu de patience. Les recherches s’effectuent sur IP. C’est votre IP qui fait la requête à Google au risque de la griller si vous abusez. Les solutions passent par l’utilisation de proxis (abonnez-vous à un service payant, c’est utile pour plein d’autres usages) ou allez chercher vos rapports en mode lent (l’outil effectue alors une requête toutes les 10 secondes [configurable un peu plus rapide].
Si vous lancez le travail la nuit, c’est parfaitement acceptable. Un autre point gris, l’outil n’offre pas l’exportation des rapports… Il faut tricher avec une copie d’écran.
Il est clair que l’outil ne conviendra qu’à un usage individuel pour un site qui n’est pas trop accro à ses positions et pour lequel un test toutes les deux ou quatre semaines conviendra, ce qui entre nous, est bien suffisant.
8. Analyse des champs lexicaux d’une page
Cet outil français a reçu le “Prix de l’Univers connecté et la Médaille d’or Escarboucle” au concours Lépine 2017. Réellement innovant, je ne connais pas d’équivalent à ce monstre indispensable à qui prétend faire de la rédaction SEO.
Présenté comme un “outil d’accompagnement rédactionnel qui accélère le processus de rédaction de contenu”, c’est un puissant analyseur de champ sémantique.
À partir d’une page ou d’une URL, il indique le vocabulaire, connexe au mot clé que vous lui avez désigné et pointe les expressions qui ne devraient pas se trouver dans la prose parce qu’elles sont hors sujet.
Il vous reste à faire le tri et prendre ceux que vous pouvez intégrer pour enrichir votre rédaction.
L’outil est ultra français et certaines suggestions sont hors sujet pour les Québécois [on parle de sécurité sociale, de pôle emploi et autres vocables, acronymes ou administrations purement hexagonales]. Votre jugement et tri de pertinence reste donc nécessaire.
La prise en main est enfantine, l’interface très sympa, très intuitive, la version gratuite ne permet pas de récupérer l’import.
L’analyse gratuite est moins pratique que la version payante, laquelle reste à portée de bourse [1 euro l’analyse d’un texte ou d’une URL].
Seuls les rapports sont à chier, au lieu de vous donner un CVS classable, l’import vous donne la suite de mots en vrac quasi inutilisable. L’outil ne stocke vos analyses qu’un mois. Là encore j’ai tendance à recourir à la copie d’écran… dommage.
Mais cet outil évolue constamment, il finira probablement par proposer des rapports clean et exploitables.
9. Rapport de performance, l’analyse des requêtes.
La nouvelle interface de search console Google
Vous avez validé votre site sur search console., c’est très bien. Il est probable que vous ayez reçu ces derniers jours un lien pour aller voir “la nouvelle interface, la nouvelle version”.
Gardez ce lien, un génial outil y est déjà intégré qui, par filtrage, vous révèle les requêtes [et surtout leurs variantes] qui affichent votre site dans les résultats, même si aucun clic n’a été effectué.
Interface épurée, très conviviale, on frôle le jouet. Une bonne exploitation de cette information devrait vous pousser à enrichir vos textes en allant dans le bon sens.
Allez à cette adresse en étant connecté à votre compte https://search.google.com/search-console et choisissez celui de vos sites que vous voulez consulter dans le champ supérieur.
L’accès à ce lien n’est pas encore facilité [il est absent de la version actuelle]. Il semble que Google ne veuille pas un maximum de trafic pour commencer.
Profitez-en quand même dès maintenant
10. générateur de microformats
Un grand nombre de propriétaires de site Web ignorent royalement les notions de:
- microformat,
- microdata,
- Hcard et Vcard
- marquage de données
Selon la techno de votre site ( pour certains comme Genesis ces données sont présentent sur les fondamentaux ) pour d’autres CMS c’est le désert
Voici trois générateurs de microformats/ microdatas qui vont vous aider à les coder et implémenter correctement dans connaitre une ligne de code:
- Pour le hcard : http://microformats.org/code/hcard/creator
- Pour ;les données en Json (préférées par les moteurs) et le références schema.org : https://webcode.tools/microdata-generator
Pour la tranquilité de l’esprit, vérifiez la taxinomie avec l’outils de Google
https://search.google.com/structured-data/testing-tool
11 SEMscoop
https://semscoop.com est un outil d’analyse clé en main et d’analyse de SERP prêt à l’emploi destiné aux personnes qui intéressent au du marketing numérique, aux blogueurs et aux petites entreprises qui veulent faire grimper leurs requêtes vers le top de la SERP.
Il aide à repérer de véritables opportunités requêtes moins compétitives ( sans tomber dans la longue traîne) et créer des contenus intelligents complémentaires. Il apporte des metrics comme le PA , Le DA . La formule gratuite de l outil permet .
- 5 recherches de mot clé par jour
- 10 analyses de mot clé par jour
- 50 résultats de mot clé avec « metrics » par jour