Collectez automatiquement les données Search Console avec Zennoposter

[Le dernier article sur ce blog datait d’Octobre 2014, je crois qu’il était temps de s’y remettre !]

S’il y a bien quelque chose que j’ai du mal à supporter en SEO, c’est le fait de perdre des données. Or comme vous le savez tous, dans notre cher outil Google Search Console, les données liées à l’analyse de la recherche (impressions, clics, CTR et positions) ne sont plus accessibles passé un délai de 90 jours. Alors OK les mots-clés c’est has been, le SEO a beaucoup évolué, bla bla bla. Mais au quotidien, quel SEO peut aujourd’hui s’affranchir de démarrer un audit ou un accompagnement SEO sans s’attarder un minimum sur les keywords ?

Analyse de la recherche Search Console

Télécharger les données tous les mois

Donc si l’on ne veut pas ‘perdre’ ces données, les options sont limitées. Il faut aller régulièrement télécharger le fichier CSV contenant ces informations … site par site, compte par compte. Si vous gérez 3 sites, aucun problème. Si vous êtes éditeur de sites, consultant SEO ou agence, vous gérez peut-être 30 sites, 100 sites, 1000 sites ! Bref, inimaginable de devoir passer 4 heures à télécharger ces données tous les mois.

ZennoPoster mais quelle bonne idée

Il y a environ 6 mois (avec les copains Arnaud, Régis, Annick et Luc) j’ai suivi une formation ZennoPoster [<– this is not an affiliate link] assurée par Seoxis. Dans cet article, je vous passe les atouts et la puissance de l’outil, j’espère y revenir dans un article dédié. Bref, ZennoPoster est l’outil idéal pour ce genre de tâche répétitive qui demande par ailleurs un planning d’exécution.

J’ai donc construit un template qui, chaque 1er jour du mois, va aller télécharger les données du mois précédent pour tous les sites présents dans Search Console. On obtient ensuite un dossier par domaine et pour chaque domaine, un fichier CSV contenant les données de recherche :Données CSV Search Console

À vous ensuite d’utiliser ces données à bon escient. Et dans ce cas vous le savez : Excel est votre ami.

Utilisation du template

Pour utiliser le template, rien de plus simple. Ajoutez-le dans ZennoPoster. Cliquez droit pour modifier les paramètres (Settings). Entrez vos login/password Google.

Vous avez ensuite le choix entre deux modes :

  • Manuel : sélectionnez le mode manuel si vous voulez extraire ponctuellement les data pour une période donnée. Ex ci-dessous, vous souhaitez récupérer les données pour la période du 1er au 12 avril 2016. Cliquez ensuite sur OK et exécuter votre template. Checkez les logs. C’est terminé.Paramètres ZennoPoster
  • Automatique : sélectionnez le mode automatique si vous souhaitez extraire les données chaque mois de façon automatique. Dans ce cas, vous pouvez laisser les champs de date vides. Cliquez sur OK. Il vous faut maintenant planifier l’exécution du template. Celui-ci sera exécuté une fois par jour, mais n’ira télécharger les données que si nous sommes le 1er jour du mois.Schedule ZennoPoster

The end

Je suis encore un noob sur ZennoPoster, donc soyez indulgents, le template pourrait certainement être optimisé.

ZennoPoster - Search Console Extractor

Pourquoi je vous le donne ici alors que j’ai passé des heures à le construire ? D’une part parce que je crois dur comme au fer au partage au sein de la communauté SEO. C’est grâce à ceux qui partagent ou ont partagé que j’ai pu avancer (et je sais que je ne suis pas le seul). D’autre part parce que ce serait dommage que je sois le seul à pouvoir en profiter.

Voici donc le template à télécharger : ZennoPoster – Search Console Extractor.

Comme toujours, vos retours sont les bienvenus.

Save The Date

Je profite de cet article pour vous rappeler deux événements SEO à ne pas rater dans les jours et les semaines qui viennent. Tout d’abord le Google Black Day dont la 3e édition aura lieu le samedi 23 avril. Rappel pour ceux qui aurait raté les deux premières éditions : il s’agit de conférences en ligne entièrement gratuites. Vous pouvez d’ailleurs retrouver les vidéos des éditions précédentes sur la chaîne Youtube du Black Labo. Pour cette édition, nous aurons le plaisir d’écouter Jaffaar Saleh, Julien Gandaho, Pierrick Buty, Manuel Cebrian et David Dragesco. Je vous laisse le soin d’aller jeter un oeil au programme ici. Et pour vous s’inscrire c’est par .

L’autre événement à ne pas rater c’est bien entendu le WebCampDay d’Angers organisé par l’ami Nicolas et qui aura lieu le vendredi 13 Mai (paranoiaques s’abstenir). Toutes les infos sont disponibles sur webcampday.com. Les inscriptions sont ouvertes depuis quelques jours (voir ici) et à 25€ la place, impossible de passer à côté.

Cheat sheet : les fonctions Excel à connaître pour le SEO

Préambule : cet article fait partie d’une série consacrée à Excel pour le SEO.  Il s’agit du cinquième et dernier billet.

On utilise chaque jour de nombreux logiciels pour nous faciliter la vie, nous les SEO, mais finalement, celui qui revient le plus souvent pour la plupart d’entre nous c’est Excel ! Pourquoi ? Tout simplement parce que c’est là qu’on va venir coller nos exports Analytics, Xenu, Screaming Frog ou Majestic, nos scraps, la liste de mots-clés de nos clients, la liste des BL de nos concurrents à désavouer (#joke), etc. etc.

Et lorsqu’on ne maîtrise pas l’outil correctement, on perd du temps. Je vais donc commencer par vous recommander ce très bon article chez distilled.net (en anglais). L’article, très complet, reprend bien plus que les fonctions utiles au SEO. Il explique comment utiliser la recherchev,  la concaténation, et ainsi de suite => mustread !

Le document que je vous propose aujourd’hui est bien moins complet, mais beaucoup plus simple. Voici ce que vous y trouverez.

Excel Seo Cheat Sheet

Que contient le document ?

Le fichier Excel présente 28 fonctions Excel regroupées en 6 catégories. A partir d’une URL, d’un nom de domaine et/ou d’un mot-clé, ces 28 fonctions vous donneront :

  1. Le nombre de résultats dans Google
  2. Le nombre de pages indexées sur Google
  3. Le Toolbar PageRank
  4. Le Trust Flow
  5. Le Citation Flow
  6. Le nombre de referers
  7. Le nombre de backlinks
  8. Le nombre d’occurrences d’un mot sur la page
  9. Le Title
  10. Le H1
  11. L’URL canonique
  12. Le nombre de liens sur la page
  13. Le code HTTP
  14. Si le code HTTP est 301, l’adresse de redirection
  15. La meta description
  16. La meta Robots
  17. La présence du mot-clé dans l’URL
  18. L’Alexa Trafic Rank
  19. L’adresse IP
  20. Le pays
  21. La date de création du whois
  22. Le nombre d’interactions Facebook
  23. Le nombre de Google +1
  24. Le nombre de tweets
  25. Le sous-domaine
  26. Le domaine
  27. Le tld
  28. Le path

Je précise une dernière fois qu’il vous faudra un accès à l’API Majestic pour obtenir les Flow Metrics et bien entendu l’extension SEO Tools for Excel pour la totalité des autres résultats. Autre précision, pour les Flow Metrics de Majestic, entrez ndd.fr pour obtenir les données liées au domaine racine et http://ndd.fr/article pour les données liées à l’URL.

Télécharger le fichier Excel

Voici le document, en téléchargement libre comme toujours : SEO-Excel Cheat Sheet – v.1.0.

Pour aller plus loin : je vous recommande également cette méthode pour apprendre à supprimer les doublons dans Excel. Et bientôt je vous expliquerai comment recouper facilement deux bases de données !

Le dossier complet Excel pour le SEO

Pour aller plus loin

Maîtriser Excel pour le SEO, c’est bien, c’est même indispensable la plupart du temps. Mais bien entendu cela ne suffit pas. Nous avons la chance en France de disposer de très bon formateurs SEO, c’est la raison pour laquelle je vous encourage vivement à suivre cette formation Trafic Google ! Elle vaut le détour je vous le garantis !!

Comment monitorer les SERPs avec Excel ?

Préambule : cet article fait partie d’une série consacrée à Excel pour le SEO.  Il s’agit du quatrième billet.

Le document que je vous propose aujourd’hui va vous permettre de suivre l’évolution des SERPs sur un mot-clé donné. Il s’agit bien entendu d’une utilisation « artisanale » avec Excel, mais suffisamment automatisée pour que ce ne soit pas une usine à gaz. Si vous cherchez un outil plus pointu, je vous invite sans tarder à découvrir cet outil. Finalement, ce qu’on va faire ici, c’est un peu ce que nous avait proposé Aurélien il y a quelques semaines, mais d’une manière un peu différente.

Et bien sûr, si tout cela vous dépasse, alors vous pouvez toujours consulter le classement des consultants SEO ou bien même faire appel à bon consultant Adwords pour booster votre visibilité sur Google.

La check list

Je ne vais pas me répéter à chaque article. Alors pour résumer, il vous faudra une version d’Excel récente et avoir activé les macros.

Edit 15/10/14 – 13:30 : Important, j’oubliais : vous aurez également besoin du plugin SEO Tools for Excel qu’on ne présente plus. Si vous ne l’avez pas, je vous invite à relire ceci.

Le tutoriel

Voici comment se présente l’outil (pour l’exemple, j’ai repris le mot-clé du concours Auvairniton Bourgrire et j’ai adapté quelques données) :

    1. un onglet de paramétrage dans lequel vous renseignez
      • le mot-clé en question
      • le nombre de pages à scraper (10 par défaut, mais c’est souvent inutile de dépasser 5 voire 3)
      • les domaines à surveiller (attention, j’ai dit les domaines, ne mettez pas d’URL et supprimez éventuellement les www.), 15 au maximum.

      parametrage google monitor

    2. Un onglet de détail dans lequel vous retrouvez les positions par jour et par concurrent
    3. Un onglet de consolidation dans lequel vous pouvez obtenir
      • un aperçu des SERPs à deux dates données ainsi que les écarts
      • un graphique qu’il suffit de mettre à jour en cliquant sur le bouton rouge.

SERPs date à date

graphique suivi des serps

L’utilisation est on ne peut plus simple. Il suffit d’ouvrir le document régulièrement, à l’ouverture le fichier récupérera les données puis se fermera. Ouvrez-le à nouveau pour consulter les données.

A chacun sa méthode, mais en ce qui me concerne, comme pour la plupart des mes documents Excel, j’ai mis en place une tâche automatisée sur Windows qui me permet de récupérer les données chaque jour sans avoir quoique ce soit à faire (j’expliquais la marche à suivre dans cet article). Ce qui permet une analyse fine et évite les erreurs de relevé de position (ex. si vous relevez vos positions une fois par mois, vous prenez le risque de le faire une journée où les SERPs ne sont pas stables ce qui peut fausser l’analyse).

Avez cette méthode, vous aurez du mal à suivre 100 mots-clés, par contre, vous pouvez le faire sans aucun souci pour vos 10/20 expressions clés (ou le top keyword de chacun de vos clients).

NB  : ce document n’est réellement intéressant que dans la durée (ou pour déceler facilement les gagnants et les perdants lors de mises à jour d’algorithme – c’est d’actualité paraît-il) alors laissez le tourner une petite semaine voire plus avant d’y revenir (faute de quoi vous ne verrez que de belles droites sur le graphique).

Télécharger le document

Voici donc le document en question : Google Monitor v.1.23.
(NB : si vous avez la version 1.19, pensez à télécharger la nouvelle version qui vient corriger une erreur dans la macro).

Pour supprimer les données existantes, cliquez droit sur n’importe quel onglet. Puis choisissez Afficher / Histo et supprimez les lignes 2 à n.

Le dossier complet Excel pour le SEO

Si tout ceci vous paraît obscure mais si vos besoins sont là, je vous recommande de faire appel à cet excellent développeur web à Lyon ! Vous ne serez pas déçu !

Suivez vos positions dans Google Image avec Excel

Préambule : cet article fait partie d’une série consacrée à Excel pour le SEO.  Il s’agit du troisième billet.

Cet article sera plus court que les premiers de la série car finalement, le principe est le même que dans l’article précédent. Aujourd’hui, je vais vous mettre à disposition un document Excel qui vous permettra de relever la position de vos images dans Google Images. Je n’ai pas préparé de plaidoyer sur l’importance des images, je dirais simplement qu’elle peuvent parfois apporter un trafic conséquent.

Donc, comme nous l’avais proposé Julien il y a quelques mois sur son blog, nous allons relever la position de nos images. Simplement, ce qui nous intéresse ici, c’est non seulement le positionnement de nos images sur plusieurs mots-clés, plusieurs sites mais aussi et surtout d’en suivre l’évolution.

Le document Excel à télécharger

Sans plus tarder, voici le document que vous allez pouvoir utiliser : Google Image Ranking v.3.0. J’ai volontairement laissé une partie des données pour deux de mes sites afin que vous puissiez voir ce que ça donne. Attention, mots-clés ultra-concurrentiels inside 😉 .

La méthode

Il s’agit d’un classeur Excel contenant des macros. Contrairement au document précédent, celui-ci contient uniquement les données brutes. A vous d’aller créer vos tableaux de bord si vous le souhaitez. Pour l’utiliser, je vous invite à relire une partie de l’article précédent concernant l’activation des macros puis l’éventuelle automatisation du document (que je vous recommande vivement de mettre en place). Ensuite, il vous suffira d’entrer pour chaque onglet :

  1. vos mots-clés en ligne 4
  2. l’URL de votre site en B2.

Lors de la première ouverture de la journée, le document relève les positions, puis se ferme. Vous devez l’ouvrir à nouveau pour consulter les données. Pour lancer la macro manuellement, appuyez sur CTRL+MAJ+U.

Et pour compléter, si vous vous intéressez de près à Google Images, je vous recommande cet excellent article de Razvan Gavrilas, fondateur de Cognitive SEO : How Will Google “Read” & Rank Your Images in the Near Future.

Le dossier complet Excel pour le SEO

Suivez vos positions gratuitement avec Excel

Préambule : cet article fait partie d’une série consacrée à Excel pour le SEO.  Il s’agit du second billet.

Maintenant que je vous ai montré comment on pouvait scraper Google facilement et gratuitement avec Excel, je vais vous proposer un document qui va vous permettre de suivre vos positions dans les moteurs de recherche. Ce n’est pas un scoop, il existe des dizaines et des dizaines d’outils pour le faire, certains gratuits, d’autres payants (j’en parlais déjà à la fin de cet article). La solution que je vous propose ici n’est ni moins bonne, ni meilleure. Ses deux avantages principaux  : elle est gratuite et elle permet de n’être dépendant d’aucun outil de tracking. Son inconvénient : elle ne gère pas les proxies, ce qui diminue le nombre de mots-clés maximum à suivre.

Et pour commencer, rendons à César ce qui appartient à César. Le document initial avait été créé en 2010 par Yoav Ezer sur searchenginepeople.com. Avec mon frère Ludovic, expert VBA entre autres, nous avons « simplement » modifié le document pour qu’il fonctionne en 2014 et créé deux onglets supplémentaires : un onglet de reporting et un onglet de visualisation.

NB : on ne scrape ici volontairement que les 3 premières pages (entre nous, quel intérêt d’aller plus loin ?), mais on peut modifier ce paramètre dans directement dans VBA au besoin.

Quelques captures pour vous montrer ce que ça donne aujourd’hui, avec un site fictif :

SERP Ranking History
Voilà le résultat de la macro
Analyse Suivi des Positions
L’onglet de reporting
La visualisation des données
La visualisation des données

Ce qu’il vous faut pour utiliser le document

Le document que je vais vous proposer en bas de cet article est au format .xlsm (autrement dit, Microsoft Excel avec macros). Il va donc vous falloir d’une part une version de Microsoft Excel relativement récente (idéalement 2010, 2013 mais cela doit aussi fonctionner avec 2003 et 2007) et d’autre part, vous devrez activer les macros (plus de détail ci-dessous).

Comme pour la plupart des outils de suivi de positionnement, l’analyse s’effectuera une fois par jour. A partir de là, trois options s’offrent à vous (par ordre de préférence) :

  • vous faites tourner le document sur un VPS (c’est l’idéal). Un VPS OVH à 9,99€/mois fera amplement l’affaire (d’ailleurs si certains ont des bons plans de ce côté là, n’hésitez pas à partager en commentaire)
  • vous faites tourner le document sur votre propre PC (possible, mais implique que l’appareil soit allumé en permanence)
  • vous lancez manuellement l’outil tous les matins (je l’ai fait pendant plus d’un an … c’est franchement pénible, mais c’est faisable).

Le tutoriel

Le document que je vous propose ci-dessous est bourré de formules dans tous les sens. Vous pouvez vous en affranchir en utilisant uniquement l’onglet bleu (SERP Ranking History), puis en construisant vos propres tableaux de bord, ce que je vous conseille de faire. Pour ma part, j’utilise ce document pour suivre plusieurs sites en même temps, d’où la complexité de certaines fonctions que j’ai pas pris le temps de simplifier.

Voici les étapes à suivre pour adapter le document :

1. Renseignez vos données

Dans l’onglet rouge, renseignez votre site en B2 et donnez-lui un ID en B3 (pas d’espaces). Renseignez en colonne A (à partir de A7) vos mots-clés et indiquez si vous le souhaitez les données issues du Google Keyword Planner concernant la concurrence et le volume de recherche. Je vous invite également à inscrire la date à laquelle vous avez relevé ces informations en B5.

Dans l’onglet bleu, renseignez l’URL de votre site en B2, puis vos mots-clés sur la ligne 4 à partir de B4 (vous pouvez utiliser le collage spécial « Transposer » pour copier vos mots-clés à partir de l’onglet rouge) et supprimer les données déjà présentes dans le document (lignes 5 à 37).

2. Renommez vos onglets

L’onglet beu doit être l’ID du site.

L’onget rouge doit être pipe+tiret+ID (dans mon exemple |-monmagasinbioamoi).

3. Lancez la macro une première fois

Pour vérifier si vous récupérez bien des données, appuyez sur CTRL+SHIFT+U pour lancer la macro une première fois. Vous devriez voir apparaître la date, puis vos positions. OK, ça fonctionne ? Parfait, passons à la suite.

4. Automatisez le processus

Option 1 : vous n’avez ni VPS, ni PC allumé en permanence

Vous allez devoir lancer le fichier manuellement pour récupérer les positions du jour (vous pouvez très bien le faire seulement une fois par semaine si ça vous chante). Ne vous en faites pas, c’est on ne peut plus simple. Ouvrez simplement le fichier, la macro se lancera au démarrage et le fichier se fermera automatiquement lorsque le calcul sera terminé. Libre à vous d’ouvrir ensuite le fichier pour analyser les données.

Option 2 : vous avez soit un VPS avec Windows, soit un PC allumé en permanence

Dans ce cas nous allons créer une tâche planifiée et vous n’aurez alors plus rien à faire. Voici les étapes à suivre :

  1. Créez un dossier dans votre explorateur (ex. SERP-Ranking sur le disque F:\)
  2. Dans Excel, ajoutez un emplacement approuvé (Options Excel / Centre de gestion de la confidentialité / Paramètres du centre de gestion de la confidentialité / Emplacements approuvés / Ajouter un nouvel emplacement) et activez les macros (Options Excel / Centre de gestion de la confidentialité / Paramètres du centre de gestion de la confidentialité / Paramètres des macros / Activer toutes les macros)
  3. Placez le fichier SERP-Ranking-1.2.7.xlsm dans ce dossier (surtout pas d’espace dans le nom du fichier)
  4. Placez un raccourci de Microsoft Excel dans ce dossier. Nommez le excel.lnk
  5. Créez un fichier task1.bat dans ce même dossier, éditez-le avec le bloc-note ou Notepad++ et écrivez :  excel.lnk SERP-Ranking-1.2.7.xlsm
  6. Planifiez une tâche Windows en appelant le fichier task1.bat et notez dans « Commencer dans (facultatif) » le chemin du dossier. Ex. F:\SERP-Ranking\. Dans l’onglet « Déclencheurs », choisissez « Chaque jour ».

Planification d'une tâche Windows

Téléchargement et derniers conseils

Vous voilà avec un bel outil de suivi de positionnement maison. Encore une fois, l’avantage principal au-delà de la gratuité, réside dans le fait que vous collectez vos propres données. Vous n’êtes pas dépendant d’un service tiers. Ensuite, une fois les données brutes rassemblées dans Excel, à vous de les exploiter comme bon vous semble.

Télécharger SERP Ranking v.1.33

Les derniers conseils :

  • L’onglet vert permet actuellement de visualiser l’historique sur les trois derniers mois d’un côté et les six derniers mois de l’autre. Vous pouvez choisir le mode Détail, qui reflétera l’évolution des positions au jour le jour ou le mode Trend qui fera une moyenne des positions sur plusieurs jours afin de lisser la courbe.
  • J’ai constaté qu’il était difficile de suivre plus de 180/200 mots-clés avec le même document, limite à partir de laquelle Google affiche un captcha. La solution : scinder l’analyse en plusieurs documents (un par site par exemple) et programmer des tâches planifiées pour les lancer à quelques heures d’intervalles. Aujourd’hui, j’utilise par exemple 4 documents différents qui se lancent à 1h, 3h, 5h et 7h du matin.
  • Lors de la première ouverture de la journée, le document lance la macro automatiquement pour récupérer les données du jour, puis ferme le classeur. Pour consulter les positions du jour, ouvrez-le une seconde fois.
  • Je ne suis pas un kador du graphisme sur Excel, et pourtant il y a de belles choses à faire. Alors si vous êtes comme moi, je vous invite à suivre de prêt ce que nous préparent Raph et Polo pour le VLC 2014 !!

Le dossier complet Excel pour le SEO

Toi aussi, scrape avec Excel !

Préambule : ceci est le premier article d’une série consacrée à Excel pour le SEO.  Alors Stay Tuned !

Nous avons tous eu besoin un jour ou l’autre de scraper les résultats de Google, que ce soit pour un audit, un suivi de positionnement ou tout un tas d’autres choses. Il existe aujourd’hui sur le marché de très nombreuses solutions pour récupérer les résultats des pages de recherche. Je pense en premier lieu à l’excellent RDDZ Scraper, que j’utilise très souvent, mais il y en a d’autres. Le souci (mon souci) c’est que l’analyse s’effectue systématiquement sur Excel. Il faut donc exporter le résultat en CSV, l’importer dans Excel, le formater, bref …

Je vous propose en bas de cet article un document Excel que je mets à disposition gratuitement et qui va vous permettre de scraper directement dans Excel. Mais ne sautez pas les étapes et lisez bien les paragraphes ci-dessous 😉

Edit 24/09/14 – 10:15 : la version 1.5 contenait un bug, pensez à télécharger la dernière version (1.6).

J’ai besoin de quoi pour scraper directement dans Excel ?

Il vous faut bien sûr une version d’Excel pas trop ancienne si possible. Je n’ai pas testé, mais disons que 2003 est le strict minimum. Ensuite, il y a un outil incontournable en SEO lorsque l’on travaille sur Excel, c’est le plugin SEO Tools for Excel, développé par le Suédois Niels Bosma. Il va donc falloir commencer par installer ce plugin. Pour ce faire, rendez-vous sur cette page http://nielsbosma.se/projects/seotools/download/ et suivez les instructions. Attention, vérifiez bien votre version de Microsoft Excel avant de télécharger le plugin (32-bit ou 64-bit). Inutile de préciser que cette extension est entièrement gratuite, alors même si vous galérez un petit quart d’heure pour l’installer, ne vous en faites pas, ce sera vite rentabilisé.

Si vous disposez d’un compte chez Majestic, alors c’est encore mieux. Vous pourrez obtenir les données de Majestic SEO (notamment les Flow Metrics, le nombre de liens entrants et de referers) directement dans Excel. Vous trouverez comment faire sur cette page : Accéder à Majestic SEO dans Excel. Et si vous n’avez pas de compte Majestic SEO, je vous recommande vivement l’offre SILVER à 39,99€ qui sera suffisante.

Ce que vous allez pouvoir faire

Vous allez pouvoir obtenir la liste des 100 premières URLs et noms de domaines dans les SERPs pour une requête donnée, récupérer le title, le TBPR, l’Alexa Traffic Rank, le nombre de domaines référents, le nombre de backlinks, le nombre d’URLs indexées et les Flow Metrics.

Google Scraper
Aperçu du résultat pour un scrap complet des deux premières pages des SERPs sur la requête « Fleuriste Paimpol »

Pour ce faire c’est simple, vous allez :

  1. entrer votre requête (un mot-clé, un footprint)
  2. sélectionner un nombre de pages à scraper (entre 1 et 10)
  3. choisir si vous souhaitez récupérer le title
  4. déterminer si vous souhaitez analyser l’URL ou le domaine racine
  5. choisir si vous souhaitez afficher les données Majestic SEO (nécessite un compte payant Majestic SEO)
  6. choisir si vous souhaitez obtenir le TBPR et l’Alexa Traffic Rank
  7. sélectionner une localité

La prise en compte de la localisation

C’est le petit plus du document. Vous allez pouvoir directement choisir votre localisation et expliquer à votre client qu’il n’est peut-être que 84e sur « fleuriste Paimpol » au niveau national comme lui l’indique son outil de suivi de positionnement, mais qu’il apparaît bien en 2e position lorsque l’internaute est situé à Paimpol, Lannion ou Guingamp (#BreizhPower). Merci à Kévin pour son article Géolocaliser ses SERPs à l’échelle ultra-locale dont je me suis beaucoup servi pour ajouter cette fonctionnalité.

NB : si vous ne souhaitez pas utiliser cette fonctionnalité, remontez en haut de la liste déroulante et laissez le champ vide.

Téléchargez le document

Je vous l’avais promis. Voici le document que j’ai appelé Google Scraper (version 2.1).

Edit 24/09/14 – 10:15 : la version 1.5 contenait un bug, pensez à télécharger la dernière version.

Edit 12/05/16 – 10:00 : la version 2.0 affiche désormais la description présente dans les SERPs.

Edit 06/06/18 – 15:20 : la version 2.1 contient la nouvelle version du connecteur Majestic et ne contient plus les données PR et Alexa.

Quelques consignes au passage :

  • Soyez patients, si vous cochez toutes les cases et que vous souhaitez récupérer 10 pages de résultats, ça peut prendre quelques minutes.
  • Récupérer les 100 premiers résultats n’est pas toujours utile. Si vous pouvez vous contenter des 20 premiers c’est mieux.
  • Un conseil, dans Excel, choisissez de lancer les calculs manuellement (Onglet Formules | Section Options de calcul | Manuel). Et appuyer sur F9 lorsque vous voulez lancer le scrap.
  • Ici on scrape sans proxy, donc l’outil n’est pas forcément adapté à une utilisation industrielle, cela dit, vous pouvez bosser sur l’audit concurrentiel de votre client les yeux fermés.
  • Pour les initiés, vous pouvez modifier le Xpath en colonne C (attention, il s’agit d’une formule matricielle)
  • Edit 24/09/14 – 10:15 : les lignes blanches qui apparaissent parfois correspondent aux résultats Google Image que j’ai pas (encore) réussi à exclure.
  • Edit 25/01/17 – 09:45 : si cela ne fonctionne pas, rendez-vous dans l’onglet Settings de SEO Tools, puis cliquez sur Global HTTP Settings. Dans le premier tableau, renseignez le User-agent suivant : Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 puis cochez Save configuration en bas à droite et sauvegardez.

    http settings seotoolsforexcel

La suite du dossier Excel pour le SEO

Faites indexer vos backlinks en moins de deux minutes !

Créer des liens, c’est bien (enfin, en réalité c’est le mal absolu, mais disons que créer des liens c’est bien). Faire en sorte que Google les prenne en compte, c’est mieux ! Combien de fois suis-je allé me créer un profil sur tel ou tel support pour m’apercevoir deux semaines plus tard que Google n’était toujours pas passé voir la page.

Jusqu’au jour où …

Jusqu’au jour où je suis tombé sur cet excellent article d’investirenslip.fr (le NDD me fait toujours autant marrer) : L’approche Blanche Neige. On savait déjà qu’on pouvait faire indexer ses propres pages en deux clics via Google Webmaster Tools, mais faire indexer des pages sur des sites tiers (avec toute les dérives que l’on peut imaginer), c’était particulièrement astucieux. Dans cet article, l’auteur explique donc comment via une simple redirection 301, il faisait indexer ses backlinks à la pelle. J’ai testé, ça marchait du tonnerre !

Oui mais voilà, je n’ai pas la date exacte de la modification de l’interface Google Webmaster Tools, mais disons que depuis début juin à peu près, ça ne fonctionne plus. Terminée la belle époque où l’on envoyait le spider où on voulait via nos 301. Désormais, Google n’affiche plus le bouton « Envoyer pour indexation » lorsqu’il détecte une redirection. Allez, on va dire que c’est assez logique, on a profité d’une petite faille au début mais c’est terminé.bouton Google Webmaster Tools

Terminé ? Pas tout à fait

Il y a encore un moyen de contourner le système. Cela prend un peu plus de temps, mais c’est faisable. Je vous explique comment avec cet exemple : je vais créer mon profil sur Hellocoton. La fiche permet d’obtenir un beau lien dofollow, avec une belle ancre optimisée comme on adore en ce moment.

création profil hellocoton

Et voilà le résultat :

Profil Hellocoton

Maintenant, une petite recherche dans les SERPs pour vérifier que la page n’est pas indexée :

page google

Le tutoriel

Pour demander à Google d’indexer cette page, on va maintenant partir de la technique de Noé, d’investirenslip.fr, mais en l’adaptant aux nouvelles contraintes de GWT. Voici les étapes, à réaliser dans l’ordre impérativement :

  • on crée une nouvelle page à la racine du FTP. Ex. cedricguerin.fr/test
  • via GWT, on demande à Google d’aller explorer la page /test
  • une fois explorée, on crée une redirection dans .htaccess de cette page vers la page à indexer (ici donc RedirectPermanent /test http://www.hellocoton.fr/mapage/cyd)
  • on vérifie que la 301 est bien effective en tapant cedricguerin.fr/test dans le navigateur
  • lorsque tout est OK, on clique sur « Envoyer pour indexation » en cochant « N’explorer que cette URL »
  • on patiente deux minutes (à peine en général), et voilà le résultat :

indexation express

En résumé, on demande à Google d’aller explorer une page mais d’en indexer une autre.

Quelques précisions :

  • ça ne marche pas à tous les coups, certaines pages ne seront pas indexées quoiqu’il arrive (blocage par le robots.txt, page en noindex voire d’autres cas sans raison apparente).
  • j’ai remarqué que cela fonctionnait mal, voire pas du tout avec les URLs en .html ou .php (cedricguerin.fr/test marchera mieux que cedricguerin.fr/test.html ou cedricguerin.fr/test.php)  Une simple réécriture d’URL permettant de virer l’extension augmente les chances de réussite.
  • on peut utiliser n’importe quel site pour effectuer la 301, il suffit d’en être propriétaire et d’avoir un accès à GWT.

Auvairniton Bourgrire : un point sur le concours SEO 2014

Rappelez-vous, fin 2013, le forum RankSEO lançait son premier concours SEO : Dromardennes. Concours auquel j’avais eu plaisir à participer et pour lequel j’avais livré une grande partie de ma stratégie dans cet article. Une expérience enrichissante pour tous les participants et une rampe de lancement parfaite pour le concours SEO 2014. En ce qui me concerne, je n’avais pas vraiment le choix, je devais remettre mon titre en jeu ! Cette année, la tâche s’est avérée particulièrement ardue. D’une part, Bruno, l’arbitre, avait d’ores et déjà annoncé quelques semaines à l’avance, que le mot-clé serait en réalité composé de plusieurs mots (difficile donc de prévoir du contenu à l’avance … même si finalement certains ont relevé le défi haut la main) et d’autre part, la période du concours collait assez mal avec mon planning (je partais 10 jours en vacances deux jours après le lancement du concours). Mais qu’à cela ne tienne !

Ce que j’avais prévu de faire

Les concours sont faits pour tester, bien plus que pour savoir qui a la plus grosse. Autrement dit, hors de question pour moi de répéter la stratégie (pourtant payante) mise en place lors du précédent concours, à savoir un vrai concept avec du contenu préparé à l’avance et un produit « buzzable ». Cette année, je voulais tester un maximum de choses et surtout en profiter pour monter en compétences dans des domaines que je maîtrisais mal voire pas du tout.

Le concours Auvairniton Bourgrire devait donc me permettre de me former sur :

  1. le content spinning
  2. le cloaking
  3. un logiciel d’automatisation de création de backlinks (type Xrumer, Senuke, mais en l’occurrence j’en avais choisi un autre)

J’avais également pressenti que nous serions plus de participants que lors de l’édition précédente, que la portée du concours serait naturellement plus grande et que par conséquent les actions menées seraient trackées, analysées …. puis copiées. Il fallait donc absolument :

  1. brouiller les pistes pour éviter de subir dès le départ une campagne de NSEO
  2. masquer certains liens pour éviter de griller des plans

Voici donc résumé en quelques points ce que j’avais prévu :

  1. acheter un EMD : auvairniton-bourgrire.fr
  2. y placer une page html optimisée et cloker le contenu
  3. créer des liens en bourrinant un peu sur les ancres
  4. cloaker les liens dans la mesure du possible
  5. faire ranker ce site du mieux possible, puis faire une 301 quelques semaines avant la fin vers mon domaine principal
  6. sur mon domaine principal (breizhpower.fr), monter puis cloaker le WordPress complet
  7. placer un article optimisé en Home Page
  8. créer du contenu spinné pour le blog avec trois articles par jour
  9. bloquer l’indexation du site le plus longtemps possible et miser sur l’effet « prime de fraîcheur » quelques jours avant la fin du concours
  10. créer une linkwheel avec des liens sur lesquels j’avais la main (blog, CPs, etc.)
  11. acheter deux domaines expirés sur la même thématique (Bretagne en l’occurrence) et y placer un peu de contenu
  12. créer des liens vers ces domaines expirés via un logiciel automatisation de création de backlinks

Ce qui s’est réellement passé

Eh bien finalement, tout s’est quasiment passé comme prévu. J’ai réussi à me cacher pendant près de 6 semaines. Seuls quelques amis qui ont accepté de soutenir Breizh Power avaient connaissance de mon domaine pour le concours. Un point positif puisque j’ai finalement été le seul à ne pas me faire pomper mon contenu. J’ai réussi à cloaker mes sites de sorte que personne n’ait la moindre idée de ce qui se cachait derrière et fin juin, le site comptait plus de 160 pages indexées, dont 159 pages spinnées.

Comme prévu, courant juin, j’ai redirigé mon EMD (qui rankait 10e) vers mon domaine principal sur lequel j’ai fini par lever le noindex.

Pourquoi ça n’a pas marché

Si tout s’est passé comme prévu et que je n’ai ni gagné, ni même réussi à me positionner en première page, c’est que la stratégie de départ était bancale. Effectivement, en relisant les 12 points de mon plan de route et en regardant au fur et à mesure ce que faisaient les copains, je me suis vite rendu compte d’une lacune. J’avais zappé les backlinks (ou presque). J’avais bien prévu de créer des liens en automatique vers mes domaines expirés, mais pas réellement vers mon domaine principal, mis à part une petite linkwheel créée avec une poignée de sites.

Lors du dernier concours, j’avais misé sur le marketing !

J’avais un vrai concept, un produit intéressant (fictif certes, mais qui existait en ligne), un site web avec du contenu, des personnages et une histoire. Autrement dit, de quoi aller vanter tout ça sur des annuaires, des blogs, les réseaux sociaux, etc etc. Cette année, tous mes domaines affichaient pour seul et unique contenu le logo Breizh Power sur fond blanc. Impossible donc d’aller créer des liens qualitatifs ou même simplement des liens dans des annuaires.

Et surtout, j’ai passé tellement de temps à appréhender le logiciel que j’avais sélectionné pour l’automatisation, à apprendre les rouages du content spinning et à me casser les dents sur la manière de cloaker un WordPress, que j’en ai oublié de bosser sur mon site. Bilan, là où mes concurrents affichent entre 200 et 300 referers selon Majestic SEO, je me traîne avec 35 domaines référents pour Breizh Power. OK, si l’on prend en compte les 301 + les liens que j’ai réussi à masquer, on arrive peut-être à 60 ou 70, mais c’est bien en dessous de qu’il aurait fallu.

A savoir : j’ai également profité de ce concours pour me pencher sur l’analyse de logs. J’ai donc installé la fameuse Watussi Box de Jean-Benoît en version gratuite et cela m’a permis de détecter que mon site, hébergé chez Euro WH, était régulièrement indisponible pour les moteurs. Autrement dit, tout le monde y avait accès, mais Google ne pouvait pas le crawler, et ce durant plusieurs jours. J’ai dû perdre du temps pour effectuer des tests pour vérifier d’où venait le problème, et ces tests ont confirmé qu’un même site hébergé chez Planethoster ou O2 Switch était bien crawlé par Google. Réponse du support technique : c’est un souci chez Google, il faut patienter … à chacun d’en tirer ses propres conclusions.

Google Webmaster Tools
Aperçu du module Explorer comme Google dans Google Webmaster Tools. Message d’erreur : URL momentanément inaccessible (erreur 503).

Conclusion

Gagner le concours 2013 et finir 10e du concours 2014, c’est forcément très décevant (pour ceux qui voudraient avoir un aperçu de l’évolution des positions au fur et à mesure du concours, c’est par ici. Désolé pour la mise en page, c’est sommaire mais je n’ai pas pris le temps de chercher un meilleur outil de data vizualisation). Mais j’essaie de voir le bon côté des choses. Je maîtrise désormais de nouvelles techniques. J’ai constaté que tout ce que j’avais mis en place au niveau de la création automatisée de liens n’avait rien donné. Et surtout, cela m’a rappelé deux choses :

  • ce qui paie avant toute chose, c’est le travail et l’assiduité
  • l’essence même du moteur de Google, ce sont les liens. Et pour obtenir des liens, mieux vaut avoir un contenu intéressant, qui plus est un contenu tout court.

Pour aller plus loin, je vous recommande le compte-rendu de Jimmy, qui a remporté le concours haut la main et qui confirme parfaitement les deux points ci-dessus et également le résumé de Yann, que je félicite officiellement pour son beau parcours.

PS : un grand merci à tous ceux qui m’ont donné un coup de main pour le concours (ils se reconnaîtront). A charge de revanche 😉

Concours SEO Dromardennes : l’heure du bilan

Le concours SEO Dromardennes, organisé par le forum SEO Rankseo.fr, vient de se terminer. J’ai la chance de l’avoir emporté, je vous propose donc ici un petit résumé de ces trois mois de compétition acharnée et un aperçu de mon plan d’action.

Pourquoi j’ai participé au concours SEO Dromardennes ?

Intéressant comme question ! Mais il faut se la poser sérieusement, car participer à un concours SEO, ça demande des sacrifices et en premier lieu beaucoup de temps. En ce qui me concerne, je me suis lancé dans le SEO il y a tout juste un an (j’ai mis mon premier site en ligne le 28 décembre 2012), c’était donc pour moi l’occasion de me tester sans trop m’exposer. Hors de question d’aller me frotter aux kadors du SEO, tout du moins pour un premier concours.

Bref, un concours avec moins de 10 participants me convenait bien (même si nous nous sommes retrouvés à 5 et demi finalement).

La préparation avant le concours

Le concept

En réalité, le concours a duré plus de trois mois pour moi car j’ai commencé à le préparer environ de 3 semaines avant qu’il ne démarre. Sans avoir le mot-clé retenu ?!? Eh bien oui.

Mon objectif était de présenter un site qui ressemblerait en tous points à un site corporate. Bref, le site d’une entreprise quelconque, proposant un produit quelconque avec un petit blog alimenté de temps en temps. L’intérêt étant de ne pas passer (aux yeux de qui que ce soit : les annuairistes, les CPistes, les internautes … Google ??) pour un site de concours SEO.

Il me fallait également un produit un minimum fun, qui dans l’idéal aurait pu créer le buzz ou tout du moins susciter l’envie d’en savoir un peu plus. Je suis donc parti sur l’idée d’une gélule magique que j’appellerais, faute d’avoir le mot-clé en poche F67-G22 (allez savoir pourquoi …). J’allais donc reproduire le site d’un laboratoire médical.

Gélule Dromardennes

Le contenu

J’avais mon concept, mon mot-clé, je pouvais donc déjà me lancer dans la production de contenu. J’ai donc rédigé un beau texte optimisé pour la Home Page + trois pages de contenu qui expliquaient le produit. Puis j’ai fait appel à mes rédacteurs préférés pour me rédiger quelques articles de blog sur cette thématique + un masterspin (500 versions) d’un texte d’actualité traitant du produit et qui me servirait à aller publier sur les différents supports.

Je précise que tous les spuns étaient HYPER quali (titres différents, structure différente, longueur différente, etc. etc.).

Et me voilà à deux jours de l’ouverture du concours avec 100% de mes contenus ou presque pour les trois mois à venir.

L’hébergement, l’IP et le CMS

Côté hébergement, c’était l’occasion pour moi de tester un nouvel hébergeur pas trop cher. Surtout, je voulais absolument avoir une IP et une classe C différentes de tous mes autres sites afin d’optimiser au mieux les liens que je serais amené à faire depuis mon (mini-)réseau. J’ai donc choisi Hostpapa. Une première erreur dans ce concours puisque :

1. Le service est exécrable. Mon site est tombé je ne sais combien de fois, et parfois pendant des heures et des heures. Le support, bien que réactif pour prendre en compte mes demandes, ne m’apportant des solutions bien souvent que le lendemain.
2. Les serveurs sont situés aux Etats-Unis … autant se tirer une balle dans le pied tout de suite, mais bon, je m’en suis aperçu trop tard malheureusement.

Pour la gestion des contenus, j’avais pendant un petit moment envisagé de tout coder à la main, afin de pouvoir être libre de faire ce qu’il me plaisait en m’affranchissant de toute contrainte imposée par un éventuel CMS. Autrement dit, créer un beau site HTML/CSS, valide W3C, au top d’un point de vue poids et temps de chargement, etc. Seulement mes compétences en développement sont tellement minuscules que j’aurais passé un temps fou sur le on-site ce qui n’était pas du tout le but. Maîtrisant assez bien WordPress, j’ai donc logiquement opté pour le CMS préféré des SEO. Et c’est vrai que de manière générale et s’il est bien configuré, WordPress est puissant.

Les domaines

Puisque le mot-clé ne devait pas être présent dans le domaine choisi pour le concours, je pouvais déjà choisir le mien. Mon pseudo sur le forum : Cyd. Mon site : un laboratoire. Le public : français. C’était tout trouvé : Cydlab.fr. D’autant que le côté lab pourrait peut-être me servir par la suite pour mes expériences SEO. Le domaine était dispo, il ne me restait plus qu’à attendre le jour J.

Et puisque le règlement n’en faisait pas mention, j’avais également prévu l’achat des domaines en EMD sur les tld .fr, .com et .net. Il faudrait simplement être le plus rapide une fois que le mot-clé aurait été révélé pour ne pas me les faire piquer. J’avais prévu de créer des satellites sur ces domaines puis de les rediriger vers mon site principal en fin de concours.

Malheureusement, suite à un désaccord sur le règlement, je n’ai pas pu utiliser ces domaines (bien que ce soit une pratique courante lors des concours, mais passons).

J’avais également décidé de tenter une petite pyramide pour voir. J’ai donc cherché deux domaines expirés qui pourraient correspondre un minimum à la thématique. J’ai acheté spiceisright.net (PR5) et neoprofs.fr (PR4) pour en faire deux autres sites corporate accompagnés d’un blog.

Puis pour le niveau 3, j’ai créé deux wordpress (dopetonqi.wordpress.com et seoisgood.wordpress.com) et un Tumblr (whatzefac.tumblr.com).

Les profils

Pour jouer le jeu jusqu’au bout, j’ai créé différents profils : chaque profil étant rattaché à l’un des sites en particulier. C’est là que sont nés Simon et Serena (bien que Serena ait changé de nom lors de l’annonce du keyword), mais également Laurie, Clara et Stéphane.

Profil Twitter

Ma stratégie pour le concours Dromardennes

Pour résumer, j’avais prévu de me rapprocher au maximum d’un site classique, autrement dit d’une problématique que j’aurais éventuellement pu rencontrer IRL. Ce qui impliquait notamment un produit réaliste (ok on peut en débattre … ), un site réaliste, des pages sur les réseaux sociaux et quelques interactions, etc.

Le contenu

Pour le contenu, j’avais déjà tous les textes pour mon site principal. Il me restait à faire rédiger du contenu pour les deux satellites et les 3 freeblogs. Là encore j’ai fait appel à deux rédacteurs avec qui je travaille de temps en temps.

Il me manquait également des medias pour mon site principal. Et alors là on dit merci Fiverr et bonjour mes bêta-testeurs Anna, Morgan et Tara. J’avais en poche quelques photos + deux vidéos.

Les liens

J’avais prévu de miser au maximum sur la qualité des liens bien plus que sur la quantité. Je voulais sélectionner les liens à fort trust et également bannir les liens sitewide. La bonne nouvelle ? Je pense que ça a fonctionné puisque c’est bien Cydlab.fr qui affiche le moins de referers et le moins de liens dans Majestic. Presque 3 fois moins de domaines référents par rapport au n°2 du concours (salut Charles) et deux fois moins que le n°3 avant son blast final (hello Jimmy).

D’un point de vue des ancres, je voulais également être très prudent pour m’assurer de rester sous le radar. J’ai donc été très vigilant sur ce point, même si finalement Dromardennes reste quand même mon ancre principale avec un peu moins de 17% en proportion. Cela dit cela reste raisonnable, surtout comparé à mes adversaires qui affichent respectivement 90% d’ancres optimisées pour le N°2 et 67% pour le N°3 …

Mais que font les pingouins ?

La mauvaise nouvelle ? Majestic SEO ne semble pas avoir pris en compte certains liens qui ont semble-t-il bien boosté mon site, ce qui a pour conséquence de maintenir le Citation Flow et le trust Flow à des niveaux relativement bas (respectivement 15 et 12, contre 33 et 29 pour le N°2 et 31 et 27 pour le numéro 3). Cela dit ce n’est pas une mauvaise nouvelle en soit, mais j’aurais préféré pouvoir expliquer simplement ma victoire par un Trust Flow à 45 et un citation Flow à 30 par exemple.

J’avais également pour objectif d’obtenir un lien depuis Wikipedia, mais je me suis cassé les dents sur la création d’un compte, j’ai donc lâchement abandonné après quelques heures de galère (bravo à Jimmy qui lui a réussi à placer un beau lien tout propre sur le Saint Graal).

J’ai utilisé trois sites de mon réseau pour aller poser des liens Home Page mais assez tardivement dans le concours finalement (vous vous souvenez du topic sur le forum dans lequel je demandais de l’aide pour la création d’un footer qui apparaîtrait exclusivement en Home Page 😉 ?).

Pour le reste, j’ai mixé bien entendu : annuaires triés sur le volet, communiqués SEO sur les sites dont je dispose d’un compte et qui affichent de bons indicateurs, spamco de temps à autres et plein d’autres petites astuces pour aller chercher du bon lien (eh je ne vais pas tout vous servir sur un plateau non plus !!).

Les réseaux sociaux

Quel site web ne dispose pas aujourd’hui d’une page Facebook, d’un compte Twitter, etc. ? J’ai donc créé toutes ces pages. J’ai dû en modifier certaines dès le départ (facebook.com/dromardennes, youtube.com/dromardennes, twitter.com/dromardennes … je vous épargne la suite de la liste) suite à nouveau désaccord sur le règlement, mais peu importe. Ce n’est pas ça qui allait m’arrêter !

Le concours était également l’occasion de tester l’achat d’interactions sur les réseaux sociaux. J’ai donc acheté quelques centaines de likes, tweets et +1 pour la Home Page de Cydlab.fr (via les services de SEO Powa). Difficile de dire aujourd’hui si ce facteur parmi les autres a pu être déterminant, malgré tout j’ai l’intime conviction qu’il y a contribué d’une manière ou d’une autre. (Note pour moi-même : se renseigner avec le presta sur la disparation ces jours-ci de plus de 600 +1).

Enfin, j’ai également testé l’achat de vues sur Youtube. Ce qui permis à cette vidéo, avec ses 77.000 vues, de rester en première page des SERPs pendant plusieurs semaines et probablement à la page Youtube de Serena de se maintenir dans le top 12 encore aujourd’hui. L’intérêt d’un point de vue SEO ? Là encore difficile à affirmer, les liens depuis Youtube étant nofollow. Mais à nouveau je pense que cela a pu contribuer à la réussite du projet dans son ensemble.

L’analyse des concurrents

Ça c’était mon petit pécher mignon. Tracker les liens posés par mes concurrents et aller poser les miens au même endroit … si j’estimais que le spot était digne d’intérêt. Cela m’a d’ailleurs permis de repérer quelques blogs intéressants et deux ou trois annuaires inconnus.

Je passais également un peu de temps tous les lundi matin à faire le point sur les indicateurs SEO de chacun (nombre de pages indexées, referers, liens, alexa rank, trust flow, citation flow, moz rank, domain authority, etc.) et bien sûr je scrutais tous les matins les 100 premiers résultats des SERPs à l’affût du moindre mouvement (merci d’ailleurs à Eric qui a rendu mon travail éreintant à force d’aller suivre le moindre lien pointant vers l’un des domaines qui mentionnait Dromardennes).

Vous pouvez toujours d’ailleurs retrouver l’évolution du classement sur cette page : https://cedricguerin.fr/suivi-dromardennes.html.

Dernière chose, je me suis inscrit à deux outils d’alerte qui me permettaient de recevoir un mail à chaque fois que le mot-clé était évoqué sur la toile. Hyper intéressant car cela me donnait la possibilité d’aller également poser des liens en commentaire de blog par exemple bien avant qu’ils ne soient détectés par Majestic.

Sinon côté espionnage industriel, j’ai aussi profité du concours Gollumelite qui se déroulait en parallèle pour repérer quelques spots. Ce qui m’a permis de récupérer un beau lien dofollow sur un .gouv.fr … mais comme souvent (particulièrement lors des concours), le spot a été cramé en quelques semaines.

La pyramide

C’est clairement l’échec de concours pour moi. A aucun moment je n’ai réussi à faire décoller mes satellites. L’un de mes freeblogs est quand même monté en bas de page 2 en milieu de concours mais c’est tout (il est désormais en milieu de 5e page). Ci-dessous une petit aperçu de mon carnet de note (LE carnet Google s’il vous plaît) qui m’a servi à formaliser ma pyramide.

carnet de bord Cédric aka Cyd pour le concours SEO

Pour ma pyramide, j’avais prévu de lancer des blasts sur les freeblogs et de faire des liens quali en manuel pour les satellites. Bilan : pas assez de temps pour m’occuper du linking des deux satellites (dommage car le contenu était bien). Et pour les freeblogs, j’ai fait appel à trois presta différents sur Fiverr pour mesurer les différentes prestations (nombre et types de liens différents) mais globalement, rien n’a fonctionné.

En fin de concours, j’ai aussi lancé viruslab.fr, un fake PR6 expiré que j’avais récupéré entre temps. Sur celui-ci j’ai tenté un blast de 40.000 blogs comments et 800 liens depuis des .edu. Le domaine est en 3e page … donc pas top.

Mon analyse sur ce point en particulier. Je pense que les pyramides fonctionnent, mais il faut à la fois y passer pas mal de temps et surtout être en mesure d’automatiser les différentes tâches. Et c’est bien là ma limite. Enfin, le fait de faire appel à des prestas à 5$ qui vont aller créer des liens sur des pages en comptant déjà des milliers n’a évidemment aucun impact, ou alors un impact négatif. Donc il faudra également savoir utiliser soi-même des outils comme Senuke, Scrapebox ou Xrumer et se construire ses propres listes. Sinon aucun intérêt à mon sens.

La dernière ligne droite

Nous voilà donc mi-Décembre, Cydlab.fr est premier depuis près d’un mois et demi mais je me méfie de la fin du concours car je vois bien que les autres s’activent à côté. Le nombre de referers ne cesse d’augmenter du côté de concoursreferencement.blogspot.com et je m’aperçois que exemple.pro vient de recevoir un gros blast en direct. Moi de mon côté, je n’ai quasiment rien fait depuis 2 semaines donc attention.

Je décide donc d’abattre mes deux dernières cartes !

Les copains

Eh oui les copains c’est fait pour ça. Je suis donc allé demander un petit coup de pouce à deux amis SEO. Le premier m’a fait un beau lien Home Page (merci Victor et désolé de t’avoir imposé la contrainte du not sitewide). Le second m’a créé un lien in-text sur l’un de ses CPs  (salut Julien) et a même tenté de remonter en première page en 3h chrono. Raté en l’occurrence … mais de peu. Le site est venu se positionner en 11e position en à peine une heure  (aujourd’hui il apparaît en milieu de page 3). Bonne nouvelle, j’ai gagné mon pari et j’aurai le droit très prochainement à une bonne bouteille, comme convenu.

Redirections

Mais le temps passe vite et nous voilà déjà à Noël. Je m’empresse de rediriger viruslab.fr, mon fake PR6 vers mon domaine principal. Mais c’est trop tard … je me rends compte que Google met un temps fou pour prendre en compte la 301, la preuve, le site est encore indexé. Tant pis … ça n’aurait de toute façon certainement pas apporté grand-chose.

Le bilan

Et voilà, nous sommes le 30 décembre, il est 23h30 et j’attends mes concurrents sur Google Hangout pour clore officiellement ce concours. Le bilan ? Eh bien il est très positif bien entendu puisque j’ai gagné. Je ne peux pas dire que j’ai réellement appris des choses dans ce concours, car je n’ai aucune certitude. La preuve, demandez-moi simplement pourquoi j’ai gagné ? Qu’est-ce que j’ai mieux fait que les autres ? Je suis bien incapable de vous répondre. Ce que je sais, c’est que l’ensemble a fonctionné. Mais telle technique, tel lien, tel réseau social  … aucune certitude, juste des intuitions.

Surtout, n’oublions pas que nous étions très peu de concurrents à participer. Je me dois donc de rester modeste, très modeste même. Je suis content d’avoir gagné et surtout j’ai pris beaucoup de plaisir à participer mais cela s’arrête là.

Et si c’était à refaire ?

Si c’était à refaire, voilà concrètement ce que je changerais :

–          Je choisirais une autre thématique que la pharmacie/les médicaments car certains annuaires (auxquels j’accorde beaucoup de crédit) refusent ces thématiques. Donc mauvais choix de ce point de vue dès le départ.

–          J’éviterais d’héberger mon site à l’autre bout du monde.

–          Je ne ferais pas rédiger de contenu unique et tout propre pour les freeblogs (=money wasting).

–          Je ne me lancerais dans une pyramide qu’à condition d’avoir en main les bons outils, mes propres listes et de savoir maîtriser les bons logiciels.

–          Je me cacherais mieux … beaucoup mieux. Je n’afficherais pas ma stratégie ni mon domaine dès la première semaine.

Alors maintenant c’est à vous de parler !!