Impossible de faire indexer vos contenus de qualité ?
Google ne veut rien savoir ? Ci-dessous, découvrez 25 Questions Réponses ↓ à mettre en place pour résoudre vos problèmes d’indexation de façon “pérenne”. Grâce à cette check-list, nous avons pu retrouver l’indexation quasi instantanée de tous nos contenus, pourquoi pas vous ?
Travailler sur son référencement Google est une activité excitante.
Pour obtenir des résultats, “il suffit” de réaliser de belles actions SEO comme :
- créer du contenu
- obtenir des liens
- optimiser son site
Mais ce qui est réellement excitant, c’est d’observer rapidement des résultats concrets :
- découvrir son site lorsqu’on multiplie les recherches sur Google
- surveiller l’évolution de son trafic organique dans Google Analytics
- voir son chiffre d’affaires augmenter et réaliser des profits
Le SEO est un jeu où l’on gagne des points lorsqu’on joue bien !
Malheureusement, ce jeu devient beaucoup moins amusant quand les fruits de nos récoltes prennent des jours, des semaines voire des mois avant de (peut-être) se manifester.
Voyez-vous où je veux en venir ?
Si oui, c’est que vous avez récemment fait face à un problème d’indexation Google !
Rassurez-vous, vous n’êtes pas le seul.
En 2020 et 2021, Google a effectué de grands changements dans sa manière d’explorer et d’indexer les pages.
D’ailleurs, si vous l’aviez manqué, ne tardez pas à découvrir notre Guide du débutant sur l’indexation Google.
Il contient 18 trucs & astuces destinés à améliorer le Crawl de votre site de façon naturelle et sans risque de sanction.
Aujourd’hui, dans ce second volet plus complet, nous aborderons aussi bien des techniques 100% légitimes (White hat) que des techniques plus épineuses (Grey hat & Black hat).
En cumulant plusieurs de ces méthodes de façon judicieuse, vous pourriez bien venir à bout de ce fameux problème d’indexation…
« Discovered, currently not indexed! »
La bête est nommée !
Si ce n’est pas déjà fait, voyez ci-dessous à quoi ressemble ce problème d’indexation, dans votre console Google Search.

Problème d’indexation : Détectée, actuellement non indexée / Discovered – currently not indexed.
Quelle est la cause de ces problèmes d’indexation Google ?
C’est la question que nous avons posée sur Twitter et sur LinkedIn.
Sur ces 2 réseaux confondus, au moins 80% des sondés ont répondu qu’il s’agissait :
- soit d’un Bug d’Indexation Temporaire (que Google doit résoudre)
- soit d’un Nouveau Filtre Antispam SEO (comme nous en connaissons depuis l’époque Google Pingouin et Goolge Panda)

En cumulant les votes de Twitter et LinkedIn, plus de 80% des votants pensent à un bug d’indexation, ou un nouveau filtre contre le spam SEO.
Seulement un maximum de 20% des sondés pensent qu’il s’agit d’une véritable volonté de Google, de réduire ses Taux d’Exploration.
Pourtant, comme vous pourrez le découvrir dans la première question de notre FAQ ci-dessous, Google a déclaré très précisément son intention de réduire le Crawl… 😉
Comment avons-nous fait disparaître les pages Détectées, mais actuellement non indexées ?
Cela ne s’est pas fait en 5 minutes.
Mais en travaillant dur, nous avons pu résoudre tous les problèmes d’indexation liés au nom de domaine EasyHoster.com.

Depuis octobre 2021, les pages « Détectées, actuellement non indexées » ont totalement disparu du site EasyHoster.com.
Dans cet “Article FAQ” un peu particulier, nous allons vous présenter les solutions que nous avons choisies, comme celles que nous avons évitées.
Ci-dessus, la capture montre que le 10 juillet, notre petit site EasyHoster.com avait 34 pages que Google ne voulait pas Crawler, bien qu’elles aient été détectées,
- soit via Sitemap XML
- soit via l’Outil d’Inspection d’URL
- soit via notre Maillage interne
Dans ces dizaines de pages étaient inclus certains contenus de haute qualité, comme de longs tutoriels issus de notre base de connaissance, ainsi que d’autres pages et articles d’excellente qualité.
Le 3 octobre, comme vous pouvez le constater sur la partie droite de la capture d’écran ci-dessus, nous avions réussi à totalement éradiquer notre problème de pages Détectées, mais actuellement non indexées.
Comment avons-nous pu améliorer notre indexation ?
Certainement pas grâce à une baguette magique, mais en cumulant les bonnes pratiques de notre précédent Guide pour forcer l’indexation Google, avec les techniques que vous allez découvrir ci-dessous, dans cet “Article FAQ” en 25 Questions Réponses.
Bien sûr, pour optimiser son indexation et plaire à Google, il faut d’abord comprendre ce qu’il se passe dans la tête du moteur de recherche. Donc, ne passez pas la première question…
Problèmes d’Indexation Google : comment les résoudre en 25 questions ?
La vérité sur les problèmes d'indexation : Pourquoi Google réduit le Crawl ? Une question de Carbone…

Source : « Combien y a-t-il de sites Internet ? » sur Statista.com.
Google n’est plus un simple moteur de recherche.
Il est important de noter aussi qu’aujourd’hui, Google n’est plus seulement un moteur de recherche qui vous livre une liste de liens en échange de quelques mots clés.
Google est devenu un véritable moteur de réponses qui propose presque systématiquement une Answer Box pour toutes les requêtes recherchées fréquemment.
Voici un exemple d’Answer Box pour la requête « indexation google » :
Ces réponses sont intelligemment triées sur le volet par l’IA de Google.
On imagine bien que mettre à disposition toutes ces informations, cela demande une puissance de calcul considérable aux algorithmes de Google.
Arrivé à un certain stade, il n’est pas surprenant que Google décide (plus ou moins volontairement) de ne plus indexer l’ensemble de nos pages aussi rapidement qu’avant.
Imaginez la quantité de ressources nécessaires à Google, en 2022, pour indexer l’ensemble des pages de tous ces sites Internet. Qu’en sera-t-il dans 5 ou 10 ans ?
Imaginez les ressources qui seront alors nécessaires à Google, si son Googlebot n’évolue pas et ne cherche jamais à faire des économies.
Tout cela est compréhensible.
Par contre, là où le bât blesse, c’est au niveau de la communication de Google, au sujet de l’adaptation de son moteur de recherche.
Vous expérimentez aujourd’hui des problèmes pour indexer vos contenus de qualité, mais si vous lisez les différentes publications du moteur de recherche, vous remarquerez que pour leur équipe, tout va bien : « il n’y a aucun problème avec l’indexation Google, tout se passe comme d’habitude ».
De la part de Google, le fonctionnement actuel de l’indexation et les délais de Crawl semblent totalement volontaires.
En effet, jusqu’à il y a quelques semaines, Google communiquait comme s’il n’y avait eu aucun changement récent dans leur politique de Crawl, ni aucun bug d’indexation l’année dernière.
Pourtant, moyennant quelques recherches de votre côté, vous trouverez de nombreuses news datant d’il y a quelques mois, mentionnant des mises à jour sur :
- les délais de Crawl
- le Predictive Crawling
- le traitement des balises Canonical
- l’indexing Mobile-first
- l’outil d’inspection et le Request Indexing Tool
Cela fait beaucoup de changements, sans parler des nombreuses Core Update (entre 2020 et 2021) ni même des Changements de Titres (le TitleGate).
C’est du Google tout craché.
En tant qu’éternel insatisfait de son index, il est évident que Google a entrepris de grands travaux ces derniers mois sur son moteur de recherche.
D’ailleurs, lorsqu’on observe la tendance de recherche sur la requête « indexation Google », difficile de s’entendre dire qu’on est parano et que tout va bien.

Source : Google Trends
Google souhaite (encore) réduire le Crawl, pour diminuer son empreinte carbone !
La voilà, la véritable raison de toutes ces perturbations.
En effet, lorsque vous scrutiez Twitter en quête de nouvelles techniques d’indexation, vous avez peut-être manqué cette information importante…
Le 20 janvier 2022, l’équipe de Google a déclaré qu’ils envisageaient de réduire la fréquence d’exploration des pages Web, pour économiser les ressources de leurs serveurs d’exploration, en particulier pour des questions écologiques.
Voici un extrait des propos tenus dans ce podcast par Gary Illyes, John Mueller et Martin Splitt.
“ L’informatique, en général, n’est pas très durable au sens du Développement Durable […] Chez Google, nous sommes Neutres en carbone depuis 2007 et nous avons Un Objectif Zéro carbone pour 2030. Nous voulons encore réduire notre empreinte écologique. Et le Crawl (l’exploration de pages) est l’une des choses que nous pouvons facilement améliorer à court terme. […]
Une chose que nous faisons et que nous n’avons peut-être pas besoin de faire si souvent, c’est l’actualisation des données analysées.
Actuellement, lorsque nous découvrons un document ou une URL, nous l’explorons, puis nous y revenons régulièrement pour l’analyser à nouveau et rafraîchir les données […]
À quelle fréquence devons-nous revenir sur cette URL ? […]
Nous n’avons peut-être pas besoin de revenir souvent analyser cette URL […] parfois, il paraît inutile que nous revenions sur la même URL, encore et encore […]
Toutes ces choses, nous pourrions les améliorer pour réduire encore plus notre empreinte carbone […]
Les gens pensent que si une page est explorée davantage, elle sera mieux classée sur Google […] c’est une idée fausse […] pas besoin d’essayer de forcer les choses pour être réexploré si la page n’a pas vraiment changé. Elle ne va pas mieux se classer pour autant „
Source : What to expect from Search Central in 2022? sur YouTube, avec John Mueller, Martin Splitt, et Gary Illyes.
Retranscription officielle disponible ici.
Comme cela a été dit dans ce podcast, Google est neutre en carbone depuis 2007. Il est d’ailleurs fier de l’afficher sur son moteur de recherche :
Et pour cause !
Google.com est le site le plus visité du monde. Le site pèse environ 2 Mo, ce qui est autant de données à charger.
Les chercheurs du CO2GLE Project ont déterminé qu’avec environ 3 millions de visites par minute, la quantité de CO2 émise par Google représenterait environ 500 kg de CO2… par seconde !
Pour vous faire une idée, un arbre moyen stocke environ 22 kg de CO2 par an.
D’après Joana Moll (chercheuse espagnole), il serait donc nécessaire de planter 23 arbres par seconde pour amortir l’impact environnemental qu’avait Google en 2014.
Vous l’avez compris, devant de telles accusations, Google se devait de réagir…
Par respect pour l’environnement, Google envisage de réduire autant que possible sa fréquence d’exploration.
Cela vaut aussi pour le rafraîchissement des pages et cela a déjà commencé !
N’en déplaise à certains référenceurs “suspicieux”, il ne s’agit pas ici d’un bug d’indexation, ni même d’une campagne de communication menée par Google pour manipuler les référenceurs, en vue de réduire le spam sur le moteur de recherche.
Il s’agit bien d’une mesure prise par Google pour limiter son empreinte écologique.
Les jeunes sites Web devront donc souvent s’armer de patience et encore mieux travailler leur SEO dans les coulisses, avant de se voir attribuer leur positionnement dans les SERPs, ainsi que le Saint-Graal : l’indexation instantanée de leurs contenus sur Google.
Cela fait sens…
Il est illusoire de penser qu’un petit blog WordPress fraîchement installé puisse avoir une chance d’apparaître en position 0 de Google, quelques heures après publication, et ce, même si le contenu produit est long, détaillé, pertinent et unique.
Predictive Crawling : cela va plus loin qu’une histoire d’indexation Google…
Ces économies de ressources valent aussi pour le rafraîchissement des contenus des pages et des articles déjà présents dans le moteur de recherche. Eux aussi pourraient être explorés et mis à jour moins fréquemment qu’avant, encore une fois, pour des questions environnementales.
Nous soupçonnons également que les économies « carbone » de Google portent aussi sur le positionnement / ranking des contenus. Personnellement, il nous semble qu’aujourd’hui, Google met plus de temps qu’avant pour définir la position définitive de certaines pages Web.
Certains contenus peuvent mettre plusieurs jours, voire semaines, avant d’être positionnés dans les SERPs. Alors qu’avant 2021, de notre expérience, Indexation rimait souvent avec Positionnement…
Une fois indexé, un contenu prenait directement la place qu’il méritait (la plupart du temps).
On pourrait presque parler de Predictive Ranking.
Pourquoi Google n’explore et n’indexe pas toutes les URLs existant sur terre ?
En complément, dans une longue réponse publiée le 20 mars 2022 sur Reddit, John Mueller (porte-parole Google Search) a expliqué que… « de nos jours, le nombre de pages Web est infini. Il n’est ni possible ni utile de dépenser autant d’énergie à indexer le Web entièrement, dans son ensemble. Google tente de deviner les pages qui sont utiles à explorer. De la même manière, Googlebot tente de deviner quelle partie du Web il doit ignorer, car le Web est rempli de spam ou de sites qui n’atteignent simplement pas le minimum syndical de qualité exigé par Google aujourd’hui ».
Avec cette nouvelle confirmation de John Mueller, impossible de le nier…
Le référencement évolue !
Il est normal de la part de Google de rendre l’indexation et le ranking sur son moteur de recherche plus compliqués puisqu’il existe maintenant des API comme Jarvis (ou Jasper.ai) permettant de créer en quelques minutes, un blog rempli de contenus autogénérés.
Nous sommes à l’ère de l’intelligence artificielle.
Dans ce contexte, il est logique qu’une page mette plusieurs jours, voire semaines avant de passer le contrôle qualité de Google et donc, de se voir attribuer sa position réelle.
Actuellement, nous avons l’impression que Google se dit : « Si un contenu ne semble pas prioritaire, on le positionnera plus tard ».
Il s’agirait donc, encore une fois, de réduire l’énergie utilisée en puissance de calcul pour le positionnement des pages Web.
"Discovered, currently not indexed" : la définition officielle de Google est-elle un mensonge ?
Cette url n’a pas été indexée par Google !
Êtes-vous confronté à ce genre de message dans votre Google Search Console ?
Si l’on veut bien croire Google, le statut « Détectée, actuellement non indexée » signifierait que les pages ont été Découvertes, mais n’ont pas encore été Explorées (donc crawlées).
Concrètement, Google et son Predictive Crawling auraient décidé de reprogrammer le Crawl à plus tard.
Pourtant, à l’origine (avant le dernier trimestre 2020), la cause des pages “Détectée, non indexée” était tout autre ! Google indiquait “Discovered, currently not indexed” lorsqu’il n’avait pas pu visiter la ou les pages concernées, par peur de surcharger votre espace d’hébergement Web.
Google n’est pas un pirate. Il ne souhaite donc pas faire tomber votre serveur Web.
Voici les informations indiquées à ce sujet, dans la documentation officielle de Google :
Détectée, actuellement non indexée : la page a été détectée par Google, mais n’a pas encore été explorée. En règle générale, cela signifie que Google voulait explorer l’URL, mais que l’exploration a été reportée, car votre site risquait d’être surchargé. C’est pourquoi la dernière date d’exploration ne figure pas dans le rapport.
C’était vrai, précédemment, il était possible que Google se retrouve dans une situation où volontairement, il se ralentissait pour ne pas surcharger le serveur hébergeant le site exploré. Grâce à la Vitesse de chargement et aux éventuelles Erreurs Time out, Google est tout à fait en mesure d’interpréter quand son Googlebot est trop rapide et lorsqu’il devrait descendre d’une vitesse.
Dans les faits, aujourd’hui, puisque Google a décidé de ne plus tout indexer tout de suite, il s’agit davantage d’un message devant être interprété comme : « Cette URL ne nous a pas semblé prioritaire, nous y reviendrons plus tard et/ou nous attendrons plus de signaux positifs avant d’explorer cette page ».
Il est donc inutile de vous énerver en vous disant que vous avez créé le meilleur contenu du monde et que c’est injuste que Google ne veuille pas l’indexer.
À ce stade, si on se fie au statut de la Search Console, Googlebot ne serait pas encore conscient du contenu et de la qualité de votre page, puisqu’il ne l’aurait pas encore explorée. Il connaît l’existence de celle-ci, mais ne l’aurait pas encore crawlée, merci au Predictive Crawling.
Encore une fois, dans les faits et sans trop rentrer dans la technique, vous pouvez être exposé à ce statut et tout de même avoir reçu plusieurs visites du Googlebot. Le bot a pu apparaître plusieurs fois ! Cela peut être vérifié, par exemple, dans les logs de votre compte d’hébergement cPanel. Nous y reviendrons dans une prochaine question.
Mais ce qui est sûr avec le statut « Détectée, actuellement non indexée », c’est que Google n’a pas trouvé judicieux de s’embarrasser tout de suite, d’une analyse approfondie de votre page Web.
Donc, dans ce cas de figure, il convient de garder son sang-froid pour se concentrer sur les actions (détaillées ci-dessous) permettant d’inciter le Googlebot à :
- crawler plus régulièrement vos contenus
- indexer plus de pages de votre site
Que pensent les “Google Product Experts” de ces nouveaux délais d’indexation ?
C’est ce que nous avons tenté de savoir…
En septembre 2021, puisque nous faisions face à des problèmes d’indexation, avec beaucoup de pages bloquées sur le statut « Détectées, actuellement non indexées », nous avons voulu attirer l’attention de Google sur ce que nous pensions être un “bug” d’indexation. Pour ce faire, nous avons posté notre témoignage sur le forum officiel de Google, où plusieurs spécialistes “Product Experts” ont l’habitude de répondre.

“Problème d’indexation de contenu à haute valeur ajoutée… plus de 16 jours et pas encore indexé” — Extrait de la discussion menée en anglais sur le forum de Google.
Quelques grands sujets dignes d’intérêt ont été évoqués sur le forum de Google.
Notre échange avec les Experts Produit Google fut relativement intéressant. Donc, si vous avez beaucoup de temps devant vous (et beaucoup de courage), n’hésitez pas à lire cette discussion dans son ensemble (en anglais).
Par contre, sans surprise, quelques réponses et suggestions étaient assez “cliché” et ne prenaient pas en compte le nouveau contexte de Predictive Crawling. Beaucoup de bonnes pratiques génériques connues de tous ont été répétées par les Experts. Malheureusement, le crawl prédictif , la nouvelle politique d’exploration des sites et l’objectif zéro carbone de Google n’ont jamais été mentionnés…
Donc globalement, les intervenants Experts du forum Google semblaient déconnectés de la réalité.
Résultat des courses…
À l’époque, les quelques conseils donnés ne nous avaient pas permis de résoudre rapidement nos problèmes d’indexation et surtout, ils n’avaient pas suffi à nous rassurer et nous encourager à créer plus de nouveaux contenus de qualité pour Google.
Pour être honnêtes, nous avons même pensé à abandonner ce blog…
Si nos articles n’étaient plus référencés, à quoi bon faire tout ça ?
Il nous a donc semblé primordial de continuer nos tests et nos recherches pendant plusieurs mois, afin de vous offrir, ici, un guide complet et détaillé en 25 Questions Réponses vous permettant de savoir où aller et voir où vous allez, avec votre stratégie de création de contenu et votre référencement Google.
Pour retrouver toutes ces suggestions agrémentées de nos propres conseils personnels, poursuivez la lecture de cet “article FAQ” dans son ensemble. Aucune des questions suivantes ne devrait être négligée, notamment, en termes de Stratégie SEO et d’État d’esprit à avoir face aux problèmes d’indexation, pour la croissance de votre entreprise, grâce au référencement naturel.
Quelle est la différence entre le “Deep Crawl bot” et le “Fresh Crawl Bot” de Google ?
Le premier robot, le Deep Crawl bot, se rend sur votre site Web environ une fois par mois et analyse toutes les pages connues de votre site Web. Il est là pour réaliser un grand refresh de son index, pour votre site.
Le second robot, le Fresh Crawl Bot, se rend, quant à lui, plus fréquemment sur votre site. Cependant, celui-ci ne visite que les pages considérées comme les plus importantes de votre site et les pages qui sont fréquemment mises à jour. C’est lui aussi qui se charge d’indexer rapidement les articles d’actualité qui ne peuvent pas attendre.
Voici une illustration représentant ces deux robots de Google :
Lorsqu’on est conscient de l’existence de ces 2 types de bots bien distincts, il est plus facile de comprendre certains longs délais d’attente imposés avant l’indexation de certaines nouvelles pages.
Comme nous l’avons vu dans notre premier guide sur pour forcer l’indexation, Google tente de prédire quelles pages il devrait explorer tout de suite, parce qu’il s’agit de contenus urgents. Inversement, Google tente de deviner les pages qui peuvent attendre, éventuellement parce qu’il s’agit d’articles de fond intemporels, ou de pages de vente pouvant être indexées plus tard.
Si l’on additionne les concepts de Predictive Crawling et de Deep & Fresh bots, on comprend mieux que, si Google n’a pas “prédit” qu’un contenu était urgent, celui-ci peut rater son train… ou plutôt, rater le bot, le Fresh bot !
En résumé, si le Google Fresh Bot n’a pas voulu de votre contenu tout de suite (votre contenu n’a pas pu monter dans le train), celui-ci devra patienter l’arrivée du Google Deep Bot pour avoir une chance d’être indexé.
Cela pourrait expliquer la raison pour laquelle certaines pages sont indexées sous 24 heures, alors que d’autres peuvent prendre plus de 4 semaines avant d’être explorées par Google.
Cela devrait aussi nous aider à relativiser et patienter sans péter un câble 🙂
Pour conclure, puisque nous sommes tous pressés de voir nos contenus indexés, il ne nous reste plus qu’à tout faire pour séduire le Google Fresh Bot, dès sa première venue sur notre site Web. Sinon, nous risquons d’être à chaque fois soumis au bon vouloir du Google Deep Bot, qui lui, passe beaucoup moins fréquemment sur notre site.
Comment vérifier (correctement) qu'une URL est indexée sur Google ?
Pour savoir si une URL est indexée sur Google, plusieurs méthodes s’offrent à vous.
1. La recherche « site: »
Directement dans le moteur de recherche ou via l’omnibox de Google Chrome, lancez la requête suivante :
site:https://example.com/page
Ne mettez aucun espace avant ou après « : ».
Si vous voyez votre page dans les résultats, c’est qu’elle est indexée. Sinon, il faudra patienter travailler.
2. La recherche de l’URL entre guillemets
Directement dans le moteur de recherche, tapez la requête « https://example.com/page ».
Si vous voyez votre page dans les résultats, elle est indexée.
S’il n’y a aucun résultat, elle n’est probablement pas encore indexée.
3. La recherche d’une partie de texte entre “guillemets”
Pour plus de discrétion, certains référenceurs voudront éviter de montrer leurs intentions à Google. C’est-à-dire qu’il serait plus discret d’éviter de rechercher l’URL en clair, directement dans le moteur de recherche.
Pas de souci, il existe une alternative toute simple. Il suffit de chercher une portion de texte présente dans votre page, directement sur Google, en n’oubliant pas de la mettre entre guillemets, comme ceci :

En moins de 2 heures, notre page de vente « Hébergement WordPress » est indexée sur Google.
4. L’outil d’inspection d’URL de la Google Search Console (méthode recommandée)
Outre les recherches que vous pouvez faire sur Google, il est bien entendu possible de vérifier si un nom de domaine ou une URL précise est indexé sur Google, via la Google Search Console et son outil « Inspection de l’URL ».
Cette méthode s’avère être la plus fiable, car les datacenters de Google peuvent prendre plusieurs heures/jours avant d’être totalement synchronisés. De ce fait, une URL pourrait être invisible pendant une recherche sur Google.fr (depuis la France), mais pourrait être visible sur Google.ca depuis une recherche effectuée au Canada.
L’outil d’inspection d’URL est probablement la fonctionnalité la plus importante de la Google Search Console pour obtenir des informations sur votre référencement, utilisez-le.
5. Les outils gratuits basés sur l’API d’inspection d’URL de la Google Search Console
Ce 31 janvier 2022, Google a rendu accessibles, via une API, toutes les données de l’outil d’inspection de la Google Search Console.
Grâce à cette API, pour chaque propriété de site Web, vous disposez d’un quota de 2 000 requêtes par jour et 600 requêtes par minute. Pour chaque URL inspectée, ce quota vous permet de voir :
- son état d’indexabilité, d’exploration et d’indexation (le cas échéant)
- l’heure de la dernière exploration (si applicable)
- les données structurées pour l’éligibilité aux résultats enrichis (Rich snippets)
- ainsi que toutes les autres infos disponibles dans l’outil d’inspection d’URL

Extrait d’un résultat obtenu suite à une requête via l’API d’inspection d’URL de la Google Search Console.
Aussi tôt lancée, cette API a déjà été implémentée dans de nombreux outils en ligne, comme le Google Bulk Inspect URLs de Valentin Pletzer.

Source : valentin.app/inspect.html
Comme le montre la capture d’écran ci-dessus, ce service vous permet de vérifier le statut d’une longue liste d’URLs vous appartenant (validées via votre propriété Google Search Console). Il vous suffit de copier-coller votre liste d’URLs dans cet outil pour obtenir massivement toutes les infos de la console. Sans cette API, vous auriez dû collecter manuellement et individuellement toutes ces données via la console, ce qui aurait été très chronophage.
Donc, voici de quoi vous faire gagner du temps lorsque vérifierez sur quels contenus travailler pour parfaire votre référencement Google.
6. Les outils gratuits sans accès à la Google Search Console
Vous pouvez également vérifier le statut « indexed » ou non d’une URL ou d’une liste d’URLs via des outils ne nécessitant pas l’accès à votre Google Search Console. Ces derniers seront particulièrement utiles, par exemple, pour vérifier que vos Backlinks sont bien indexés.
Pour vérifier l’indexation de pages ne vous appartenant pas, il existe notamment :
De nombreux outils similaires gratuits et en libre accès sont disponibles depuis une simple recherche Google.
Les informations présentes dans la Google Search Console sont-elles fiables, à jour et exhaustives ?
Les propos de la team Google Search sont souvent à prendre avec des pincettes.
Il faut savoir lire entre les lignes.
La Console Google Search est avant tout un outil de communication entre Google et les webmasters.
Peut-on prendre pour argent comptant toutes les informations fournies par Google via sa console ? Les pages actuellement marquées comme “Non-Crawlées” sont-elles réellement exclues temporairement ? Ou Google dissimule-t-il certaines informations ?
Il est normal de se poser des questions.
Tout d’abord, il est important de savoir que les données de la Google Search Console ne peuvent vous être présentées que lorsque tous les datacenters Google sont synchronisés. Cela explique en partie le délai d’attente (environ 3 jours) pour recevoir les dernières informations de la Search Console, sur l’Exploration ou Le statut de vos pages dans Google.
Les Rapports de la Search Console sont-ils exhaustifs ?
Dans notre premier dossier sur l’indexation Google, nous avions présenté les rapports de la Search Console, comme s’il s’agissait d’un moyen fiable pour vérifier le passage du Googlebot sur notre site. C’était une (petite) erreur, car dans les faits, le Rapport de Statistiques sur l’Exploration Ne Mentionne Pas Toutes les URLs qui ont été Explorées.
C’est clairement indiqué dans la console Google Search, comme vous pouvez le voir sur la capture ci-dessous.

Notez que les exemples du tableau n’affichent pas toutes les demandes envoyées à votre site.
Voilà, correction faite ! ✔
Actuellement et depuis nos travaux pour réduire le Crawl, Google explore environ 200 URLs par jour sur notre petit site, EasyHoster.com. Cependant, seulement environ 10% des ressources sont présentées dans ce rapport de statistiques, soit environ 20 URLs par jour. Des données qui arrivent toujours après un délai d’au moins 48 heures, quand même.
Donc, il est tout à fait probable que Googlebot explore (et analyse plus ou moins dans le détail) de nombreuses URLs, sans qu’elles n’apparaissent dans ce rapport, même si vos contenus les plus importants devraient bel et bien s’y retrouver.
La Google Search Console sait très bien s’y prendre pour attirer votre attention sur vos meilleures pages, ou vos problèmes d’optimisation les plus dommageables .
Bien sûr, pour ne laisser passer aucune visite du Googlebot, il conviendrait d’utiliser un outil spécifiquement dédié au tracking de Googlebot ou de consulter les logs de votre serveur via cPanel.
Comment traquer les visites de Googlebot avec un plugin WordPress ou cPanel ?
Ce plugin fournirait donc un historique complet des visites du Googlebot pour chaque article. Il ne serait donc plus nécessaire de passer par les logs d’Apache ou cPanel pour déchiffrer une liste interminable d’entrées serveur complexes et illisibles.
Par contre, dans notre monde imparfait, malheureusement, ce plugin n’existe pas.
Si vous êtes un développeur WordPress et que vous lisez ceci, l’idée est à vous ! 🙂
Vérifier le passage de Googlebot avec un Hébergement cPanel
Si votre hébergeur Web dispose de cPanel, c’est peut-être votre jour de chance.
Pour effectuer un Tracking occasionnel de Googlebot, de Bingbot ou d’un autre bot, dans votre interface cPanel, rendez-vous dans la section Visitors (Visiteurs).

cPanel est selon nous, la meilleure interface de gestion d’hébergement.
Choisissez ensuite votre nom de domaine (SSL) pour accéder à la liste de toutes les Visites récentes sur votre site Web.
Ensuite, grâce au petit moteur de recherche offert par cPanel, recherchez simplement “googlebot” pour voir la liste récente de visites de Googlebot.

Grâce à cPanel, il est possible de rapidement vérifier le “User Agent” et l’adresse IP d’une visite récente, ce qui permet d’observer de façon fiable si le bot de Google est passé récemment sur votre site.
Voici le résultat d’un test effectué pour préparer ce guide d’indexation Google.
Nous avons modifié notre page WordPress piraté ? pour y ajouter un lien interne (maillage) vers notre nouvelle page de vente Hébergement WordPress.
Nous avons ensuite pingué cette URL en l’envoyant simplement dans Pingomatic :

Google se sert des pings de Pingomatic (notamment réalisés automatiquement par WordPress) pour découvrir des contenus récemment publiés ou mis à jour.
Résultat, comme illustré ci-dessous, en moins de 5 minutes, le Googlebot a fait le choix de Réexplorer notre URL, pour y trouver, effectivement, une véritable Mise à jour de contenu récente.

Par défaut, WordPress ping automatiquement rpc.pingomatic.com à chaque ajout ou mise à jour de contenu.
Bien sûr, de leur côté, les référenceurs plus exigeants voudront peut-être télécharger et importer leurs logs serveur dans un outil plus avancé…
Exporter ses logs d’accès Apache depuis cPanel pour les importer dans un outil SEO
Pour télécharger les logs de visites complets, rendez-vous dans cPanel, dans la section Accès Brut (Raw Access).
Vérifiez que cette case est bien cochée “Archive log files to your home directory after the system processes statistics. The system currently processes logs every 24 hours”.
Ensuite, cliquez sur le domaine pour lequel vous souhaitez télécharger les logs.
Une fois le fichier téléchargé sur votre ordinateur, ouvrez-le avec votre navigateur Web. Vous pouvez ensuite en copier-coller les données dans une feuille de calcul type Google Sheet ou Microsoft Excel, par exemple.
Gratuitement et moyennant une Recherche “googlebot”, cette méthode vous permettra d’avoir une vue complète des visites de Googlebot, pour une date précise.
Pour aller plus loin, vous pouvez importer vos journaux d’accès serveur dans un Outil SEO spécifiquement dédié à l’analyse de fichiers logs. Cependant, cette dernière option a un coût non négligeable, car ces outils sont généralement assez coûteux.
Googlebot a-t-il accès à ce site ? L'outil d'inspection de la Search Console est-il fiable pour s'en assurer ?
Par exemple, dans votre Search Console, il pourrait arriver dans certains cas que vous ayez des avertissements relatifs à une page non indexable.
Cette URL n’a pas été indexée par Google !

Cette URL n’a pas été indexée par Google.
Par exemple, ce type d’avertissement peut être dû à un blocage de la page par une balise robots=noindex, un robots.txt ou encore une balise canonical mal configurée, sans oublier les potentielles Erreurs de serveur Web.
Toutefois, dans la plupart des cas, en cliquant sur le bouton « Tester l’URL en direct », vous devriez pouvoir vérifier que le rendu de votre page est Correct !
Google a accès à cette URL
Ce test vous permettra de visiter votre page avec les yeux de Googlebot, tout en admirant le gentil message de la console indiquant que « Google a accès à cette URL ».
L’outil d’inspection d’URL est-il fiable pour simuler Googlebot ?
À partir du moment où la console vous annonce que votre URL est OK, selon nous, c’est que votre URL est OK !
Pourtant, certains spécialistes pourraient affirmer que malgré ce message de confirmation, il n’est pas sûr que Googlebot puisse explorer votre site. C’est ce que les Experts du forum de Google nous ont dit l’année dernière 😉 (voir la question ci-dessus, “la définition officielle de Google est-elle un mensonge ?”)
En effet, si vous postez sur le forum de Google, ces Experts vous diront peut-être que, même si tous les voyants sont Verts côté Search Console, votre site pourait quand même, éventuellement, bloquer l’accès à Googlebot, à cause du pare-feu de votre hébergeur ou d’autres raisons techniques un peu obscures (???)
Non ! De notre côté, nous ne sommes pas d’accord avec cette analyse, car en tant qu’Hébergeur Web, nous sommes à la source pour vérifier directement la configuration de nos Firewall, dans lesquels Googlebot est 100% Whitelisté, logs d’accès serveur à l’appui.
Google développe et partage un outil, la Search Console, spécifiquement pour vous permettre de vérifier que votre URL est “indexable”. Donc, il n’a aucune raison de vous mentir sur ce point.
La Search Console est là pour ça !
Moralité, si votre page est au Vert sur la console, d’après nous, il est inutile de psychoter sur votre hébergeur Web 😉 Votre problème d’indexation se situe probablement ailleurs.
Comment vérifier que le Firewall de votre Hébergeur Web ne bloque pas Googlebot ?
Comme indiqué dans la question précédente, selon nous, si l’outil d’inspection de la Search Console indique que Google a accès à votre URL, vous avez de bonnes raisons de penser qu’il a effectivement accès à votre URL. Après tout, la Search Console est faite pour ça.
Dans le doute, vous pouvez également vérifier que tout est bien au vert du côté de votre hébergement Web, dans la section Paramètres > Statistiques sur l’exploration > État de l’hôte.

Chez EasyHoster, nous veillons à ce que votre site soit facilement accessible par Googlebot.
Votre référencement Google est-il une priorité pour votre hébergeur Web ?
Le mieux est encore de lui poser la question en ouvrant un ticket auprès de son département technique.
Bien sûr, chez EasyHoster, nous ne bloquons en aucun cas Googlebot, car leurs IPs sont toutes mises en liste blanche sur notre infrastructure.
En matière de sécurité, nous évitons les “faux positifs” à tout prix et nous mettons un point d’honneur à ne jamais bloquer de trafic légitime sans raison valable.
Pour cela, nous avons finement paramétré nos firewalls afin qu’ils vous protègent efficacement, mais ne dégradent jamais votre référencement Google.
Il est préférable pour nous d’autoriser un peu de “mauvais trafic” (par exemple, le réseau Tor ou certains pays “exotiques”), plutôt que de bloquer certains utilisateurs ou robots “légitimes” comme Googlebot ou les bots de vos outils d’analyse SEO.
En tant qu’hébergeur premium, nous avons beaucoup d’autres moyens disponibles pour sécuriser notre infrastructure. Grâce à nos technologies dernier cri, il n’est pas nécessaire pour nous de bloquer massivement du trafic qui pourrait pourtant être jugé comme suspicieux par certains autres hébergeurs.
L’une des couches de pare-feu que nous utilisons est gérée par Imunify360, une solution sécuritaire proposée par CloudLinux, un pilier du secteur de l’hébergement et de la sécurité Web.
En plus de renforcer la sécurité de nos serveurs, Imunify360 a pour priorité d’éviter le blocage du trafic légitime, bien sûr, sans rogner sur le niveau de protection des serveurs Web de ses partenaires. Par conséquent, Imunify360 se concentre uniquement sur les activités suspectes (attaques par force brute, tentatives d’injections SQL, etc). Autrement dit, il surveille particulièrement les tentatives d’intrusion en Backend et en aucun cas, le trafic effectuant une lecture statique des contenus de vos sites Web. Il ne devrait donc jamais bloquer les crawlers et les scappers qui ne font que visiter des pages Web statiques, exactement comme le fait Googlebot ou les outils SEO que vous avez l’habitude d’utiliser.
De plus, de notre côté, nous avons configuré le niveau de sécurité d’Imunify360 sur « modéré ». Cela signifie que seuls les utilisateurs malintentionnés sont bloqués et certainement pas Googlebot. Nos serveurs étant très performants et partagés avec peu de clients, nous pouvons sans problème encaisser le « surtrafic ».
Quoi qu’il en soit, pour EasyHoster, en tant que fournisseur d’Hébergement Web, c’est une bonne pratique de simplement « mettre en liste blanche (sans poser de questions) » tous les robots d’exploration, les outils SEO ou les CDN de confiance, et ce, sur simple demande du client.
Bien sûr, Google est le premier bot que nous avons ajouté dans les listes blanches de nos différents dispositifs.
Nous sommes d’ailleurs ravis de constater que notre partenaire Imunify360 est sur la même longueur d’onde que nous à ce sujet.
Laissons-les nous expliquer comment Imunify360 s’assure de ne jamais bloquer les bots de Google. Pour cela, nous vous relayons un message qu’ils nous ont transmis par e-mail :
Tous les robots Google connus sont déjà sur la liste blanche d’Imunify360, et Imunify360 ne les bloque pas. Les adresses IP Google sont sur notre liste blanche globale et ne peuvent pas être bloquées par le pare-feu, et le “user-agent” utilisé est autorisé dans nos règles ModSecurity. Pour résumer, si une requête provient d’une adresse IP légitime appartenant à Google et que le “user-agent” du bot appartient à Google, une telle requête n’est ni bloquée par Imunify360, ni par notre ensemble de règles ModSecurity.
Vous l’avez compris, EasyHoster est conscient de l’importance d’être bien référencé sur Google et travaille quotidiennement dans ce sens avec ses clients. Pour cela, nous travaillons dur afin d’offrir des services permettant d’obtenir un classement optimal sur le moteur de recherche (notamment, grâce à de bonnes performances), mais nous veillons aussi à ne surtout jamais restreindre l’accès aux sites à Googlebot.
Votre site est-il accessible depuis smartphone et par Googlebot-Mobile ?
Pour vous assurer que le robot de Google spécifique aux smartphones (Googlebot-Mobile) est capable de visiter votre site, encore une fois, vous devriez pouvoir vous fier aux outils mis à votre disposition par Google.
Donc bien sûr, pour vérifier que Googlebot-Mobile a bien accès à votre site, vous pouvez vous rendre dans votre Google Search Console > Outil d’Inspection d’URL > puis un peu plus bas, sur la page de statut, cliquez sur « Ergonomie mobile ».
Ensuite, vous verrez le statut Adapté aux mobiles ou non (voir illustration ci-dessous), concernant votre page, avec la possibilité d’afficher un aperçu de votre site sous l’onglet Capture d’écran.
Jusque là, vous étiez probablement déjà au point.
Mais connaissiez-vous l’existence du Mobile-Friendly Test Tool de Google ? C’est un outil en libre accès, disponible pour tous, que vous soyez enregistré sur Search Console, ou pas ; que vous souhaitiez vérifier une URL vous appartenant, ou pas !
Cet outil de test d’optimisation mobile est disponible à cette adresse :
https://search.google.com/test/mobile-friendly
Ci-dessous, voici comment cela se présente et sachez encore une fois que n’importe qui peut utiliser cet outil, sans inscription préalable, pour vérifier l’état de son site Web (ou celui d’un confrère) aux yeux de Googlebot-Mobile.
Comment créer et faire des pings de tous vos Sitemaps XML & Flux RSS via Feed Burner & Pingomatic grâce au plugin EasyHoster ?
Depuis sa version 5.5 datant de juillet 2020, WordPress intègre déjà des plans de site XML, par défaut, sans plugin supplémentaire. Cependant, pour plus de contrôle, ces Sitemaps XML peuvent être autogénérés par un plugin WordPress SEO tel que Yoast.
Vérifier ses Sitemaps XML
Premier bon réflexe, assurez-vous que vos sitemaps soient lisibles par Google en les enregistrant dans votre Search Console.
Dans le cas d’EasyHoster, voici comment cela se présente :
Comment pinguer ses Sitemaps ?
Bon à savoir, vous pouvez faire un ping de vos Flux RSS et Sitemaps sans passer par la Google Search Console, en complétant et en visitant cette URL :
https://www.google.com/ping?sitemap=XXX
Remplacez XXX par l’URL complète de votre feed ou sitemap.xml (en commençant bien par https).
Il est également possible d’effectuer des “ping” de vos Flux RSS et de vos Sitemaps avec des outils comme Pingomatic ou Feed Burner.
Mise à jour 2023 concernant les pings Feed Burner :
L’url de ping Feed Burner (https://feedburner.google.com/fb/a/ping) conduit maintenant à une erreur 404. Il semblerait que pour obtenir le même effet qu’avec la précédente interface de ping, il soit obligatoire d’inscrire le Flux RSS dans leur nouvelle interface et de cliquer sur “Actualiser le flux” comme illustré sur la capture ci-dessous.
D’après nos tests, ça fonctionne toujours !
Je suis sûr que vous serez bientôt accro à ces pings de Sitemap & RSS 😉
Par contre, si vous effectuez uniquement des pings anonymes de vos sitemaps, vous ne disposerez pas des données offertes par la Search Console, notamment sur le statut Détectée / Explorée, actuellement non indexée, etc.
Ne pinguez pas directement vos nouveaux contenus !
En effet, notez que pour une indexation optimale, nous verrons dans une prochaine question Comment faire découvrir une nouvelle URL à Google.
Vous apprendrez qu’il et préférable de travailler son maillage interne et de pinguer les pages qui font un lien à notre URL cible, plutôt que de pinguer directement l’URL cible en question.
Créer des Flux RSS /feed/ pour les Pages WordPress et les autres Custom Post Types, grâce au plugin EasyHoster
Pour vous remercier de lire attentivement chacune des 25 questions de cet “Article FAQ”, ci-dessous, nous vous offrons le code source qui nous permet de créer des /feed/ de tous nos types de contenu WordPress.
Voyez la liste des Feeds & Sitemaps XML de notre Search Console :

Grâce au plugin gratuit offert ci-dessous par EasyHoster, créez des /feed/ pour vos Pages et tous vos types de contenus (Custom Post Types WordPress).
En effet, par défaut, votre Flux RSS (donc l’URL de votre site WordPress + /feed/) ne reprend seulement que vos 10 derniers articles de blog.
Voyez par exemple le Flux RSS dédié aux Articles notre Blog EasyHoster :
https://www.easyhoster.com/feed/
Ce type de flux ne reprend en aucun cas vos Pages de vente, ou d’autres types de contenus comme les Sujets de votre forum de discussion, les Produits de votre catalogue eCommerce, les Billets de votre centre d’aide, ou encore les Projets de votre portfolio…
Voyez maintenant ce nouveau Flux RSS personnel dédié aux Pages de vente EasyHoster :
https://www.easyhoster.com/feed/?post_type=page
N’essayez pas de faire pareil à la maison sans avoir lu la suite 🙂 Cette URL n’est valide qu’après avoir intégré notre plugin EasyHoster au cœur de votre installation de WordPress.
Bien plus qu’un hébergeur, cela fait partie des services que nous offrons sans surcoût à tous les clients des hébergements WordPress EasyHoster.
Ces contenus spécifiques, sur WordPress, cela s’appelle des « Custom Post Types ».
Grâce à notre petit plugin WordPress EasyHoster, vous allez pouvoir libérer vos Pages et vos Autres contenus pour qu’ils apparaissent dans votre /feed/ WordPress et donc, pour qu’ils puissent être référencés sur Feed Burner et/ou pingués via Pingomatic 😉
N’oubliez pas que vous avez trouvé cette pépite en premier sur le blog EasyHoster 🙂
Ensuite, puisqu’il s’agit d’un plugin Single File, téléversez le fichier .php directement dans le répertoire /wp-content/plugins/ de votre site WordPress.
Par défaut, ce plugin libérera vos Pages dans un Flux RSS accessible via /feed/?post_type=page.
Pour les Custom Post Types, lisez attentivement les instructions données dans les commentaires du code source.
Bien sûr, si vous le souhaitez en tant que client EasyHoster, n’hésitez pas à contacter notre support technique afin que nous mettions gratuitement en place ce plugin sur votre site WordPress, afin d’utiliser pleinement ces fameux /feed/ personnalisés.
Créer un sitemap dédié à 100% à une seule page, pourquoi pas ?
Voici une astuce que vous pourrez lire ailleurs. Il serait utile de créer un fichier spécifique de type sitemap-xxx.xml, manuellement, avec un simple éditeur de code, pour ensuite, le soumettre via la Google Search Console.
Ce fichier XML ne contiendrait qu’une seule et unique URL récalcitrante et son but serait d’en favoriser l’indexation.
Voici un exemple de syntaxe de Sitemap XML fourni par Google :

Pour créer votre propre Sitemap XML personnel veuillez copier-coller ce code source en cliquant sur cette image.
Les résultats ne sont pas garantis, mais le test reste néanmoins intéressant.
Ce test SEO est rapide à réaliser et ne mange pas de pain. Toutes les informations sont bonnes à prendre et toutes les expériences sont intéressantes en SEO 🙂
Théoriquement, ce plan de site XML ne devrait donc contenir qu’une seule et unique URL afin de favoriser le passage du Googlebot sur celle-ci.
Voyez comment nous avons créé ce Sitemap XML individuel en 2 minutes, grâce à l’éditeur de code de notre hébergement cPanel.

Un fichier Sitemap XML peut facilement être créé manuellement, grâce à un éditeur de code comme celui disponible dans cPanel, et ne devrait contenir qu’une seule URL.
Voici un outil permettant de tester la validité de votre Sitemap XML en ligne.
Comme vous l’avez compris, nous nous sommes adonnés à cet exercice du “sitemap individuel” pour une page qui peinait à être Crawlée et nous devons avouer que les résultats furent “mitigés”.
Nous avons pu remarquer que même si le Sitemap était considéré comme valide et même si l’URL était détectée, pendant 3 jours, Google et sa console refusaient de nous dire quoi que ce soit au sujet de l’URL soumise individuellement.
Le référencement et la mise à jour d’un Sitemap XML ne sont pas instantanés, loin de là !
Comme vous pouvez le voir sur la capture ci-dessus, le lien “Voir la couverture d’indexation” restait grisé. Cela démontre encore une fois que Google se réserve le droit de prendre tout son temps avant d’explorer et d’analyser une URL.
Certains experts parlent actuellement d’un délai d’une semaine incompressible pour les nouvelles URLs soumises de cette façon (via un nouveau Sitemap XML). D’autres vont même jusqu’à parler de délais supérieurs à 1 mois.
Bien sûr, pour les anciens Sitemaps des sites Trustés, les URLs sont prises en compte après 24 à 72 heures après l’Envoi du Sitemap + Ping.
Notre conclusion de ce test SEO :
Pour les Nouveaux sites Web et les sites de Faible autorité, un tel Sitemap individuel (tout comme l’outil d’Inspection de l’URL) ne permet plus de forcer Google à visiter et indexer une page à tous les coups. Un travail complémentaire devra être réalisé sur le Trust et la Pertinence de votre site.
Si votre situation est désespérée et que vous ne souhaitez pas patienter sans rien faire, voici un autre test intéressant…
Demander à Googlebot de visiter votre nouveau Sitemap individuel :
Pourquoi pas ? Il est possible de Demander une indexation pour ce Sitemap, au lieu de la page de destination directement. En effet, cette dernière URL directe devrait avoir été découverte grâce à votre maillage interne (voir question sur le Maillage interne).

Le saviez-vous ? L’outil d’inspection d’URL de la Search Console permet de Crawler (comme Googlebot), n’importe quel type de contenu et pas uniquement les Pages Web. Par exemple, cela fonctionne pour vos fichiers « image », mais également pour vos Sitemap XML. Ce test vous permet de vérifier que Google a bien accès à cette URL. Vous pouvez aussi lui demander de bien vouloir réexplorer la page, l’image ou le sitemap, entre autres choses.
Bien sûr, il est difficile d’espérer un délai de Crawl plus rapide pour un faux Sitemap, plutôt qu’un article tendance à haute valeur ajoutée.
En tout cas, pour effectuer un bon Suivi d’indexation, cette astuce de Sitemap individuel vous permettra d’y voir très clair sur le statut d’un page individuelle, ou plusieurs pages récalcitrantes. Bien sûr, il est recommandé de ne pas abuser de ce type de sitemaps… trop de sitemaps tuent le sitemap.
Faites les choses proprement.
Maillage interne : Comment faire découvrir ses nouveaux contenus et pourquoi éviter l'inspecteur d'URLs de la Search Console ?
En parallèle, on ne cesse d’entendre parler de l’importance du maillage interne, en SEO, pour le ranking, mais aussi pour l’indexation…
Mais pas n’importe comment !
Qu’est-ce que le maillage interne en SEO ?
Il s’agit des liens réalisés entre les pages d’une même thématique, au cœur du contenu d’un même site.
Vous connaissez John Mueller, l’ingénieur public numéro 1 chez Google Search.
Lui aussi ne cesse de répéter à qui veut l’entendre qu’il est important de travailler finement son maillage interne.
“ Le maillage interne est super vital pour le SEO ” (sic)
C’est exactement ce que John Mueller a déclaré à la minute 25 de cette vidéo postée le 6 mars 2022 sur la chaîne officielle de Google Search Central.
En effet, le porte-parole Google Search répond souvent aux questions des éditeurs•trices de sites Web.
Dans cette intervention, il a affirmé que les liens internes représentaient une excellente opportunité de communiquer à Google qu’un contenu, sur le site Web, est très important.
De même, il ne faut pas confondre “maillage interne” (au cœur du contenu) avec “liens de navigation” (les menus, en haut, en bas et sur le côté).

John Mueller est l’ingénieur porte-parole n°1 chez Google Search. Il répond très régulièrement aux questions qui lui sont posées sur YouTube et Twitter.
Voici un résumé des recommandations de John Mueller sur le maillage interne.
“ Je pense que les liens internes, c’est l’une des choses les plus grandes que vous puissiez faire sur un site Web pour guider Google et les visiteurs, vers les pages que vous pensez être importantes.
D’ailleurs, ce qui est important, c’est absolument ce que vous voulez ! Vous pouvez décider de mettre en avant, via des liens internes, ce qui vous rapporte le plus d’argent ; ou ce pour quoi vous êtes le meilleur par rapport aux concurrents ; ou justement, ce pour quoi vous êtes actuellement moins bon que vos concurrents.
Grâce au maillage interne, vous pouvez vraiment concentrer l’attention sur ces parties de votre site.
Même si vous avez un fil d’Ariane avec des liens, nous n’utilisons pas ces liens comme nous utilisons le maillage interne. C’est comme pour la balise ‘hreflang’, elle ne pourra jamais remplacer de véritables liens vers les différentes langues de votre site. Vous devriez vraiment avoir de vrais liens HTML entre les différentes parties de votre site. Et dans l’idéal, vous ne devriez pas avoir une liste de liens basique, mais vous devriez plutôt réfléchir stratégiquement à ce que vous voulez mettre en avant par-dessus tout… et comment vous pouvez faire savoir ce qui est important, grâce à votre maillage interne ” — John Mueller sur YouTube
Un maillage interne efficace est donc un excellent moyen d’aider Google à trouver votre contenu (le plus important) pour le faire indexer et accessoirement, c’est aussi un bon moyen d’aider à faire ranker un contenu.
Mon échange personnel avec John Mueller au sujet de nos problèmes d’indexation
John est vraiment très accessible, notamment sur Twitter. Si vous lui posez une question pertinente, nul doute qu’il vous répondra.
D’ailleurs, c’est personnellement que John Mueller m’a rappelé, encore une fois, l’importance d’un bon maillage interne. Voyez ci-dessous l’extrait d’un échange que j’ai pu avoir avec lui sur Twitter (via mon compte @MisterWordPress).
Ci-dessous, ses suggestions sont extrêmement intéressantes.
Analysons-les…

John Mueller nous parle de lier notre contenu depuis notre page d’accueil pendant suffisamment longtemps. Il nous parle aussi de liens internes issus de plusieurs autres pages, vers notre contenu. Il nous suggère de (re)soumettre notre page d’accueil et nos autres contenus associés (avec liens internes) via la Search Console. Enfin, il nous rappelle qu’à présent, Google prend son temps : « 16 jours, c’est long, mais pas outrageusement long ».
Pour l’indexation de nouvelles pages, sur Twitter, John Mueller confirme l’importance d’un bon maillage interne combiné au recrawl d’anciens contenus où figurent nos nouveaux liens.
Pour faire découvrir de nouvelles pages à Google, les liens ont toujours bien fonctionné.
La première approche est souvent de créer des backlinks externes, vers ses nouveaux contenus, afin de leur donner un petit boost.
La deuxième approche ne doit cependant pas être négligée : créer naturellement des liens internes qui s’avéreront utiles au sein d’anciens contenus du même site.
Une fois ces liens créés, il vous suffira d’utiliser tous les artifices vus précédemment pour inciter Google à faire un recrawl de ces anciens contenus où figure ce nouveau maillage interne.
De cette manière, Google découvrira en douceur votre maillage interne. C’est-à-dire, vos multiples nouveaux liens internes vers votre nouveau contenu.
Ces liens contextuels lui feront comprendre l’importance qu’a votre nouveau contenu pour votre site ; ce qui lui donnera envie d’indexer votre nouvelle URL ; tout en comprenant mieux le sujet abordé dans votre page.
Nos problèmes d’indexation étaient plus fréquents pour les pages découvertes de façon “non naturelle”.
En effet, nous avons observé que l’erreur « Détectée, non indexée », touchait particulièrement les pages qui avaient été envoyées compulsivement pour indexation via l’inspecteur d’URLs et/ou via un Sitemap XML.
À l’inverse, ce problème d’indexation touchait très peu les pages qui avaient été détectées naturellement, grâce à plusieurs liens “texte”, via le crawl des pages en HTML. C’est-à-dire, via notre maillage interne.
Comment faire découvrir une nouvelle URL à Google ?
- Ne sautez pas sur l’outil d’inspection d’URL et la demande d’indexation de la Search Console.
- Ne sautez pas sur les outils de Ping, pour votre nouveau contenu, ni même le recrawl de votre Sitemap.
- Travaillez très rapidement votre maillage interne en prenant compte votre nouveau contenu.
- Demandez à Google de (re)visiter les anciennes pages où vous venez d’intégrer proprement des liens vers votre nouveau contenu.
Concrètement, comme ça se passe dans la tête de Google ?
Vous pourrez le constater dans votre Search Console. L’avantage de cette méthode est qu’elle vous permet d’avoir une URL référente (voir Page d’origine) dans votre console, ce qui risque de plaire à l’algorithme de Predictive Crawling.
En effet, si vous n’utilisez pas la technique du maillage interne pour faire découvrir vos nouveaux contenus à Google, la Découverte risque fort de se faire via Sitemaps (ci-dessous, souligné en rouge).

Dans le contexte du Predictive Crawling, il semble vivement conseillé de faire découvrir ses nouveaux contenus via une « Page d’origine » et pas uniquement via ses sitemaps.
À moins de travailler rapidement son maillage interne, il est très fréquent de n’avoir aucune URL référente (Page d’origine, ci-dessus, souligné en vert) mentionnée dans la Search Console.
D’après nos observations, cela semble être régulièrement considéré comme un “problème” par John Mueller, lors de ses différents échanges avec la communauté SEO.
The URLs mentioned were only spotted in the sitemap, which is kinda weird though.
— John Mueller
Traduction :
Les URL mentionnées n’ont été repérées que dans le Sitemap, ce qui est un peu bizarre cependant.
Donc, John Mueller insiste très souvent sur l’importance de faire découvrir ses contenus grâce à de bons liens internes.
Devant ce constat, il nous semble que l’Outil d’inspection d’URL devrait à présent être réservé au signalement des Mises à jour de contenu et non à la découverte de nouvelles pages.
Aujourd’hui, nous avons donc choisi de favoriser le crawl et le recrawl pour une Découverte des pages via les Liens organiques uniquement.
Voyez comment cela a toujours été précisé clairement par Google, dans sa console :

Si la Page a été modifiée, alors, (re)Demander une indexation.
Pourtant, c’est vrai, à la belle époque, cet outil d’inspection combiné à une demande de recrawl était la meilleure méthode pour être indexé (à tous les coups) en quelques heures. Cela vous permettait parfois d’obtenir le référencement d’une page en 30 minutes seulement !
Mais aujourd’hui, force est de constater que cela n’est plus le cas, en tout cas pour la majorité des sites qui semblent privés définitivement de l’efficacité de cet outil (dommage).
Faire indexer des URLs sans backlinks et sans liens internes est presque devenu mission impossible.
Il faut lâcher prise avec l’outil d’inspection de la console.
Nous recommandons donc à tous les SEO d’arrêter de s’énerver sur le bouton d’Inspection des URLs, car sans multiplier d’autres signaux positifs, ce bouton agira comme s’il n’était connecté à rien.
Concentrez plutôt votre temps et votre énergie au maximum, sur tous les leviers extérieurs que nous allons voir dans la suite de cet “Article FAQ”.
Maillage interne : Comment mettre en place un maillage efficace pour l'indexation Google ?
Il est important que vos pages soient liées entre elles pour que Google découvre naturellement vos nouveaux contenus.
Cela paraît tout simple… bête comme chou !
“ Les derniers articles sont souvent liés dans le pied de page du site Internet. Donc, ces nouvelles pages reçoivent forcément une masse de nouveaux liens, et même, depuis toutes les pages ! Donc, il est impossible que Google passe à côté d’un nouveau contenu publié sur le site ? ”
Raté !
Le travail du maillage interne figure parmi le Top 5 des conseils de ce Guide sur l’indexation Google, et il est assurément l’un des principaux critères de Positionnement d’une page en 2022.
Ne le négligez pas et même mieux, apprenez à le dompter !
Comment mettre en place un maillage interne efficace en 2022, pour son indexation comme son ranking ?
Les liens internes (le maillage interne) doivent être conçus pour donner plus de valeur aux lecteurs qui voudraient plus d’informations sur le sujet qu’ils sont en train de découvrir sur votre site.
Le maillage interne sert donc à garder le visiteur plus longtemps sur le site, pour diminuer votre taux de rebond et augmenter la durée moyenne des visites de votre site.
Un bon maillage interne permet également d’avoir un trafic continu, même vers d’anciennes publications. Alors que sans maillage interne, c’est uniquement les nouveaux articles qui obtiennent du trafic les premiers jours, lorsqu’ils font le buzz sur les réseaux sociaux.
Il est donc important, lorsque vous commencez à rédiger sur votre site, de penser aux liens que vos articles auront entre eux.
De même, faites attention à aborder des thématiques connexes. Il convient d’alimenter son site de sujets « interdépendants ».
N’allez pas rédiger, tantôt sur le “Marketing”, et tantôt sur les “Prothèses auditives”. Ces thématiques n’ont aucun rapport entre elles.
À l’inverse, si vous gravitez toujours autour de quelques sujets bien choisis, vous pourrez facilement mettre en place des liens internes, directement dans vos contenus, et ce, de façon naturelle.
Vous devriez à tout prix éviter les pages orphelines.
C’est-à-dire, les pages qui sont présentes sur votre site, qui sont éventuellement crawlées par Google, mais qui ne sont liées à aucune autre page depuis votre maillage interne.
Bien sûr, vous allez lier vos catégories importantes dans l’en-tête de votre site, c’est-à-dire, dans le menu de navigation supérieur. Cela est très important pour diriger Googlebot vers vos pages internes, mais cela ne fait pas tout…
Oubliez un peu les liens de vos menus d’en-tête (header) et de pied de page (footer).
D’ailleurs, oubliez aussi les widgets qui vont automatiquement remplir votre Sidebar, avec plein de liens soi-disant connexes.
Pour établir la carte de votre maillage interne, imaginez pendant 5 minutes que Google ignore votre En-tête, votre Pied de page et votre Barre latérale.
Ensuite, hiérarchisez les pages par ordre d’importance à vos yeux (et aux yeux du moteur de recherche) et liez-les depuis vos précédents contenus via des liens “texte”, au coeur des pages traitant du même sujet.
Comment finalement, faire indexer une page récalcitrante, grâce au maillage interne ?
Si vous êtes confronté à des contenus qui auraient été ignorés par Google, la création de nouveaux articles liés à ces contenus non-indexés devrait vous permettre d’en redorer le blason. En continuant de publier sur un sujet donné, tout en créant de nouveaux liens internes, Google n’aura pas d’autre choix que de se pencher à nouveau sur votre contenu récalcitrant, pour enfin, décider de l’indexer et même mieux, le placer en bonne position dans les SERPs.
Votre site comporte déjà beaucoup de contenus vers lesquels il faudrait créer des liens ?
Pour vous aider dans la mise en place de votre maillage interne et identifier toutes les pages qui parlent d’un sujet précis, deux possibilités s’offrent à vous.
- Si votre site est basé sur WordPress, faites une recherche dans vos contenus en ajoutant « ?s=MotClé » à la fin de l’URL de votre site. Par exemple, si vous souhaitez rechercher toutes les pages parlant d’indexation Google cela devrait ressembler à ceci : https://example.com/?s=indexation
- Autre option, vous pouvez faire la recherche directement via Google avec la requête « site: ». Par exemple, si nous voulions rechercher toutes les pages parlant de référencement Google sur le blog EasyHoster, nous pourrions rechercher ceci sur Google :
https://www.google.fr/search?q=site:easyhoster.com indexation google
Cela nous permettrait de dénicher des Pages déjà indexées, pour faire des liens à de nouveaux contenus importants.
Quelles bonnes pratiques pour la création de liens internes ?
Quelles ancres utiliser ? Où placer les liens dans les contenus ? Combien mettre de liens maximum… ?
On entend souvent tout et n’importe quoi sur la création de liens internes et la mise en place de cocons sémantiques.
Par exemple, « il faudrait mettre 2 liens internes dans chaque article ». Pas un seul de plus ou de moins !
Selon nous, ces “astuces” n’ont pas lieu d’être…
Même s’il est souvent conseillé de placer vos liens importants dans la partie supérieure de vos articles, cela n’a aucune importance comparé à L’intérêt du lien, pour l’utilisateur et donc, L’expérience utilisateur.
Retenez cette importante règle en SEO :
Un bon lien est un lien qui est cliqué !
Si vous arrivez à placer un lien interne, spécifiquement, à un endroit où le lecteur aura envie de le cliquer pour en savoir plus, vous avez tout gagné !
Concernant la limite de liens internes à intégrer sur chaque article… il n’y en a pas. Encore une fois, vous devez simplement penser à l’intérêt du lecteur qui arrivera sur votre page.
Il est clair que si votre contenu fait 4 paragraphes, mais contient 10 liens internes, le lecteur ne saura pas où donner de la tête. Par contre, dans vos contenus les plus longs, vous pouvez sans problème intégrer une douzaine de liens internes, à condition que ceux-ci aient un intérêt pour le lecteur.
Enfin, terminons par l’aspect qui est peut-être le plus important pour votre maillage interne…
Quelle ancre utiliser comme texte de lien ?
Oubliez les plugins qui intègrent automatiquement des liens dans vos articles, soi-disant pour vous aider à répartir correctement votre linkjuice. Rien ne vaut un travail d’artisan, où les liens seront intégrés naturellement, au sein de vos contenus, là où ils sont utiles pour le lecteur.
Il est important de varier les ancres.
C’est le meilleur moyen de paraître naturel aux yeux de Google.
De notre côté, tantôt nous allons intégrer un lien vers notre meilleure page de vente, sur les termes “hébergements WordPress”, tantôt sur les termes “Hébergeur WP” ou encore “Hébergeur spécialisé WordPress & WooCommerce”.
L’idéal serait que chaque lien interne ait une ancre unique qui aide Google à comprendre le sujet de votre page et surtout, qui aide le lecteur à comprendre ce qui se cache derrière le lien, avant de cliquer.
En construisant votre maillage, ne vous contentez pas d’insérer des liens !
Lorsque vous publiez un nouveau contenu important sur votre site, trouvez toutes les pages qui pourraient faire un lien à ce nouveau contenu.
Ensuite, pour toutes ces pages, n’hésitez pas à effectuer un rapide travail de relecture du contenu, pour corriger ce qui doit l’être. Il y a toujours des choses à corriger.
Google appréciera beaucoup lorsque vous ferez l’entretien de vos anciens contenus, au lieu de les utiliser uniquement pour y caser des liens.
En relisant entièrement vos anciens articles et en effectuant de vraies corrections profondes, vous pouvez même vous permettre de mettre à jour la date de publication, sans crainte d’une pénalité, pour faire remonter vos anciens contenus en haut des résultats Google. Par exemple, modifier le “Top des meilleurs thèmes WordPress de 2021” en “Meilleurs Thèmes WordPress de 2022”.
Mais ce n’est pas tout.
Quand vous intégrez vos liens internes, essayez toujours d’ajouter un nouveau bloc de contenu…
Eh oui ! Pendant votre travail de relecture, n’hésitez pas à ajouter un nouvel intertitre (H2, H3…) sous lequel vous ajouterez un ou plusieurs nouveaux paragraphes incluant quelques informations complémentaires en lien avec le nouveau contenu lié.
Par exemple, sur notre page dédiée à l’Optimisation WordPress, nous ne nous sommes pas contenté d’intégrer un lien texte. Nous avons été jusqu’à ajouter quelques lignes de texte pour présenter notre dernière page de vente sur les Solutions d’Hébergement WordPress EasyHoster.
Il est souvent beaucoup plus simple d’ajouter quelques paragraphes bien optimisés, avec un joli sous-titre, plutôt que d’essayer à tout prix de caser un lien au cœur d’un texte déjà rédigé au préalable, sans en modifier une seule ligne.
En bref, cultivez et entretenez l’ensemble de votre site (comme un joli jardin🌷). Veillez particulièrement aux liens entre vos pages. Cherchez à naturellement diriger un maximum de lecteurs, vers vos meilleurs contenus, c’est-à-dire, ceux que Google devrait positionner tout en haut 😉
Pensez aux vrais utilisateurs, mais n’oubliez pas non plus de penser un peu à Google.
Votre fichier robots.txt est-il accessible, optimisé et fine-tuné ? C'est indispensable…
Le fine-tuning du fichier robots.txt est effectivement l’un des piliers de ce guide de l’indexation Google.
Le fichier robots.txt est la première ressource qui sera lue par Google avant d’explorer et éventuellement référencer votre site !
Dans le contexte actuel où les problèmes d’indexation Google sont légion, vous ne pouvez plus négliger ce fichier.
Nous allons donc voir pourquoi et comment prendre soin de vos fichiers robots.txt…
Depuis toujours, un fichier robots.txt inaccessible ou contenant des erreurs peut avoir des conséquences dramatiques sur votre référencement naturel.
Pour s’assurer que Google peut bien accéder et lire le contenu de votre fichier, il est impératif de le vérifier via l’outil de test de robots.txt de Google.
Voici comment cela se présente :

Optimiser son fichier robots.txt est une étape indispensable pour réduire son Crawl Budget et améliorer son indexation Google.
Sur l’image ci-dessus, en rouge, vous pouvez remarquer que nous avons jugé inutile pour notre SEO, d’explorer la Pagination de nos Actualités clients.
Alternative à l’outil de test de robots.txt de Google :
Alternativement, si pour des raisons de discrétion vous n’êtes pas inscrit sur la Search Console de Google, vous pouvez utiliser l’outil de test de robots.txt de Bing. Il est très utile également et fonctionne sur le même principe que celui de Google.
Si votre fichier robots.txt mentionne User-agent: *, il sera pris en compte de la même façon par Bing et par Google, donc les outils peuvent être interchangés sans problème.
La solution à tous les problèmes d’indexation Google liés au « Crawl Budget » tient presque en un seul caractère : *
C’est grâce à l’astérisque « * » que vous pourrez signaler massivement à Google tous les contenus qu’il est inutile de Crawler.
En consultant votre fichier robots.txt de façon frontale, le Googlebot saura tout de suite quels contenus il peut ignorer, tout simplement.
Grâce au robots.txt, vous allez faire économiser une quantité de ressources considérables à Google !
En effet, dans la plupart des cas, si vous interdisez le crawl d’une page via le robots.txt, Google n’ira pas plus loin et économisera le budget de crawl associé à votre site. Un budget qui sera très utile pour explorer vos autres contenus les plus précieux.
Voici des exemples de contenus de faible qualité présents dans WordPress que vous pourriez supprimer du crawl de Google :
Par définition, le fichier robots.txt de EasyHoster.com ne peut être rendu secret, donc pourquoi ne pas y jeter un oeil en commençant par cet extrait…
Disallow: /*/attachment/
Les « attachments », ce sont toutes les pages WordPress relatives aux fichiers média que vous avez uploadés dans votre bibliothèque WordPress en vue de les intégrer dans des articles de blog par exemple. Normal.
Par contre, vous n’avez pas besoin que des dizaines de pages individuelles (associées à chaque image) soient explorées et référencées dans Google, puisque tous ces médias sont censés être déjà intégrés dans vos articles.
Ce comportement par défaut fait de WordPress une petite usine à gaz pour votre SEO, mais rassurez-vous, les meilleurs plugins de référencement (tels que Yoast SEO) se chargent de rediriger proprement les pages d’attachments vers l’URL du fichier média directement.
Disallow: /*/feed/ Disallow: /*/trackback/ Disallow: /*/comments/ Disallow: /comments/feed/
Que voyons-nous ci-dessus ?
Potentiellement, des dizaines de pages qu’il est strictement inutile de Crawler. Pourtant, si vous ne les bloquez pas, Google s’en donne à cœur joie ! Il s’agit par exemple de flux RSS individuels permettant de syndiquer ou de s’abonner aux commentaires d’un article spécifique (what?). Notre blog n’est même pas ouvert aux commentaires. Allez hop ! Ça dégage !
Pendant que Google est occupé à explorer inutilement toutes ces URLs, il peut potentiellement passer à côté d’un bel article comme celui que vous êtes en train de lire. Ça serait dommage. C’est donc à notre tour de faire un geste pour l’environnement (voir 1ère question de la FAQ, ci-dessus) en signalant gentiment à Google qu’il peut ignorer ces URLs.
Disallow: /author/
Nous n’utilisons actuellement pas les pages Auteurs de notre site WordPress… ça dégage.
Disallow: /*/?seq_no=
Ces trois dernières directives concernent uniquement EasyHoster.com. Il s’agit de paramètres présents dans nos URLs. Pour plus d’informations à ce sujet, consultez la question suivante « Comment économiser son Budget Crawl ? ».
Vous l’avez compris, fine-tuner son fichier robots.txt est totalement indispensable pour résoudre ses problèmes d’indexation Google. Nous considérons que cette action a eu un impact extrêmement positif pour le référencement de notre site.
L’opérateur astérisque « * » est sous-estimé et sous-documenté, pourtant, pour accomplir cette tâche, c’est bel et bien votre meilleur allié.
Sans ces optimisations, Google va dépenser inutilement une grande partie de votre budget à explorer des bêtises.

Image rare d’une belle économie de Budget de Crawl réalisée grâce au fichier robots.txt.
Voyons donc plus loin comment économiser notre Budget de Crawl…
Comment économiser son “Crawl Budget” pour faire rapidement explorer ses meilleurs contenus ?
1. Identifier et bloquer toutes les URLs explorées inutilement par Google
Pour cela, la première étape est d’identifier les URLs qui sont effectivement explorées par Google. La méthode la plus simple pour en avoir un aperçu est d’aller chercher cette information dans votre Google Search Console > Paramètres > Ouvrir le rapport des statistiques sur l’exploration.
Ensuite, analysez scrupuleusement, par exemple, tous les rapports Par réponse.

Les rapports de demandes d’exploration offrent un aperçu des pages explorées par Googlebot.
En scrutant individuellement chaque URL de ce rapport, vous pourrez identifier vos URLs crawlées inutilement et donc, interdire leur exploration, comme nous l’avons fait dans la question précédente sur le fine-tuning de robots.txt.
Si vous y trouvez des pages pauvres en contenu, de faible qualité ou obsolètes, n’hésitez pas à compléter leur contenu, supprimer les pages ou les passer en “noindex”.
Nous en parlions déjà dans notre premier guide de l’indexation.
Bien entretenir les contenus de votre site représentera un gage de qualité pour Google, puisqu’en toute logique, le moteur souhaite éviter de diriger ses utilisateurs vers des contenus pauvres ou obsolètes.
Ces optimisations seront probablement celles qui vous apporteront le plus de bénéfices sur l’économie de votre budget de crawl.
D’ailleurs, pour forcer un peu le destin pour chaque contenu exclu ou supprimé, n’hésitez pas également à Envoyer une demande de suppression d’URL (ou préfixe d’URL) à Google.

Par acquit de conscience, lorsque nous choisissons de bloquer une URL à Googlebot, nous demandons sa suppression depuis notre Google Search Console.
En complément du robots.txt et du rapport de Couverture, cet outil de suppression d’URL est votre allié pour rapidement faire le ménage de vos URLs à explorer par Google.
2. Éviter les redirections 301
Encore une fois, nous allons prendre en exemple une erreur que nous avons corrigée sur notre site. Cette correction a sans doute participé à résoudre nos problèmes d’indexation.
Tout d’abord, il faut savoir que EasyHoster.com n’est pas un site très classique.
Certes, un peu comme tous les sites, nous publions des pages de vente et des articles de blog. Mais puisque nous sommes un hébergeur Web, nous disposons aussi d’un espace client sécurisé (dossier /secure/), d’un Centre d’aide (FAQ), de News pour les clients, mais aussi, beaucoup de redirections d’anciennes URLs effectuées suite à plusieurs migrations de notre CRM en ligne…
Ce dernier point engendrait, pour notre site, une longue liste d’URLs Crawlables avec redirections. Cette liste pouvait être retrouvée dans notre Search Console, cependant, nous n’y prêtions pas trop attention par le passé (avant 2021), car cela ne posait aucun problème à notre indexation et notre référencement Google. Jusqu’au jour où nous avons compris que Google souhaitait devenir économe sur ses ressources de Crawl !
Bien sûr, toutes nos redirections permanentes étaient réalisées en bonne et due forme. Cependant, à cause de nos précédents balbusillements, nos URLs crawlables avec redirection 301 représentaient environ 50% de nos pages explorables, mais non indexables. Vous savez, celles qui sont généreusement signalées par Google dans sa console sous les termes “Page avec redirection”…

Analyser votre rapport de couverture peut vous aider à identifier de nombreuses URLs qui sont explorées et qui devraient être bloquées ou corrigées, afin d’économiser votre Crawl Budget.
Par exemple, voici ci-dessous, une capture qui montre qu’à partir de fin juillet, puis début septembre (parties gauche et centrale), les tentatives de crawl ont sensiblement augmentées et malheureusement, cela n’était pas dû à l’ajout de contenus sur notre Blog ou notre Centre d’aide.

La zone entourée à droite, quant à elle, représente le moment où nous avons commencé à diminuer notre consommation de Crawl Budget, suite à un travail sur de nombreux types d’URLs, par exemple : via notre robots.txt, en évitant les redirections inutiles, etc.
L’augmentation des demandes d’exploration (à gauche et au centre) correspond à la date où nous avons effectué une mise à jour technique de notre site. Nous avons été contraints de déplacer et rediriger le dossier complet où est hébergé notre CRM de gestion des comptes clients. Cette opération avait ajouté un grand nombre de redirections dans nos rapports de Couverture. Cependant, à l’époque, cela ne nous avait pas semblé critique puisque les redirections mises en place étaient “propres” (permanentes, donc, 301).
D’après notre expérience, changer certaines pages de répertoire n’avaient jamais créé de problèmes d’indexation ou de référencement sur Google, puisque les redirections 301 ont tendance à bien faire leur job.
Après vérification dans notre Google Search Console, nous avons remarqué que même après plusieurs mois, Google cherchait toujours à crawler les anciennes URLs, et ce, malgré des redirections 301 parfaitement réalisées.
Pendant des mois, Google conserve un historique des anciennes URLs et tente de les visiter longtemps avant de les oublier définitivement, ce qui joue sur la consommation du Crawl Budget du site.
Lorsque vous avez conscience du concept de Crawl Budget, vous comprenez qu’il faut éviter autant que possible que Google se fatigue sur votre site, avec d’anciennes URLs qui n’ont plus lieu d’être explorées.
Le bon réflexe serait donc, d’abord, d’effectuer des Redirections 301 internes, ainsi qu’une Update du maillage interne. Ensuite, après quelques semaines, lorsque le linkjuice interne a été transmis aux nouvelles URLs, indiquer à Google que vous ne souhaitez plus qu’il s’exténue à revisiter encore et encore ces anciennes URLs qui n’existent plus.
Bien sûr, s’il s’agit d’un article qui reçoit des liens externes, la situation est différente et nous vous conseillons de conserver la redirection pour éviter que des lecteurs soient confrontés à une Erreur 404 (Page introuvable), ainsi qu’éviter une perte de linkjuice.
Par contre, pour tous vos liens internes, le meilleur réflexe serait de corriger tous les liens pointant vers les URLs qui font des redirections, et ce, à chaque fois que cela est possible. Pour cela, vérifiez les corps de vos contenus, mais également votre En-tête, votre Pied de page et les widgets de votre Sidebar.
Si votre site Web fait un lien vers une redirection 301 en “toutes pages”, c’est quotidiennement que vous gaspillez du budget de crawl.
Moralité : les redirections 301, c’est bien, mais les liens doivent être corrigés à chaque fois que c’est possible.
Donc, si vous pouvez faire un lien direct au lieu d’une redirection, faites-le impérativement.
On pense à tort que la redirection 301 est une bonne pratique et qu’on peut changer d’URLs à volonté, en enchaînant parfois plusieurs 301 les unes derrière les autres. Malheureusement, c’est faux. Les redirections, d’une manière générale et donc la redirection 301, NE sont PAS une bonne pratique pour récupérer du linkjuice ici et là. Cela ne doit être utilisé que lorsqu’on n’a pas d’autre choix. C’est-à-dire, par exemple, lorsqu’on n’a pas la possibilité de corriger ses liens externes.
La preuve, c’est que si vous enchaînez de trop nombreuses redirections, les unes après les autres, l’URL explorée peut être signalée comme “Introuvable (404)” dans vos Rapports de couverture, via la Google Search Console.
Le Googlebot ne suivra qu’un nombre limité de redirections avant d’abandonner l’URL.
Chez EasyHoster, en optimisant toutes nos 301, nous avons pu faire plus de 50% d’économies sur notre budget de crawl ! Ce qui laisse à Google plus de budget et de ressources pour explorer, indexer et mettre à jour les pages qui comptent vraiment pour notre site Web, en plus de répartir notre linkjuice plus judicieusement.
Cela nous permet également d’éviter de nombreux signaux négatifs qui auraient été envoyés à Google à cause d’URLs pouvant être considérées comme de faible qualité.
3. Empêcher l’exploration d’URLs avec des paramètres inutiles
Outre les URLs de pages ayant été déplacées, il est utile d’analyser tous les types d’URL dont l’exploration peut être évitée.
Par exemple, dans la section « Autre page avec balise canonique correcte » du rapport de Couverture, certaines URLs peuvent contenir des paramètres d’URL qui peuvent être bloqués via le fichier robots.txt, comme nous l’avons vu dans la question précédente sur le robots.txt.

Pour des raisons techniques, notre système de FAQ intègre des paramètres dans certains liens et URLs (voir seq_no ci-dessus sur la capture). Ceux-ci ne doivent pas être explorés. Ils peuvent donc être bloqués au cœur de notre fichier robots.txt, afin d’économiser notre budget de crawl.
Bloquer massivement toutes ces URLs n’ayant rien à faire sur Google aura, sur le moyen terme, un effet très bénéfique sur l’indexation de vos futurs contenus.
Mais faites attention, parfois, le blocage par robots.txt n’est pas le meilleur choix.
Pour empêcher l’indexation d’URLs contenant des paramètres inutiles, la meilleure option peut être la balise Canonical. Cette balise permettra d’indiquer au Googlebot quelle est l’URL de référence à conserver, face à une ou plusieurs URLs contenant des paramètres dont l’exploration est inutile.
Nous en avions parlé dans notre premier guide sur l’indexation. Même lorsque la réécriture d’URLs SEO Friendly est activée, certains plugins WordPress (filtres e-commerce, variantes de produits e-commerce taille/couleur/etc, plugins de FAQ / avis / commentaires, etc) peuvent utiliser des paramètres dans les URLs.
Pour Google, ces paramètres peuvent potentiellement générer des dizaines/centaines d’URLs crawlables non indexables qui vont donner beaucoup de travail à Googlebot, et donc, augmenter les délais de Crawl & Indexation des meilleures pages, en particulier pour les sites de taille moyenne comme EasyHoster.com.
Prenons cet exemple, sur notre page d’avis clients :
Comme vous pouvez le voir, notre plugin WordPress gérant l’intégration de “nos avis client” intègre dans notre URL des paramètres en fonction de la page d’avis que vous consultez.
Pour éviter que Google ne gaspille notre budget de crawl, nous pouvons choisir d’indiquer dans notre balise canonical que l’URL de référence pour toutes ces pages d’avis est easyhoster.com/avis/ et puis c’est tout.
Cependant, malgré cette balise canonical, Google peut tout à fait choisir d’explorer quand même ces URLs. D’ailleurs, il peut arriver que Google préfère malgré tout le contenu de l’une de vos pages contenant des paramètres dans l’URL et choisisse d’autoriser ou de favoriser l’indexation de cette page “avec paramètres”, alors que vous l’avez signalée comme étant secondaire via votre canonical.
Dans ce cas de figure, si vous souhaitez absolument empêcher l’indexation de cette page “avec paramètres”, la balise meta=robots noindex est votre amie.
Indiquez la manière dont Google doit traiter les paramètres de vos URLs.
Finalement, le meilleur moyen de traiter les paramètres présents dans vos URLs est sûrement d’utiliser l’ancien outil des Google Webmaster Tools.

L’outil des Google Webmaster Tools est toujours disponible actuellement, via un lien depuis la Google Search Console… mais jusqu’à quand ?
Google n’a pas (encore) choisi de réintégrer cet outil dans sa nouvelle Google Search Console. Donc, nous nous demandons comment nous devons interpréter cela. Cet outil est-il voué à disparaître ? L’algorithme de Google a-t-il choisi de gérer les paramètres à sa sauce ?
On ne sait pas…
Mais si pour une raison ou une autre, vous pensez qu’il ne serait pas judicieux de bloquer les URLs avec paramètres, dans votre fichier robots.txt, vous pouvez donner sa chance à cet ancien outil des Google Webmaster Tools. Il vous permet d’indiquer très clairement à Google, comment son bot doit interpréter les paramètres de vos URLs.

Actuellement, cet outil peut être retrouvé depuis votre Search Console, section Anciens outils et rapports > Paramètres d’URL.
4. Mettre en nofollow les liens d’affiliation
Vous avez maintenant compris qu’il était nécessaire de ne pas surcharger Google avec des contenus et/ou des liens qu’il n’est pas pertinent pour lui d’explorer.
N’oubliez donc pas que tous les liens d’affiliation doivent être passés en nofollow, au risque d’être considérés comme des liens sponsorisés (achetés), ce qui pourrait engendrer une pénalité plus profonde pour votre site.
Google se permettra souvent de suivre les liens nofollow, malgré vos précautions, mais au moins de votre côté, vous aurez bien fait votre travail et personne ne pourra vous faire de reproche.
Conclusion sur les économies de budget de crawl…
Il existe bien d’autres moyens d’économiser votre Crawl Budget, comme le fait de surveiller et de corriger vos liens cassés avec un plugin comme Broken Link Checker, ou bien d’autres choses… Mais la meilleure chose à faire en priorité reste d’être très attentif aux URLs signalées généreusement par Google dans ses différents Rapports de Couverture.
Comme vous devez vous en douter, si ces informations sont partagées par Google dans sa console, c’est qu’il y a une bonne raison pour cela. Passez donc un maximum de temps dans toutes les sections de votre Google Search Console et votre indexation vous dira merci.
À quelle fréquence publier pour bénéficier de l'indexation rapide ?
Si votre ligne éditoriale le permet, il est clair que vous discipliner à publier une nouvelle page ou un nouvel article (lié au cœur de votre page d’accueil), au moins tous les 5 jours, vous permettra d’obtenir des visites de Googlebot beaucoup plus fréquentes qu’un site qui publie un seul nouveau contenu tous les mois.
Cependant, votre fréquence de publication ne doit jamais empiéter sur la qualité de vos nouveaux contenus, ni la qualité globale de votre site, ni l’entretien que vous faites de vos anciennes pages. Un site spammy qui publie un contenu “autogénéré” tous les jours pourrait réussir à tromper l’algorithme à court terme, mais finira par être progressivement déclassé, notamment à cause du manque d’engagement de la part des lecteurs.
Il existe une série de critères assez large vous permettant de bénéficier des indexations rapides. La fréquence de publication en fait partie, mais ce n’est pas le seul critère.
Un site Trusté avec du contenu très bien maintenu pourra bénéficier de l’indexation rapide, même s’il publie quelque chose uniquement tous les 2 mois. N’oubliez pas que les Sitemap, les Flux RSS et les pings existent (voir notre question à ce sujet). À l’époque de Google Caffeine, le moteur nous a prouvé qu’il était tout à fait capable de référencer tous nos contenus instantanément (avec la consommation de ressources serveur qui va avec).
Conclusion, si vous pouvez intensifier votre fréquence de publication, sans rogner sur la qualité, faites-le. Sinon, concentrez-vous un maximum sur tous les autres critères de qualité vus dans cet “Article FAQ”.
Quelle “valeur ajoutée” est requise pour qu'une page soit indexée par Google dans le contexte du Crawl Prédictif ?
Il n’hésite pas à le faire savoir en pénalisant les Webmasters qui remplissent leur site avec des textes qui se retrouvaient déjà avant, sur d’autres sites déjà indexés sur Google.
En effet, depuis plus de 10 ans, face à une trop grande quantité de contenu dupliqué, la sanction de Google pouvait se traduire par une chute de trafic de l’ordre de 90% ! Tout cela, du jour au lendemain, comme le montre ce graphique…

Source : Reddit
Tout cela est bien normal. Quel est l’intérêt, pour Google, de mettre en avant plusieurs fois un contenu identique ? Alors qu’aujourd’hui, le moteur de recherche fait tout pour proposer une large variété de résultats sur la première page de résultats (des contenus courts/des définitions courtes, des contenus longs/des articles de fond/des articles encyclopédiques, etc).
Globalement, si vous éprouvez des problèmes d’indexation, une bonne question à laquelle réfléchir serait :
Est-ce que les URLs soumises à Google via mon Sitemap (ou simplement en autorisant leur indexation naturelle) intègrent toutes un contenu suffisant, avec beaucoup de valeur ajoutée, justifiant leur référencement et leur présence sur Google ?
À ce titre, il est notamment important de vérifier que vous ne lancez pas un nouveau site Internet dont le contenu est majoritairement composé de textes qui se retrouvent déjà ailleurs.
Par exemple, de nombreux sites eCommerce se lancent en réalisant une importation automatique de centaines de Fiches produits dont les descriptions sont téléchargées depuis le site d’un fournisseur / grossiste. Bien sûr, ces centaines de descriptifs produits se retrouvent ainsi dupliqués sur des dizaines d’autres sites marchands, créant ainsi du Duplicate Content n’ayant aucun intérêt pour Google.
D’ailleurs, évitez aussi de publier simultanément plusieurs contenus pouvant être considérés par Google comme redondants. Par exemple, évitez d’avoir des contenus similaires dans votre section Blog et votre section Actualités. Ou veillez à bloquer l’indexation de l’un des deux contenus dupliqués ou redondants, via la balise robots=noindex, une balise canonical ou votre fichier robots.txt.
Pour améliorer vos chances d’être pleinement indexé par Google, il faut donc veiller à ne proposer à Google que des pages à haute valeur ajoutée, avec du contenu unique, original, utile à l’internaute, non redondant et tout ce qui s’en suit.
Comme le montre cette communication officielle de Google sur LinkedIn, le moteur de recherche est fier de faire le tri entre le bon grain et l’ivraie sur Internet :
D’ailleurs, aujourd’hui, rédiger des textes uniques ne suffit plus !
Un maximum de signaux positifs doit graviter autour du site Internet pour pouvoir bénéficier d’une bonne indexation naturelle.
Comment ajouter de la valeur à un contenu existant ?
Certains SEO sur Twitter suggèrent notamment d’ajouter une portion de texte de 100 à 300 mots accompagnés d’une vidéo YouTube intégrée sur les pages qui tardent à être indexées par Google.
Une autre suggestion qu’on peut voir serait de changer le Title, le Titre, l’URL, ou encore la Date de publication de son article, afin de récupérer une nouvelle chance de se voir indexer rapidement. C’est-à-dire, passer le filtre du Crawl Prédictif et être pris en compte par le Fresh Crawl Bot (voir question précédente sur la différence avec le Deep Crawl Bot).
Bien sûr, vous pouvez vous inspirer de ces techniques.
Cependant, nous n’adhérons pas toujours à ce type d’astuce SEO, tout simplement, car selon nous, cela ne s’inscrit pas souvent dans une démarche de pertinence au niveau éditorial.
Par exemple, pendant la création initiale de votre contenu, si vous n’avez pas jugé utile d’intégrer une vidéo dans votre article, ce dernier ne sera probablement pas plus utile aux internautes si, finalement, vous décidez d’intégrer une vidéo YouTube au milieu de celui-ci.
De même, si vous avez passé 5 minutes à élaborer le titre initial de votre article, pour qu’il soit le plus pertinent possible, ne changez rien. Vous n’allez quand même pas détériorer votre titre pour forcer l’indexation Google ?
Si vous avez finement défini une bonne URL / un permalien pertinent, explicite et concis pour votre article, n’abandonnez pas votre première idée pour tenter de passer le filtre du Crawl Prédictif.
Pour finir, si vous avez déjà tout dit dans votre article sur le sujet que vous souhaitiez aborder, rajouter 200 mots de remplissage au forcing n’améliorera pas la pertinence de votre contenu aux yeux des utilisateurs et des robots, à moins de relire votre contenu en profondeur pour le faire monter d’un niveau en termes de qualité.
Il y a d’autres choses à faire pour améliorer la qualité de votre site et de vos contenus.
Nous prônons ici de jouer sur tous les leviers logiques, de bons sens, qui permettent d’agir sur le long terme sur la qualité de votre site, et donc, sur la santé de votre indexation Google, dans le contexte du Crawl Prédictif.
Par exemple, il pourrait être plus pertinent de revoir le maillage interne entre vos différents contenus (voir ci-dessus, les questions précédentes sur le Maillage Interne).
Autre exemple, vous pourriez concevoir de nouveaux contenus originaux gravitant autour de votre thématique, pour pousser vos précédents contenus non-indexés.
Enfin, dernier exemple, si votre problème d’indexation porte sur un Article de blog, vous pourriez pousser vos lecteurs à ajouter plusieurs commentaires utiles, faisant 100 ou 200 mots, sous votre article, afin de tenter de débloquer l’indexation de celui-ci 😉 Google adore les commentaires sous les articles.
Dans quels cas particuliers (quels contenus, quels sites…) le délai d'indexation peut-il être plus long et comment éviter ce délai ?
1. Les contenus redondants
De nos jours, il est très important de veiller à la singularité de chaque contenu posté sur un site Internet. Google doit distinguer très clairement la différence entre une page A et une page B.
Si Google découvre sur votre site plusieurs pages qui semblent aborder exactement le même sujet, de la même façon… il n’indexera qu’une seule d’entre elles, même si le contenu de chacune d’elle est “unique”.
En SEO, il s’agit en quelque sorte de la Cannibalisation 2.0.
Google souhaitant faire des économies de ressources (voir Question 1 sur le Carbone). Donc, il ne se fatigue même plus à indexer toutes les pages qui pourraient se cannibaliser entre elles.
Le meilleur moyen d’éviter de tomber sous ce filtre est de varier fortement vos Titres, vos URLs et surtout, répondre à une intention bien précise, bien distincte, pour chacun de vos contenus.
N’hésitez pas à fusionner vos contenus redondants et effectuer des redirections 301, le cas échéant.
2. Les pages et articles commerciaux
Google semble prendre plus de temps pour l’indexation des Pages de vente (commerciales) que l’indexation des Articles d’utilité publique, comme les Tutoriels ; ou les Fresh News qui sont souvent des Articles courts, d’Actualité, dans la Tendance, avec une Courte espérance de vie, donc plus Urgents à indexer.
Ce phénomène pourrait être comparé aux e-mails commerciaux (newsletters) qui atterrissent presque systématiquement dans l’onglet “Promotions” de votre compte Gmail, contrairement aux e-mails du quotidien qui atterrissent, quant à eux, dans votre boîte “Principale”.
En effet, les sujets considérés comme Trendy (dans l’actualité) seront quasiment tout de suite indexés, pour peu que votre site soit un peu Trusté. À l’inverse, un contenu reconnu comme purement commercial, comme une page de vente destinée à se positionner pour générer des ventes ; elle, pourrait mettre plus de temps à être indexée (environ 2 à 6 semaines).
Les Pages de vente devront aussi faire leurs preuves pour se Classer sur Google !
D’après nos observations, cette “Sandbox Commerciale” est également d’application pour le Ranking. Donc, pas uniquement pour L’Indexation.
Les sujets Trendy “non commerciaux” pourraient rapidement obtenir leur position réelle dans les SERPs, alors que Les pages de vente devront travailler leur Trust pendant plusieurs semaines avant de pointer le bout de leur nez sur la Page 1 de Google.
Est-ce qu’il s’agit d’un ralentissement du processus de positionnement destiné à faire des économies de ressources serveur, ou est-ce que Google devient de plus en plus exigeant lorsqu’il s’agit d’envoyer du trafic prêt à sortir sa CB ?
L’avenir nous le dira…
Ne montrez pas tout de suite vos intentions à Google
Pour éviter d’être détecté en tant que « contenu commercial », vous pourriez publier votre article sans liens externes (affiliation), ni liens internes commerciaux (call-to-action).
Ensuite, patientez et surveillez votre indexation pendant 48 heures pour voir si vous bénéficiez d’une indexation rapide.
Enfin, après indexation seulement, vous pourriez envisager d’intégrer vos liens d’affiliation, vos call-to-action commerciaux et votre maillage interne “marketing”.
3. Les pages avec beaucoup de contenus
Voici des types de pages qui prendraient plus de temps à être indexées ou mises à jour dans l’index de Google, en cas de modification de contenu.
- les pages longues (2.500 mots ou plus)
- les pages contenant beaucoup d’images à explorer et indexer
- les pages ayant potentiellement un meilleur potentiel (donc pouvant mieux se positionner sur Google, pour des expressions concurrentielles)
…comme si Google avait besoin de plus de temps pour réfléchir.
Effectivement, on peut imaginer que votre page étant longue et composée de nombreuses zones délimitées par des intertitres, elle doit passer par de très nombreux filtres avant que Google puisse déterminer où il est le plus opportun de la positionner ?
On pourrait penser que tous ces contrôles visent à décourager le spam de la part des Webmasters. Mais ces nouveaux délais sont plus probablement liés à l’objectif Zéro Carbone de Google (voir question 1).
“Long contenu complexe” rime avec “Beaucoup de ressources serveur” à consommer…
Imaginez la quantité de ressources considérable que Google peut économiser en rafraîchissant l’index de votre site, seulement 1 fois au lieu de 10, en particulier pour vos contenus les plus complexes.
4. Les articles de 5.000 mots ou plus
Il existe une autre théorie selon laquelle les articles ou dossiers de +5.000 mots seraient plus fréquemment sujets à des délais d’indexation tardifs.
Ça dépend…
La théorie ne nous semble pas mauvaise au premier abord, car les contenus d’une telle taille sont plutôt des articles de fond qui ont pour vocation d’être présentés pendant longtemps aux internautes. Autrement dit, il ne s’agit pas de Fresh News ou d’articles qui répondent à une actualité vouée à être rapidement périmée.
Observez les sites référencés sur Google News, leurs articles font rarement plus de 1.500 mots.
En revanche, puisque les contenus très longs et détaillés vont creuser leur sujet en profondeur, ceux-ci auraient tendance à bien se positionner sur le moteur de recherche, sur le long terme et pour de nombreuses requêtes (longue traîne). On peut donc comprendre que Google se laisse le temps d’évaluer tous les facteurs On Page & Off Page (donc, internes et externes au contenu), avant de décider où il va positionner ces articles de fond.
En complément, dans le cadre du Predictive Crawling et de l’économie de ressources du Googlebot, rappelons qu’un long article, c’est probablement un article qui contient beaucoup d’images. Beaucoup d’images, cela implique beaucoup de nouvelles URLs à Crawler, puisque Google explore les pages (HTML), mais aussi les images, les fichiers CSS, Javascripts, etc.
Si l’intention de Google est vraiment de ne pas trop fatiguer le bot avec des sites de petites et moyennes envergures, on peut imaginer qu’un site qui lie beaucoup de ressources internes pourrait être mis temporairement de côté.
Encore une fois, “ça dépend” et il s’agit de nos propres observations…
À vous de voir si cela correspond à l’expérience que vous avez avec votre site Internet.
Bien sûr, nous ne vous conseillons pas de vous forcer à multipler les articles plus courts pour être indexé plus vite, si ce n’était pas votre intention de départ. En effet, même si un article très long prend plus de temps à être indexé, il aura ensuite plus de chance de bien se positionner sur le long terme et générera mécaniquement plus de trafic de longue traîne (sur de multiples expressions longues).
Comme vous pouvez le voir ici, chez EasyHoster, on aime les longs articles 😉
5. Les EMD (Exact Match Domain)
Ces derniers mois, nous avons lancé plusieurs dizaines de sites Web et ceux qui ont le plus de difficultés à être indexés (même leur page d’accueil) sont les noms de domaine EMD.
EMD signifie Exact Match Domain, ou Nom de domaine Exact.
Par exemple, www.easyhoster.com n’est pas un EMD. Par contre, le domaine www.hebergement-wordpress-et-cpanel.com serait un bon gros EMD bien suroptimisé.
Depuis environ 10 ans (septembre 2012), Google a annoncé qu’il allait pondérer le poids des mots clés dans les noms de domaine, rendant ainsi inutile l’ajout d’expressions exactes, dans les domaines, pour le SEO.
Dans les faits, les EMD s’en sortaient toujours plutôt bien depuis toutes ces années.
Aujourd’hui, la nouvelle Sandbox liée au Predictive Crawling pour les nouveaux sites Web ne semble pas arranger les choses pour les EMD, qui semblent avoir encore plus de difficultés à obtenir l’indexation de l’ensemble de leurs pages, après la publication du site.
Pour savoir comment faire indexer un tout nouveau nom de domaine EMD, référez-vous au point suivant et à la question spécialement dédiée aux nouveaux sites Web, dans cet “Article FAQ”.
6. Les nouveaux sites Web n’ayant pas encore été rodés
En effet, les très jeunes sites Web doivent gagner la confiance de Google en prenant de la bouteille (de l’âge) et/ou en cumulant des signaux positifs…
- des signaux internes au site :
création régulière de contenus de qualité à un rythme naturel, autour d’un même sujet, avec un bon maillage interne ; activité sur le site Web (faible taux de rebond, bonne rétention des visites…), etc. - des signaux externes au site :
liens d’autorité externes ; présence sur les réseaux sociaux ; trafic naturel issu par exemple d’une newsletter ou du bouche-à-oreille, etc.
Tout cela était déjà nécessaire avant, pour ranker sur Google, mais cela est aussi requis, à présent, ne fût-ce que pour être indexé sur le moteur de recherche.
Dans une prochaine question, nous aborderons L’Indexation complète d’un nouveau site Web, ainsi que Le filtre des 4 pages.
Qu'est-ce que les “Critères de confiance” ou “EAT factors” et comment s'y conformer ?
Autrement dit, il s’agit des Critères de confiance de votre site Web, aux yeux de Google.
« EAT », ce sont trois facteurs que Google utilise officiellement depuis 2019 pour définir l’importance qu’il doit accorder à votre site Web et vos contenus, pour un sujet donné.
Rappelons que l’objectif principal de Google est d’offrir à ses utilisateurs la meilleure expérience possible et donc, de bons résultats lors de leurs recherches.
Son objectif est donc de mettre en avant des sites Web auxquels les internautes peuvent faire confiance : pas de Fake News ; pas de sites infectés par des virus ; pas de fraude à la carte bancaire… mais aussi, pas de sites Web qui racontent tout et n’importe quoi (sans expertise du sujet) ; ou publient du spam afin de monétiser du trafic non mérité via des sites “poubelles”.
Comme nous en parlions dans notre article sur le référencement Google Discover, pour améliorer le Trust de votre site Web, il est essentiel de travailler sur plusieurs critères démontrant à Google qu’il s’agit d’un vrai site faisant autorité et non d’un site de spam.
Parmi ces critères, citons par exemple le fait de…
- disposer de Mentions légales complètes (nom complet et coordonnées postales de l’éditeur, adresse e-mail et informations de contact du responsable, de l’hébergeur, etc)
- disposer d’une page « À propos » permettant aux internautes d’identifier votre entreprise, son histoire et ses dirigeants
- mettre en avant la date de publication de vos articles de blog, les sources sur lesquelles ils sont basés, ainsi que le nom complet de leur auteur (pour ne pas tromper le lecteur et lui permettre de savoir où il met les pieds)
C’est le moins que l’on puisse attendre d’un vrai site, non ?
Si l’on reprend notre acronyme, EAT, nous pourrions aussi évoquer ceci…
- E, pour Expertise :
publier de nombreux articles gravitant autour d’une même Thématique. Les sites de Spam pouvant publier tantôt, des conseils sur le Marketing, et tantôt, un guide pour se procurer des Prothèses auditives (aucun rapport entre les deux). - A, pour Autorité :
dans le référencement Google, on parle souvent de Netlinking, mais quelques liens issus de sources officielles valent probablement beaucoup plus que des dizaines de liens “link farm” achetés à 15€ sur une plateforme. Veillez à obtenir des liens faisant autorité, issus de vrais sites légitimes, par exemple, grâce au Guest blogging ou à l’échange de bons procédés. - T, pour Trust ou Confiance :
la confiance, ça se gagne et Google ne fait pas exception. Le positionnement d’une page se base sur des centaines de critères et Google conserve un long historique de tous les mouvements du profil de votre site Web. Le meilleur moyen de tromper Google, c’est peut-être de ne pas chercher à le tromper. Par exemple, attachez beaucoup d’importance à la satisfaction client et tentez de collecter un maximum d’avis positifs sur vos profils officiels (Facebook, Google Maps, etc). Si vous voulez durer dans le temps, évitez aussi toutes les pratiques illicites et persévérez dans une démarche de qualité orientée utilisateur.
Êtes-vous bien certain d’avoir fait tout ce qu’il fallait pour que Google vous fasse confiance ?
Si vous avez un doute sur cela, allez travailler sur vos EAT factors avant de vous inquiéter de la vitesse d’indexation de vos pages 😉
Comment détecter les problèmes d'indexation Google grâce aux Bing Webmaster Tools ?
Les Outils pour Webmaster de Bing ont beaucoup évolué ces dernières années et sont à présent tout aussi complets que ceux de la Google Search Console, et même plus.
Nous vous encourageons à ne pas sous-estimer ces outils.
Ils pourraient vraiment vous aider à découvrir certains facteurs bloquants l’indexation de votre site, comme des URLs crawlables de façon non désirée, des URLs contenant des paramètres, etc.
Lorsque vous publiez une page très importante sur votre site, nous vous suggérons de l’inspecter systématiquement avec la Google Search Console, bien sûr, mais également avec les Bing Webmaster Tools.
Pour cela, rendez-vous sur bing.com/webmasters > Inspection d’URL. Ensuite, renseignez l’adresse de la page concernée. Cliquez enfin sur l’onglet “URL active” pour consulter les informations de votre URL (voir cadre rouge sur la capture ci-dessous).
Vous aurez noté la présence du bouton Demander l’indexation, précédés du label Page mise à jour ?
C’est l’équivalent du bouton présent sur la Google Search Console, sauf que dans le cas du Bing Webmaster Tools, l’indexation des pages est toujours instantanée après le clic du bouton.
Si Bing peut offrir une indexation aussi rapide, cela prouve que Google pourrait le faire sans problème, s’il le souhaitait toujours.
Dans tous les cas, puisque le Bing Webmaster Tools nous intéresse pour éventuellement dénicher un facteur qui pourrait aussi bloquer le Googlebot, une bonne pratique serait donc de vérifier que vos contenus peuvent rapidement être indexés et positionnés sur Bing.
Dans le cadre vert (capture ci-dessus), vous pourrez vérifier le code source complet récupéré par le robot d’inspection de Bing, ainsi que différentes informations comme le code de réponse HTTP renvoyé par la page (Page trouvée 200, Redirection 301, etc).
Par exemple, comme vous pouvez le constater ci-dessus, dans le cadre bleu, le diagnostic réalisé grâce aux Bing Webmaster Tools fait remonter des problèmes et des suggestions que l’on ne trouve pas dans la Google Search Console. Dans le cas de cette page analysée, Bing nous alerte sur le fait que 104 images n’ont pas d’attribut ALT. Effectivement, cette tâche était planifiée par la rédaction EasyHoster mais nous n’avions pas encore eu le temps d’écrire les nombreux textes alternatifs de cette centaine de vignettes.
Ensuite, un peu plus bas, toujours dans le cadre bleu, Bing nous avertit qu’il s’agit d’une page dont le contenu est trop long à son goût. Cet avertissement “non critique” se présente souvent avec les thèmes WordPress et les Page Builders qui génèrent beaucoup de balises HTML. La taille du code HTML recommandée est de 125 Ko maximum, ce qui est très faible et assez difficile à atteindre avec un thème WordPress un peu bling-bling. Rassurez-vous, dans les faits, de longues pages de +500 Ko sont très bien indexées et mises dans le cache de Bing (pareil pour Google).
Enfin, dans le cadre rose (toujours sur illustration ci-dessus), vous avez la possibilité de voir comment le Bing bot voit les balises de contenus enrichis au format Json-LD, OpenGraph et/ou Microdata. C’est un peu l’équivalent du Rich Results Test de Google.
Sur la capture suivante, nous constatons notamment que les Microdata des thèmes WordPress peuvent correctement être lus par Bing, depuis notre article EasyHoster sur les meilleurs thèmes WordPress.
Parmi les autres fonctionnalités intéressantes du Bing Webmaster Tools, on peut noter celles-ci :
- l’outil de rapport sur vos Backlinks vous permet d’avoir des statistiques sur le nombre de Pages référentes, Domaines référents, des informations sur le profil des backlinks détectés par Bing pour votre site, etc.
- l’outil de Recherche par mots-clés vous permet d’en savoir plus sur les Tendances de recherche, les volumes de chaque recherche, les profils des internautes ayant fait ces recherches, etc.
- l’outil de soumission de Sitemaps permet de vérifier la validité d’un plan XML, ainsi que le nombre d’URLs soumises ; idéal si, par souci de discrétion, vous ne souhaitez pas effectuer cette vérification depuis la console de Google.
- l’outil de Rapports SEO permet de découvrir toutes les pages où des balises meta=description sont manquantes, ainsi que des attributs « alt » pour les images et d’autres avertissements plus ou moins critiques.
- l’outil de Scan de site Web permet de demander au Bing bot d’explorer entièrement votre site, en quelques minutes, et vous livre très rapidement un rapport complet de toutes les adresses URLs que les robots de Bing ont découvertes, avec une série d’avertissements et de recommandations, le cas échéant.
Cette dernière fonctionnalité est extrêmement utile pour comprendre comment un robot de moteur de recherche explore votre site et découvre toutes vos pages.

Le Site Scan des Bing Webmaster Tools offre un excellent complément aux rapports de Couverture de la Google Search Console, pour découvrir de nombreuses URLs qui devraient par exemple être bloquées via le robots.txt.
Enfin, comme vous pouvez le voir ci-dessous, l’outil de test de robots.txt permet, comme celui des Google Webmaster Tools, de vérifier si une URL est bien bloquée, ou pas, grâce au fichier robots.txt (ne manquez pas ci-dessus, les questions sur l’Optimisation de robots.txt et l’économie de Crawl Budget, afin de résoudre vos problèmes d’indexation Google).

Comme le montre cette capture, nous avons décidé d’interdire l’exploration des paginations (page 2, page 3, etc), pour la section d’Actualités clients EasyHoster.
Moralité, les Outils pour Webmaster de Bing sont accessibles gratuitement et peuvent vous permettre de diagnostiquer, en quelques minutes, certaines optimisations manquantes pour votre indexation Google.
Ces outils pour Webmaster offerts par Bing vous seront particulièrement utiles pour vérifier la situation d’un site qui, par souci de discrétion, ne pourrait pas être enregistré dans la Google Search Console.
Le Predictive Crawling signe-t-il la fin du référencement Black Hat ?
Par contre, effectivement, pour Les Faux sites de Spam, les opportunités semblent de moins en moins nombreuses sur Google. Par exemple, les nouveaux sites indexés (Non Trustés) semblent même avoir des difficultés pour apparaître dans les Résultats récents, c’est-à-dire, par exemple, lorsqu’on applique un filtre à une recherche Google : Résultats Moins d’une semaine, Moins d’un mois ou Dates précises.

Depuis les résultats récents de Google, les “Blogs poubelle” (Splogs) pouvaient encore tirer du trafic qui, grâce au cloacking, était redirigé vers des programmes d’affiliation.
Jusqu’à il y a quelques mois, les Splogs (ou “blogs poubelle”) apparaissaient encore très bien dans Les Résultats Récents de Google. Mais aujourd’hui dans le contexte du Crawl Prédictif, Google semble appliquer un Effet Sandbox assez sévère, également pour empêcher les sites spammy d’exploiter cette opportunité de trafic qui était toujours très prisée récemment par les référenceurs Black Hat.
La rédaction assistée par IA va-t-elle mourir prématurément ?

Jasper.ai (auparavant nommé Jarvis) est un service en ligne vous offrant de créer tous vos contenus “5 fois plus rapidement”, grâce à la puissance de l’Intelligence Artificielle, et ce, avec un copywriting d’un niveau comparable à celui d’un humain. En tout cas, c’est ce qui est promis.
C’est amusant…
Google réalise le plus gros resserrage de boulons de toute l’histoire de son algorithme, et cela coïncide au moment exact où les applications de rédaction assistée par Intelligence Artificielle commencent à être accessibles au grand public.
Coïncidence ? 🙂
Il est clair que Google ne peut pas laisser son moteur être inondé de contenus autogénérés par Intelligence Artificielle.
Cependant, rien ne vous empêche de tester ces nouvelles technologies si vous pensez que cela peut vous faire gagner du temps. Ensuite, manuellement, vous pourriez relire et corriger rigoureusement ces contenus autogénérés pour les rendre agréables et utiles pour vos lecteurs.
De cette manière, l’IA pourrait améliorer votre productivité, tout en étant acceptable pour les algorithmes de Google.
Comment faire indexer complètement un nouveau site et/ou sortir du filtre des 4 pages ?
Il a été reporté que, sans effectuer de travail particulier, les nouveaux sites (nouveau nom de domaine fraîchement réservé) pouvaient être totalement absents de l’index de Google, jusqu’à plusieurs mois après leur publication.
Ici, on parle souvent de sites créés à des fins de SEO, pour lesquels l’inscription n’a pas été effectuée dans la Google Search Console et où, par souci de discrétion, aucun backlink d’autorité n’a été créé depuis le réseau de l’éditeur du site.
Il y a donc de quoi avoir l’air suspect pour Google.
De nos jours, pour se faire indexer complètement, le but du jeu consiste à gagner la confiance de Google et lui montrer qu’il a tout intérêt à nous référencer.
Voici la stratégie qui nous semble efficace pour faire indexer l’intégralité d’un vrai site fraîchement créé, ainsi que sortir du filtre des 4 pages.
Qu’est-ce que le filtre des 4 pages en SEO ?
Comme son nom l’indique, Google va indexer progressivement le nouveau site, en commençant par sa page d’accueil, ainsi que quelques pages secondaires (maximum 3). Au bout de 4 pages maximum, si Google n’est pas satisfait de ce qu’il voit (autant au niveau des signaux internes On Page qu’externes Off Page), il pourra choisir d’arrêter d’indexer le site, jusqu’à nouvel ordre. C’est-à-dire, jusqu’à un nouveau passage du Deep Crawl Bot (voir question ci-dessus).
Comment faire indexer entièrement un nouveau site ?
Ci-dessous, cette check-list pourrait presque être considérée comme un résumé quasi exhaustif des bonnes pratiques à mettre en place pour résoudre tous ses problèmes d’indexation Google. Nous vous encourageons à considérer l’implémentation de tous ces conseils avant de reprendre un travail normal sur votre site.
- S’inscrire sur la Google Search Console, enregistrer un Sitemap XML et surveiller vos Rapports de Couverture.
- Continuer à publier régulièrement du contenu de haute qualité, autour d’une même thématique, à un rythme naturel.
- Travailler le maillage interne des contenus connexes, comme nous l’avons vu dans les questions précédentes (c’est vital).
- Envoyer du trafic issu d’autres canaux sur vos meilleurs contenus (réseaux sociaux, newsletter) et chercher à fidéliser ces lecteurs.
- Créer un maximum de profils sociaux de qualité (comme un vrai site, créer une page LinkedIn, Facebook, un compte Twitter… et gagner des abonnés).
- Poster tous ses liens sur les réseaux (ne pas négliger les liens nofollow, les liens mous avec redirections, et les URLs écrites en dur dans du texte, Google peut les lire).
- Partager ses meilleurs articles sur sa fiche Google My Business.
- Améliorer le niveau de confiance de son site auprès de Google (Mentions légales, Informations sur l’auteur… voir ci-dessus, le point sur les EAT Factors).
- Obtenir des liens de qualité chez des partenaires et/ou créer des liens forts depuis votre propre réseau (même temporairement, quelques semaines).
- Pour chaque nouveau contenu et chaque mise à jour, faire des pings de vos Sitemaps XML et de vos flux RSS via Google et Pingomatic.
- Continuer à publier des contenus à haute valeur ajoutée, originaux, apportant des solutions à des problèmes recherchés, tout en travaillant son maillage interne pour pousser les contenus récalcitrants.
- Être patient (très patient…), voir ci-dessus, notre question sur le Deep Crawl Bot.
Bref, vous l’avez compris, tous les signaux extérieurs sont bons à prendre pour gagner la confiance de Google, sauf les liens spammy issus de sites sans rapport avec le contenu lié.
Ceux-ci pourraient aggraver votre situation.
Préférez donc l’acquisition de quelques liens de qualité, plutôt que de céder à l’achat de liens bon marché qui pourraient griller votre nouveau site auprès de Google. Plus vous achetez de liens spammy, plus vous devrez compenser avec des liens quali.
Comprenez Google et jouez le jeu…
Google ne souhaite plus dépenser de ressources énormes pour indexer ce qu’il considère comme étant du spam et/ou ce qu’il ne considère pas comme étant des sites ou des contenus légitimes.
Après tout, c’est son moteur de recherche… il fait ce qu’il veut.
Il est possible de contourner cela temporairement grâce à diverses techniques plus ou moins légitimes ou risquées (détournement d’Indexing API, etc) ; ou bien, il est possible d’accepter la nouvelle volonté de Google en se focalisant sur la qualité, avec un nombre plus restreint de sites et de contenus, ainsi qu’un brin de patience.
En tout cas, vu les problèmes d’indexation des sites secondaires, l’avenir des larges réseaux de faible qualité semble incertain.
Demain, il sera peut-être plus rentable de soigner le référencement d’une dizaine de sites, plutôt que de gérer un réseau de plusieurs centaines de sites Internet ?
Cela tombe bien, EasyHoster est l’hébergeur idéal pour prendre soin de vos sites principaux (par exemple, une dizaine de money sites) 😀
Comment sortir du filtre des 4 pages grâce au SEO ?
Google a arrêté brusquement l’indexation de votre site, alors que c’était pourtant bien parti ? Les conseils donnés ci-dessus valent pour les nouveaux sites Web, mais également pour les domaines expirés qui peuvent aussi être victimes du filtre des 4 pages.
Continuez donc à publier, sans rogner sur la qualité, en soignant particulièrement votre maillage interne, comme nous l’avons vu précédemment.
Mettez le paquet, le plus rapidement possible, sur tous les signaux positifs à votre disposition et soyez très patient. Vous devrez attendre le passage du Deep Crawl Bot pour pouvoir espérer un nouvel examen favorable de votre situation au niveau du contrôle qualité de Google.
Les règles ont changé… 😉
Comment faire indexer tous les sites d'un Réseau SEO ou PBN ?
Si depuis 2021, vous avez vous-même tenté de créer un petit réseau de sites de qualité moyenne, vous avez pu observer qu’il est beaucoup plus complexe de faire indexer l’ensemble de ces sites… y compris leur page d’accueil !
Pour garantir leur indexation, en plus d’y publier des contenus suffisamment qualitatifs à un rythme naturel, il conviendrait d’obtenir quelques liens externes, histoire d’attirer l’attention de Google sur ceux-ci et passer Le contrôle qualité confiance de Google.
Le seul problème, c’est que vos partenaires ne voudront pas faire de liens vers les sites secondaires issus de votre PBN. De plus, acheter des liens Trustés à prix d’or, vers ces sites satellites, ne serait pas rentable pour vous. Enfin, vous ne pouvez pas non plus faire des liens depuis vos propres sites, car cela reviendrait à les “interconnecter”, ce qui pourrait pénaliser l’ensemble de votre réseau pour cause de Système de liens.
Heureusement, une solution existe pour envoyer quelques signaux positifs à Google, mais cela implique de se retrousser les manches…
Vous pourriez mettre en place des liens issus de plateformes 2.0, comme les réseaux sociaux ou les plateformes de blogging.
On parlerait ici, non pas de liens Tier 2, de second niveau, mais de liens Tier 3, ou troisième niveau.
Puisque nous sommes gentils, nous avons pris 5 minutes pour vous bricoler un schéma 😀

Schéma de netlinking prudent, du “Money site” au Tier 3, compatible avec le Predictive Crawling (ou Crawl Prédictif).
Comme le montre l’illustration ci-dessus, vous devrez éviter tous les liens suspects (liens payants spammy issus de link farms) et favoriser les plateformes 2.0, qui peuvent actuellement servir de tremplin pour les meilleurs contenus de vos PBN.
Bien sûr, vous n’êtes pas sans savoir que les liens issus des réseaux sociaux et plateformes 2.0 seront très fréquemment en nofollow. Donc, pas supposés transmettre de linkjuice.
Le nofollow, c’est d’ailleurs ce qui permet à ces plateformes de vous permettre de poster tout et n’importe quoi, sans devoir modérer vos publications.
Mais savez-vous que les liens nofollow sont “suivis” par Googlebot ?
Ce qui nous intéresse ici, c’est de résoudre nos problèmes d’indexation et faire crawler nos sites “Tier 2”, sans céder à l’achat de liens spammy. Aujourd’hui, nous ne cherchons pas spécifiquement à envoyer de linkjuice à nos pages, mais simplement donner envie à Google d’explorer nos contenus.
Pour augmenter l’intérêt de Google pour les noms de domaine “Tier 2” de votre réseau, il peut être utile de créer des profils de réseaux sociaux dédiés à chacun de ces sites Internet. C’est gratuit !
Certaines plateformes vous permettent de créer des liens vers les sites que vous avez besoin de faire indexer.
C’est par exemple le cas des articles Blogger et LinkedIn. Suivez les 2 liens précédents pour voir comment nous exploitons proprement ces canaux, avec parfois des URLs en clair, des liens follow et nofollow.
Plus vous multipliez les liens de ce type, plus vous aurez de chance de faire indexer les sites de votre réseau “Tier 2”.
Le must serait de partager un contenu suffisamment qualitatif pour qu’il puisse bénéficier d’un petit buzz…
Quelques dizaines de retweets et quelques dizaines de visiteurs organiques peuvent suffire à attirer l’attention de Google. Voyez comment nous avons pu obtenir un tel résultat récemment sur Twitter pour faire remonter l’un de nos sites “Tier 2” dans les SERPs (alors qu’il était jusque là, inexistant sur Google).
Sur quels réseaux sociaux et plateformes trouver des liens follow & nofollow pour un réseau PBN ?
Voici quelques idées en vrac de sites sur lesquels vous pouvez vous créer un profil et renseigner l’URL d’un site Internet et/ou publier un court article sur lequel vous pourrez intégrer une URL en clair, cliquable ou non :
- Blogger
- Medium
- Tumblr
- Viadeo
- DoYouBuzz
- Skilto
- YouTube
- Dailymotion
- Vimeo
- Trustpilot
- Google My Business (business.site)
En complément, des dizaines de sites « d’analyse de nom de domaine » tels que Sitelike[.]org ou ScamAdviser.com peuvent vous permettre de créer un profil de site Web en 2 clics. Il s’agira d’une fiche incluant un lien nofollow vers la page d’accueil de votre site (ou plutôt, votre nom de domaine) ; avec parfois la possibilité de laisser une URL en clair, en commentaire, sur la fiche de présentation du site Web générée automatiquement.
Autrement dit, il s’agit en quelque sorte d’annuaires de sites Web automatiques.
Vous n’y obtiendrez pas de liens d’autorité faisant grimper votre Trust aux yeux de Google, mais cette multitude de liens nofollow (de qualité moyenne) ne peuvent qu’améliorer la situation de votre site Tier 2, si vous tentiez, en vain, de faire indexer un nouveau site secondaire dont Google ne semblait pas vouloir, malgré vos efforts, après plus de deux-trois mois d’attente (eh oui, c’est long).
Comment obtenir des liens automatiques vers tous ses nouveaux contenus ?
En complément, pour un site “Tier 2” ayant déjà un profil de liens bien garni et un bon niveau de confiance auprès de Google, vous pourriez envisager de créer des flux RSS (avec le plugin EasyHoster vu ci-dessus dans une précédente question), que vous pourrez inscrire dans des annuaires de flux RSS.
Ceux-ci vous permettraient d’obtenir automatiquement des backlinks, à chaque publication, vers vos derniers articles et vos nouvelles pages, ce qui pourrait inciter Google à indexer plus rapidement ces nouveaux contenus.
Bien sûr, vu la faible qualité de ce type de spots (à utiliser avec précaution et à réserver uniquement à des “Tier 2” bien installés), nous ne publierons ici aucune liste d’annuaires de flux RSS.
Pourquoi ne pas créer vos propres mini-annuaires de flux RSS ?
Une autre option un peu Black Hat serait de créer vos propres annuaires de flux RSS, en guise de backlinks Tier 2 issus de votre réseau.
Cette technique pourrait vous éviter de devoir créer manuellement vos backlinks d’indexation (vers vos Tier 1, depuis vos Tier 2). Pour cela, un script ou un plugin d’agrégateur de flux RSS ferait très bien l’affaire, à coupler au Plugin de création de Flux RSS EasyHoster vu dans une précédente question de cette FAQ.
Conclusion, comment faire indexer un Réseau PBN grâce au SEO ?
Vous voyez que les options ne manquent pas pour stimuler le passage de Googlebot, même vers vos “Tier 2”.
Faites preuve d’imagination, de patience, soyez prudent et surtout, soyez respectueux des internautes qui pourraient tomber sur vos sites secondaires… Tromper les utilisateurs est probablement la pire chose que vous puissiez faire pour améliorer votre référencement Google, ne l’oubliez pas.
Comment obtenir une indexation instantanée grâce à la Google Indexing API popularisée par Rank Math ? (risqué)
Cette baguette magique existe et elle ne date pas d’hier !
Mais, il y a un mais… vous allez comprendre.
Il s’agit d’une API lancée par Google en juin 2018 et popularisée par Rank Math, via un plugin lancé en mai 2019, comme vous pouvez le voir dans ce tweet annonçant sa sortie :
Donc, à partir de là, rien de nouveau sous le soleil.
Le plugin Google Indexing API de Rank Math a été développé pour permettre aux utilisateurs de WordPress de facilement demander l’indexation de leurs contenus via l’Indexing API officielle de Google.
Une API officielle, mais pas destinée à tout le monde, vous allez comprendre…
Le plugin de Rank Math est 100% Gratuit, tout comme l’Indexing API de Google !
Dans les faits, l’API d’indexation de Google fonctionnait très bien et fonctionnerait toujours ~ pour l’instant ~ quoique, dans de nombreux cas, celle-ci a déjà fortement baissé en efficacité.
Début 2022, presque tous les sites (jeunes ou vieux) et tous les contenus (riches ou pauvres) pouvaient bénéficier d’un taux de +90% d’indexation sous 24h, grâce à l’Indexing API de Google et le plugin gratuit de Rank Math.
Comme vous l’imaginez, les SEO du monde entier se sont gavés et ont profité de cette API faille oubliée par Google pour faire indexer massivement tous les contenus qu’ils n’arrivaient plus à référencer naturellement.
Tout un écosystème s’est créé autour de cette API, avec des outils d’indexation en ligne (payants) et des prestataires de service vendant leurs pings sur des places de marché pour freelances telles que Fiverr, Upwork ou 5euros (on en reparle plus bas).
Une utilisation détournée de l’Indexing API de Google
Fait important, cette Indexing API était normalement réservée à l’indexation instantanée de contenus hyper-frais issus de sites spécialisés dans :
- Les offres d’emploi.
- La diffusion en direct de podcasts & vidéos.
C’est tout.
En toute logique, on comprend bien l’intérêt d’annoncer rapidement une Offre d’emploi, ou mieux, un futur Live Stream (comme ceux diffusés en live via Twitch, Facebook ou YouTube par exemple).
Par contre, on comprend moins l’Urgence qu’il peut y avoir à faire indexer instantanément 35 fiches d’avis et caractéristiques sur des Ponceuses électriques, ou des Fers à lisser les cheveux 😅
Pourtant, dans les faits, n’importe quel site pouvait utiliser l’API et bénéficiait, dans 90% des cas, d’une indexation Google instantanée.
Rank Math a toujours été transparent sur le but les risques de l’Indexing API…
Cela a toujours été précisé dans un cadre rouge.
Vu le caractère risqué et temporaire de cette API détournée, nos tests se sont limités à quelques articles sur un site de moindre importance.
Détourner cette API donnait de bons résultats, mais n’aidait pas à dormir sur ses deux oreilles.
En effet, comme le précise Rank Math, il est déconseillé d’utiliser ce plugin pour votre money site, c’est-à-dire, le site principal de votre business, car en cas de sanction (même si peu probable), le préjudice pourrait être fatal pour votre entreprise.
Soyons raisonnables… De notre côté, on voit mal Google vous sanctionner pour avoir pioché dans un bol de bonbons qu’il aurait laissé traîner sans surveillance.
Quoi que…

Sur Twitter, John Mueller signale à un blogueur que l’utilisation détournée de l’API d’indexation de Google pourrait être considérée comme un mauvais signal (spam).
Actuellement et à notre connaissance, aucune sanction n’est tombée. Mais qui veut prendre de tels risques avec le site qui paye les factures ?
Il reste la possibilité de tricher un peu, uniquement pour les sites de son Réseau SEO… ?
Oui mais non, car l’inconvénient, pour les référenceurs créant massivement des Réseaux de sites SEO, c’est que l’utilisation du plugin de Rank Math requiert de déclarer ses sites dans sa console Google Search (console liée à son compte Google, son adresse IP, etc).
Si vous décidez de détourner cette API pour votre Réseau « PBN », cela reviendrait à dévoiler votre jeu à Google, en exposant au grand jour, l’ensemble de vos sites satellites, à moins de créer de multiples comptes Google avec des adresses IP différentes ?
Sinon, vous donneriez à Google la certitude que c’est vous (et personne d’autre) qui utilisez son API de manière détournée.
S’authentifier via son compte Google pour détourner un outil, c’est un peu comme si vous regardiez Google droit dans les yeux et lui disiez :
Salut Google, je suis référenceur professionnel et je triche en détournant ton API… bonne journée 😎
Donc, pour son money site… trop risqué. Pour son réseau de sites… trop grillé.
Cela restreint le champ des possibilités de cette API.
Méfiez-vous donc de tous les services d’indexation Google (payants ou gratuits) qui demandent un accès à votre Google Search Console car, le problème reste le même…
La fête est finie ! Google corrige son Indexing API…
Sans grande surprise, depuis environ mi-février 2022, Google semble avoir corrigé son API d’indexation pour la restreindre uniquement à ce pour quoi elle a été créée et documentée. C’est-à-dire, les contenus hyper-frais, comme ceux des sites d’offres d’emploi et de livestreams ayant intégré des Données structurées (ou Structured data) spécifiques à ce type d’utilisation bien précis : JobPosting & BroadcastEvent.
Comme souvent lorsque Google réalise une mise à jour importante, les communications de John Mueller sont partagées avec un timing parfait.
L’ingénieur n°1 chez Google Search a récemment rappelé, dans une vidéo postée le 18 février 2022 sur la chaîne officielle « Google Search Central », que « détourner l’API d’indexation de Google ne serait plus d’une grande aide » :
Si vous n’avez pas de contenu qui entre dans ces catégories (cf. offres d’emploi ou livestreams), alors l’API ne va vraiment pas vous aider […] si vous n’avez pas d’offres d’emploi, vous n’avez rien à faire avec cette API — John Mueller.
Allez directement à la minute 7 de la vidéo…
Effectivement, il a récemment été reporté sur Twitter que l’indexation n’était plus instantanée pour les jeunes sites Internet et/ou les contenus de faible qualité.
La fête est finie ?
De leur côté, les sites un peu Trusté qui publient régulièrement des contenus uniques, originaux, singuliers et à haute valeur ajoutée (tout ce qui a été conseillé dans cet “Article FAQ”) sont moins touchés par tous ces problèmes d’indexation et ne devraient pas s’embarrasser d’une API d’indexation.
Vous savez ce qu’il vous reste à faire 😉
Comment forcer l’indexation Google, sans l’API d’indexation ni le plugin de Rank Math, via un freelance sur Fiverr ou Upwork ?
Vous avez consulté notre premier guide de l’indexation Google et l’ensemble des 25 conseils de cet “Article FAQ”, mais vous souhaitez malgré tout forcer le destin en détournant l’API de Google ?
Dans ce cas, nous vous suggérons au moins d’éviter tout service qui demande l’accès à votre Search Console pour forcer l’indexation.
Autrement dit, vous pourriez par exemple chercher un prestataire freelance spécialiste de l’indexation Google sur des plateformes comme Fiverr ou Upwork…

Sur Fiverr, de nombreux prestataires de service freelances promettent d’indexer sur Google toutes les URLs que vous souhaitez, et ce, sous 24 heures et à un tarif imbattable — À vos risques périls (voir avertissement ci-dessous)
Passer par un freelance pour être indexé… quid de la Search Console ?
Avant de passer commande de tels services d’indexation à un freelance, assurez-vous au moins que pour réaliser ces opérations d’indexation, il ne lui sera pas nécessaire d’accéder aux Propriétés de votre Google Search Console.
Autrement dit, posez la question au freelance en privé avant de passer commande, car ce qu’ils disent sur leur page de vente Fiverr peut être bien différent de la réalité.
Après avoir payé au travers de la plateforme, vous constaterez que certains freelances Fiverr ou Upwork vous demandent quand même d’ajouter leur adresse e-mail comme Administrateur de votre Propriété Google.

Finalement, sur Fiverr, un freelance demande l’accès à la Search Console pour forcer l’indexation Google, alors qu’il avait été convenu de le faire sans Indexing API.
Méfiez-vous…
Dans ce cas, il est évident qu’ils vont essayer d’utiliser de détourner l’Indexing API de Google, tout comme le fait gratuitement le plugin Rank Math. Sauf qu’avec le freelance, votre Proriété Google risque d’être mélangée à des dizaines d’autres sites plus ou moins spammy (les autres clients du freelance) qui ne vous appartiennent pas. Pourtant, si vous faites cela, aux yeux de Google et auprès de Google, vous aurez approuvé que le freelance est bien l’Administrateur de votre site !
Si Google détermine que vous avez enfreint délibérément les conditions d’utilisation de l’Indexing API, vous ne pourrez pas le nier.
L’indexation via un freelance, sans la Search Console, ça donne quoi ?
Comme indiqué précédemment, depuis le milieu du mois de février 2022, le détournement de l’API d’Indexation de Google donne de moins bons résultats qu’avant et c’est le moins qu’on puisse dire…
Si vous décidez de tester ce type de service, le freelance pourrait vous annoncer un délai de 7 à 20 jours avant indexation. De plus, niveau Taux d’indexation, on serait sur un ratio de 5% à 10% d’URLs indexées pour les contenus de basse qualité et/ou les sites non Trustés ; et sur un ratio de 40% à 70% s’il s’agit d’un domaine avec une Haute autorité.

La publicité publique mentionnait « 100% of All your links indexed in Google Within 24 hours, 100% Satisfaction guarantee » mais dans les faits, en privé, après avoir payé, le discours a changé « ratio de 5% à 70% pour les meilleurs spots et les meilleurs contenus après jusqu’à 20 jours ».
Donc, si on résume, le ratio d’indexation n’est satisfaisant que pour les spots et les contenus de haute qualité. De plus, les délais sont de l’ordre de 7 à 20 jours.
Donc, tout porte à croire que les URLs qui finissent effectivement par être indexées l’auraient été malgré tout. Autrement dit, les URLs qualitatives indexées après 20 jours auraient certainement été indexées naturellement par Google, sans forcing via un freelance, mais seulement avec un peu de patience… ?
Bien sûr, si vous êtes ici, c’est parce que vous espérez un délai d’indexation inférieur à 20 jours, y compris pour des contenus jugés comme “moyens” par Google, n’est-ce pas ? 🙂
Suite à une petite enquête, dans les faits, ces freelances arrivent toujours à forcer l’indexation pour quelques contenus issus de noms de domaine Trustés comme ceux de Twitter et Pinterest, mais paradoxalement, ils ont actuellement beaucoup de difficulté à faire indexer des articles issus de LinkedIn, Medium ou Facebook (comme quoi, tous les réseaux ne sont pas logés à la même enseigne).
Bien sûr, inutile de préciser que le forcing via freelance n’a plus aucun effet sur les Articles invités publiés sur le blog du voisin 😉
La fête est effectivement, finie.
Pour ne prendre aucun risque avec son référencement Google, mieux vaut en garder le contrôle…
Effectivement, dans tous les cas, gardez aussi à l’esprit que ces freelances ne vous révéleront pas les techniques qu’ils comptent utiliser. C’est grâce à ce secret qu’ils peuvent monétiser leurs services.
Leurs méthodes peuvent donc être Black Hat (sans que vous ne le sachiez) et malgré tout représenter un risque de pénalité pour votre site principal.
Par exemple, actuellement, on parle toujours de NSEO (Negative SEO) et de désaveu de liens toxiques.
Soyons lucides… les signaux externes peuvent toujours impacter plus ou moins négativement la réputation de votre site.
Il conviendrait donc de ne pas chercher à forcer l’indexation Google de votre site principal grâce à des raccourcis artificiels. Par site principal ou Money Site, nous parlons de celui qui fait vivre les membres de votre entreprise, ou votre propre famille.
Donc, bien sûr, pour bénéficier d’un bon taux d’indexation rapide de façon naturelle (en toute sécurité), nous vous renverrons aux dizaines de conseils White Hat donnés ici, dans les 25 questions de cette FAQ, ainsi que dans notre précédent guide de l’indexation Google.
Patience est mère de sûreté…
Pourquoi certains contenus diffèrent ou disparaissent de Google sur certains datacenters (ex: Google.fr vs Google.ca) ?
Bien sûr, ces différences sont dues à des habitudes de recherche différentes entre les Français et les Canadiens.
Cependant, il faut aussi être conscient que la synchronisation des résultats ne s’opère pas en temps réel, entre les différents datacenters de Google. C’est pour cela que les mises à jour et les ajouts récents peuvent prendre plusieurs jours avant d’être totalement synchronisés à travers tous les datacenters de Google, situés aux quatre coins du globe.
De plus, pour servir tous ses résultats aussi rapidement, Google dispose naturellement d’un système de cache qui enregistre les résultats des requêtes recherchées fréquemment.
Lorsque vous voulez observer l’aspect de votre site dans le moteur de recherche, il peut être utile de varier vos recherches, en recherchant des expressions longues + le nom de votre site, pour vérifier comment votre contenu apparaît sur Google sur de nouvelles requêtes.
Si vous avez ajouté une nouvelle page qui est marquée comme “indexée” dans la Search Console, elle peut ne pas être présentée tout de suite sur Google.fr. C’est encore une question de synchronisation de datacenters et d’actualisation du cache de Google. Mais rassurez-vous, si la console indique que votre page est indexée, celle-ci apparaîtra très bientôt sur Google (généralement, dans moins de 24h).
De même, si vous avez récemment effectué une mise à jour majeure, il peut s’écouler quelques heures avant qu’elle n’apparaisse pour tout le monde, sur tous les datacenters de Google. Donc, aussi bien sur Google.fr que sur Google.ca ou Google.be.
Comment vérifier la présence de vos pages au travers des différents datacenters de Google ?
Pour cela, il ne suffit pas de visiter respectivement Google.fr ou Google.be, avec votre navigateur habituel, car Google connaît vos préférences de navigation et vous servira des résultats en français, localisés en France, s’il pense que c’est ce que vous préférez.
Donc, il convient d’abord d’utiliser un nouveau navigateur, exempt de cookies. Par exemple, si vous êtes sous Google Chrome, passez sur Firefox et videz bien tous les cookies du navigateur, via vos options de confidentialité.
Ensuite, il sera nécessaire d’indiquer explicitement à Google, pour quelle langue et quelle région vous désirez trouver des résultats, grâce à des paramètres passés dans l’URL de recherche.
Voici les URLs à mémoriser et à utiliser pour vérifier comment votre site apparaît sur les différentes versions de Google :
- Google USA :
https://www.google.com/search?gl=us&hl=en&q=Indexation+Google+EasyHoster - Google UK :
https://www.google.co.uk/search?gl=uk&hl=en&q=Indexation+Google+EasyHoster - Google France :
https://www.google.fr/search?gl=fr&hl=fr&q=Indexation+Google+EasyHoster - Google Belgique :
https://www.google.be/search?gl=be&hl=fr&q=Indexation+Google+EasyHoster - Google Canada :
https://www.google.ca/search?gl=ca&hl=fr&q=Indexation+Google+EasyHoster
Adaptez ces URLs et enregistrez-les précieusement dans vos favoris pour rapidement vérifier le positionnement de vos contenus sur Google.
Comme vous pouvez le voir, pour interroger les bons datacenters (ou en tout cas, switcher sur d’autres préférences linguistiques et géolocalisées), il est indispensable de renseigner les attributs « gl= » et « &hl= ». Ceux-ci vous permettront de retrouver chaque index géolocalisé dans sa langue respective.
Ensuitez, bien sûr, personnalisez la requête précédée de l’attribut « q= » pour y ajouter vos mots clés.
En vous habituant à utiliser ces URLs, vous pourrez parfois constater que l’un de vos nouveaux contenus apparait déjà sur le datacenter de Google USA, mais pas encore sur celui de Google France.
Il n’y a rien d’alarmant à cela. Il suffit d’être un peu patient.
Pourquoi certaines URLs disparaissent temporairement de Google ?
Comme si les problèmes d’indexation ne suffisaient pas, nous avons pu constater récemment des problèmes de désindexations aléatoires et temporaires pour certaines pages.
Ce problème de désindexation temporaire pouvait aussi bien toucher des pages récentes que des pages bien installées et positionnées depuis plusieurs années, mais qui venaient de subir une grande mise à jour et un recrawl forcé depuis la Search Console.
Pourtant, en cas d’inspection via la console, la page était bien marquée comme…
« Cette URL est sur Google »

Le Saint-Graal, un fait rare pour certains sites, le statut : « Cette URL est sur Google ».
Malgré cela, on peut parfois constater des disparitions aléatoires de l’index, comme si les datacenters se synchronisaient et se désynchronisaient périodiquement ?
Encore une fois, la patience est une vertu !
Si votre URL est non visible sur le moteur de recherche, vérifiez son état d’indexation via la console. Ensuite, fiez-vous toujours au statut indiqué par Google et n’entreprenez aucune action corrective si Google indique « Cette URL est sur Google ». La seule chose que vous puissiez faire est de patienter un peu que la nouvelle version économe de Google prenne le temps de terminer ses analyses et affiche la nouvelle version de votre contenu dans ses résultats.
On pourrait imaginer que (dans le contexte zéro carbone), les contenus récemment “mis à jour” sont placés temporairement dans une sorte de Sandbox (en file d’attente), le temps d’être réévalués en termes de qualité. Par le passé, ce processus était probablement très rapide et se faisait tout de suite. On se souvient du lancement de Google Caffeine où les SERPs étaient mises à jour en temps réel (donc, avant les économies carbone de Google).
Cependant, aujourd’hui, force est de constater que Google est devenu économe en ressources. Il faut donc prendre son mal en patience et apprendre à patienter 24 à 48 heures avant de s’inquiéter de la disparition d’un résultat.
Quelle stratégie pour compenser les longs délais “d'indexation” en exploitant les courts délais de “rafraîchissement” d'index ?
Pour cela, répondu à cette question…
Les longs délais d’indexation concernent-ils aussi les mises à jour de contenus existants ?
Pour l’instant, non.
D’après nos tests et observations, actuellement, il semblerait que Google reste très rapide pour prendre en compte les modifications des anciens contenus. C’est-à-dire, pour mettre à jour les pages qui étaient déjà existantes dans son index.
Par exemple, lors de l’ajout une chaîne de caractères dans le footprint de notre site (environ 250 pages), les premières updates de Google apparaissent après 3h environ sur le moteur de recherche.
Ensuite, environ 50% du site était mis à jour après un peu moins de 24h.
Enfin, environ 80% du site était pris en compte après 72h.
Google aurait donc toujours une forte volonté de présenter des informations “à jour”.
Moralité : de notre côté, les problèmes d’indexation qui nous concernaient fin-2021 étaient réellement liés au crawl et à l’indexation de nouvelles URLs, plutôt qu’à la mise à jour de notre index.
Stratégiquement, comment tirer profit des courts délais de rafraîchissement de l’index de Google ?
Vous expérimentez de longs délais pour faire indexer de nouveaux contenus (pour de nouveaux sites Web) ? Par contre, vous constatez, comme nous, de courts délais pour le rafraîchissement de l’index pour des contenus préexistants (donc déjà indexés) ?
Voici un bon réflexe à avoir pour votre stratégie d’acquisition de trafic…
Bichonnez vos anciennes pages !
Si nous étions complotistes, nous pourrions penser que Google est en train de mener une grande campagne de communication pour pousser les Webmasters du monde entier à repasser sur leurs anciens contenus.
En effet, si vous n’arrivez pas à faire indexer quelques dizaines d’anciennes pages, mais que vous avez, à votre disposition, des centaines de pages indexées qui perdent progressivement de leur éclat dans les SERPs, mettez à jour vos vieux contenus !
On ne reste pas éternellement 1er sur Google, sans entretenir ses pages.
Avant de vouloir créer massivement toujours plus de nouveaux contenus pour inonder le Web, il serait utile de mettre en place une politique de mise à jour de contenu comme celle-ci…
Chez EasyHoster, nous pensons que Les meilleures pages (fort trafic) devraient être relues en profondeur, tous les 9 mois et que toutes les Bonnes pages (trafic moyen) devraient être revues tous les 18 mois, au moins !
D’après nos observations, sans un travail de relecture attentive et un régulier travail de refonte de contenu, toutes les pages positionnées sur des requêtes commerciales ou concurrentielles finissent pas décliner progressivement sur Google, voir même, disparaître complètement des 50 premiers résultats, si elles ne bénéficient pas d’un véritable entretient régulier.
Les problèmes d’indexation de nouveaux contenus sur Google vous offrent l’opportunité d’augmenter le trafic de votre site Web, en (ré)optimisant vos contenus existants. Pour cela, vous pourriez vous baser, entre autres, sur les requêtes qui vous apportent déjà du trafic.
En relisant une page et en retravaillant son contenu pour gagner quelques positions sur certains mots clés, c’est plusieurs centaines de visiteurs supplémentaires que vous pouvez espérer toucher chaque mois.
Une page revue et corrigée sera également plus apte à convertir vos visiteurs actuels, en clients ou en abonnés.
Qui sommes-nous pour forcer la main à Google ?
Aujourd’hui, Google a décidé de réduire son empreinte écologique (voir question 1 sur le carbone). Google se donne plus de temps pour choisir de crawler et d’indexer les nouveaux contenus des sites de petite et moyenne envergure.
Malheureusement, nous n’avons pas totalement le contrôle sur ces délais d’indexation de nouveaux contenus.
Il faut accepter les nouvelles règles du jeu et faire preuve d’une bonne capacité d’adaptation.
Mieux vaut accepter le fait qu’un contenu va, dans le meilleur des cas, prendre 24h à s’indexer ; 1 semaine avec un peu de chance ; sinon au pire des cas, entre 1 mois à 6 semaines… C’est difficile à accepter, mais rien ne sert de s’arracher les cheveux. Ce n’est pas en 3 semaines que vous pourrez mettre votre site au niveau requis pour bénéficier d’une indexation rapide (vous voyez la taille de cet article et le nombre de conseils à implémenter !).
Tout ce que vous pouvez faire c’est :
- améliorer tranquillement votre site dans le détail (EAT factors, maillage interne…) ;
- améliorer/optimiser/agrémenter vos contenus existants (les mouvements sur votre site exciteront un peu Googlebot) ;
- patienter en prenant plaisir à améliorer et enrichir votre site (retrouver la passion de peaufiner son site)
Il est inutile de passer votre journée à vous énerver en sautant à pieds joints sur le bouton « Indexation » de la Google Search Console ; ou passer votre journée à rafraîchir la requête « site: » de Google. Cette énergie et ce temps seront bien plus utiles si vous les consacrez à la relecture et la création de contenus !
Finalement…
Quelle est la solution ultime aux problèmes d’indexation Google ?
- Le travail : faites de votre mieux en pensant à vos lecteurs.
- La patience : votre contenu ne doit peut-être pas être indexé sur Google de toute urgence.
- Le lâcher-prise : votre travail finira toujours pas payer, mais peut-être pas demain matin.
Quelle stratégie adopter pour que votre business ne souffre pas de ces problèmes d'indexation ?
Aller chercher des résultats garantis à court terme
Comme nous l’avons vu précédemment, pour obtenir des résultats immédiats, prenez un peu de temps pour travailler sur vos pages existantes (déjà indexées) en les réoptimisant, en les rafraîchissant et en améliorant leur marketing.
Par exemple…
- Vérifiez les intertitres (H2, H3…) de vos pages et complétez les attributs ALT de vos images.
- Relisez (vraiment) vos contenus existants, pour les mettre à jour et les compléter.
- Ajoutez des boutons d’appel à l’action (CTA) et des liens connexes à vos pages pour améliorer votre taux d’engagement et diminuer votre taux de rebond.
Bien sûr, pour générer plus de trafic, faites tout cela en essayant d’améliorer vos positions sur vos meilleures requêtes actuelles, ainsi que votre trafic de longue traîne.
Comme nous l’avons vu dans une question précédente, veillez à retravailler intelligemment tout votre maillage interne, en exploitant la force des liens intext et en envoyant un maximum de puissance vers vos pages les plus rentables (Cornerstone).
Gardez à l’esprit que, même si Google peut prendre jusqu’à 6 semaines pour indexer une page importante pour votre entreprise, le rafraîchissement des contenus préindexés est plus rapide. Donc, les effets de toutes ces optimisations (relecture, maillage, etc), quant à eux, peuvent se faire sentir après quelques jours seulement.
Monter d’un niveau sur l’échelle de la qualité
En toile de fond, bien sûr, prenez de votre temps pour améliorer globalement tous les facteurs de confiance de votre site. Nous en avons vu beaucoup dans notre chapitre sur les « EAT Factors », entre autres.
Pour soigner votre réputation auprès de Google, une bonne pratique SEO serait de publier régulièrement du bon contenu, tous les jours ou toutes les semaines en fonction du projet ou du type de site. Si Google a l’habitude de voir régulièrement du contenu frais sur votre site ou votre blog, il sera contraint de revenir plus régulièrement collecter tous ces nouveaux bons contenus frais.
Ce n’est pas parce que vos derniers contenus ne figurent pas encore sur le moteur de recherche que Google n’explore pas régulièrement votre site. Montrez patte blanche, montrez que vous êtes motivé et montrez que votre projet est sérieux.
Pour ce faire, créez chaque jour du mouvement “dans” et “autour” de votre site, en étant conscient que Google voit tout et en prenant soin de l’historique de votre profil chez Google.
Continuez à publier des contenus et continuez à améliorer votre site, tout en attendant l’indexation. Si vous vous arrêtez de travailler à chaque fois que Google tarde à publier votre précédente création, cela risque effectivement de vous freiner énormément, dans votre stratégie de création de contenu et donc, dans la croissance de votre entreprise.
Pour votre projet contenu, il peut être pertinent si possible de traiter des thématiques et des sujets qui sont d’actualité ou au moins dans la tendance. Ces derniers devraient avoir plus de facilité à s’indexer et auront le mérite de vous exercer à optimiser vos chances d’être référencé sur Google Discover.
Persévérer en restant focus sur son objectif
Vous avez de grandes ambitions pour votre projet, il faut donc vous en donner les moyens.
Gardez la foi et dites-vous que Google finira assurément par indexer tous vos contenus qualitatifs, tôt ou tard, puisque vous respectez les critères imposés par Google. C’est-à-dire, les critères que nous avons tenté de vous présenter au mieux dans cet article.
Pour votre crédibilité chez Google, il faudrait presque devenir une machine à produire de nouveaux contenus qualitatifs, autour de votre thématique. Si vous enchaînez tellement de tâches qu’il devient impossible de suivre manuellement l’indexation, le positionnement et la mise à jour de tous les contenus sur lesquels vous avez travaillé, cela aura à coup sûr un impact positif sur tous les aspects de votre business à moyen terme.
Persévérer et intensifier ses actions, c’est la voie royale pour récolter a posteriori, un maximum de fruits de son travail. Il vous suffit d’avancer en laissant passer une petite période de gestation après chaque tâche réalisée.
La patience est une qualité fondamentale en SEO.
Prendre du recul par rapport aux délais d’indexation
Prenez ces nouveaux délais d’indexation Google comme un petit décalage dans le temps. Vous récolterez tous ces lauriers en temps voulu. Vous serez récompensés après une toute petite période de gestation.
Pensez à toutes ces émissions de télé qui sont enregistrées plusieurs mois à l’avance, avant d’être diffusées, comme c’est le cas pour Koh Lanta ou Les Douze Coups de Midi.
Garder confiance dans les résultats futurs
Si vous réussissez à être patient et surtout, ne pas vous interrompre dans votre création de contenu ; même si tous ces contenus de qualité arrivent avec un peu de retard sur Google ; ils arriveront tous un jour ou l’autre et vous serez finalement récompensé pour votre persévérance.
Vous constatez très rapidement que chaque nouveau contenu de qualité, dès qu’il est légèrement optimisé pour le SEO, apporte sa petite part de trafic et sa petite part de Trust pour votre référencement, notamment grâce au maillage interne.
Aller chercher de l’inspiration chez les autres
Le forum officiel de Google ou même Twitter sont autant d’endroits où vous pouvez lire, chaque semaine, des témoignages d’autres entreprises qui expérimentent aussi des problèmes d’indexation Google.
Vous n’êtes pas seul.
Pour être honnêtes, chez EasyHoster, ces nouvelles contraintes ont fini par nous motiver davantage. Tout cela a eu sur nous l’effet d’une douche froide. Cela nous a réveillés et nous a donné plus l’énergie…
Cela nous a motivés à créer plus rapidement de nouveaux contenus, pour les mettre en ligne encore plus vite.
Cela nous a motivés à créer du contenu, avec encore plus de valeur ajoutée.
Cela nous a motivés à être encore plus rigoureux sur l’optimisation de nos sites, pour le SEO, mais aussi pour nos utilisateurs sur ordinateur, comme sur mobile. Et encore plus transparents avec nos clients existants, comme nos prospects.
Nous vous conseillons donc de prendre ces nouveaux enjeux, justement, comme un jeu… Comme si le niveau de difficulté venait d’augmenter et que vous deviez rapidement donner le meilleur de vous-même pour pouvoir relever le défi et ne pas vous faire éliminer par vos concurrents.
Rappelez-vous qu’avec Google, tous les référenceurs et tous les sites Web sont logés à la même enseigne. Nous sommes tous soumis au même algorithme et aux mêmes règles. C’est à celui qui sera le meilleur sur le long terme, qui l’emportera sur vos requêtes.
Chaque situation est unique, en fonction de l’ancienneté et du profil actuel du site existant.
Mais pour vous donner un ordre d’idée, sachez qu’en trois-quatre mois, EasyHoster a pu largement améliorer la situation pour l’indexation de ce site, grâce à tous les leviers décrits dans ce long “Article FAQ”.
Par exemple, cela est passé par l’économie de notre Budget de Crawl ; l’acquisition de Liens d’autorité ou encore, la refonte de notre page de Mentions légales, entre autres choses.
Nous n’avons rien négligé, car nous étions très impatients de retrouver les faveurs de Google, ce qui est chose faite. Le travail peut reprendre et même plus, car chaque action posée pour améliorer notre indexation a été bénéfique aussi pour notre ranking.
Donc, si vous vous retrouvez dans notre témoignage, nous vous encourageons à prendre quelques mois pour travailler dur sur chacun des critères vus dans cet article, ainsi que notre précédent guide pour forcer l’indexation Google.
Gardez votre sang-froid, croyez en votre projet et soyez patient…
Quelle stratégie adopter pour que votre mental ne souffre pas de ces longs délais d'indexation ?
Pourtant, la pire chose que vous pourriez faire, c’est de perdre le moral.
Voici donc, en guise de conclusion, quelques pistes qui pourraient vous aider à conserver la motivation que vous aviez au lancement de votre projet.
Avoir une vision long-terme
Lorsqu’on a la tête dans le guidon, il est plus facile de voir les problèmes que les opportunités.
Nous aussi, nous avons pensé à baisser les bras, abandonner la création de contenus SEO-friendly, et nous avons failli remettre en question l’existence même de ce blog, pour nous orienter vers d’autres stratégies : campagnes emailing (lead magnet + séquences mails), video marketing, référencement social… ou d’autres choses ?
Mais nous avons tenu bon, retroussé nos manches, (re)gagné les faveurs de Google et nous savons aujourd’hui que la création d’articles de fond est, pour nous, la stratégie la plus pérenne afin de bénéficier de visibilité sur le long terme. Et même mieux, nous considérons aujourd’hui les nouvelles difficultés rencontrées sur les SERPs, comme une opportunité pour tirer notre épingle hors du jeu grâce à une démarche ultra-qualitative.
Google a rebattu les cartes (encore :-D)
Pour nous, les nouvelles exigences de Google seraient presque une chance de faire face à une féroce concurrence qui, parfois, est contrainte de négliger la qualité de ses contenus, et ce, pour des raisons de logistique interne…
En effet, les grandes sociétés d’hébergement Web internationales peuvent avoir plus de difficultés à maintenir un blog en français, qu’une petite structure francophone comme celle d’EasyHoster.
Google n’est pas votre ennemi
C’est même plutôt un collaborateur. Il a besoin de vous et de votre contenu pour pouvoir le proposer à ses utilisateurs.
Et si on essayait de se mettre à la place de Google ?
D’une certaine manière, Google n’avait pas d’autre choix que de réduire le crawl…
En effet, les questions environnementales représentent de plus en plus un sujet brûlant et Google se doit de prouver qu’il figure parmi les entreprises qui cherchent à réduire leur empreinte carbone (voir question 1 de cette FAQ).
Ces nouveaux problèmes d’indexation ont beau nous agacer (puisqu’il s’agit d’un nouveau fonctionnement récent), il faut accepter que Google ait pris la décision d’indexer certains contenus (beaucoup) moins vite. Il lui arrive même de décider de ne jamais indexer certains contenus, lorsque l’éditeur ne fait pas suffisamment d’efforts pour améliorer son site Web…
C’est la “New Normal” du SEO.
Le Web regorge de toujours plus d’informations. Il est donc normal que Google fasse monter le curseur de l’excellence.
Bien sûr, l’intelligence artificielle du Predictive Crawling est jeune et n’est pas encore parfaite, même s’il nous semble qu’elle s’est déjà beaucoup améliorée en quelques mois.
Mais dans tous les cas, cela reste à nous de nous adapter si nous voulons pointer le bout du nez sur Google.
Regarder son propre business
Partout, les règles du jeu ont changé et ce sont les mêmes règles pour tout le monde !
Bien sûr, il est tentant de regarder chez les autres pour observer que certains sites Web de faible qualité, qui publient de mauvais contenus à la chaîne, bénéficient quand même d’une indexation instantanée.
C’est trop injuste…
Mais cela arrive probablement parce que ces sites ont travaillé énormément leur Trust en amont et parce qu’ils publient très souvent de nouveaux articles. Par contre, cela ne signifie pas que tous ces contenus ont le potentiel de bien se positionner sur la première page de Google, et donc, générer du trafic qualifié.
Rien ne sert de s’agacer de voir qu’un contenu inférieur au vôtre est indexé. La seule chose à faire est d’essayer de se poser de bonnes questions et de poser les bonnes actions.
Se concentrer sur ce qui compte et fonctionne sur le long terme
La meilleure chose que vous puissiez faire, face à ces changements d’algorithme, c’est de chercher à comprendre les nouvelles intentions de Googe, son nouveau mode de fonctionnement, ainsi que les critères vous permettant de tirer votre épingle hors du jeu.
Vous l’avez compris en lisant cet “Article FAQ”, nous déconseillons de dépenser toute son énergie à chercher des raccourcis qui ne fonctionneront plus dans 3 mois.
Selon nous, il est préférable de se concentrer sur ce genre de points essentiels :
- régulièrement améliorer l’ensemble de son site ;
- créer des contenus exceptionnels, qu’on ne trouve pas ailleurs ;
- se montrer patient et persévérant.
Le travail et la qualité payent toujours !
Si vous n’avez pas pris le temps de lire tout cet “Article FAQ”, voici un bref aperçu montrant l’étendue des critères que nous avons abordés…
Voici le genre de questions que nous vous encourageons à vous poser :
- Est-ce que quelque chose de spécifique sur mon site peut faire baisser l’opinion globale de Google à mon sujet ?
- Ai-je récemment fait des travaux techniques sur mon site (comme l’ajout de redirections ou l’installation d’un CDN) ?
- Ai-je un Custom Post Type avec de nombreuses catégories vides, ou d’autres pages à déréférencer ?
- Ai-je un calendrier avec une chaîne de liens infinie qui devrait être bloquée par mon fichier robots.txt ?
- …
La taille de cette FAQ et notre précédent guide pour forcer l’indexation prouvent qu’il existe de très nombreux critères à vérifier avant d’envisager de baisser les bras.
La grande nouveauté à présent, c’est que la qualité globale du site et des précédents contenus influence l’indexation Google : est-ce que ce site ou ce contenu doit être indexé et sous quel délai ?
Si une négligence a été commise, puis corrigée, cela peut prendre entre 2 semaines et 3 mois pour être oublié par Google, en vue de rétablir une indexation rapide.
Donc, soyez proactif dès aujourd’hui ! Appliquez rapidement un maximum de correctifs et n’attendez pas 6 mois entre chaque optimisation, pour voir si votre dernière action a effectivement servi à quelque chose. L’algorithme de Google est aussi secret que complexe et c’est bien l’ensemble de vos optimisations qui vous permettra de tirer votre épingle hors du jeu en SEO.
Se rappeler pourquoi on s’est lancé
Quand vous avez démarré votre projet sur Internet, vous aviez un rêve, un objectif précis ou, en tout cas, de bonnes raisons de vous lancer…
Lorsqu’on travaille tête baissé pendant longtemps sur le même projet, le piège est d’oublier pourquoi on avait commencé.
Dans une telle situation, le but serait de retrouver un maximum de motivation pour se remettre sur de bons rails.
Pour ce faire, il pourrait être utile de quitter votre Google Search Console pendant quelque temps, pour lister sur papier, d’un côté…
- les difficultés auxquelles vous faites face
- les pistes à explorer pour résoudre la situation (et sous quel délai vous pourriez la résoudre)
Et de l’autre côté…
- tous les avantages dont vous pourrez jouir si vous arrivez à redresser la barre
Finalement, qu’avez-vous à perdre en travaillant quelques mois pour sauver le référencement de votre site Internet ? Et surtout, qu’avez-vous à gagner si vous y parvenez ?
Crawl prédictif & indexation sélective : Google a rebattu les cartes
Les bonnes pratiques (White Hat) sont parfois moquées par certains référenceurs adeptes de Spam et d’Automatisation.
Effectivement, certaines techniques Border line fonctionnent toujours. Mais d’un autre côté, beaucoup de référenceurs témoignent que certaines techniques ne fonctionnent plus.
Avec tout le recul que nous avons sur le référencement (au fil des années), nous devons admettre que progressivement, l’étau se resserre…
De plus en plus, Google recentre ses algorithmes sur les Sites de confiance et les Contenus de qualité.
Pour le référencement Google, il y a toujours eu deux écoles, deux salles, deux ambiances :
- Le Black Hat où l’on cherche des raccourcis pour générer rapidement beaucoup de trafic.
- Le White Hat où l’on a tendance à créer de la valeur en s’adressant plus aux lecteurs qu’aux moteurs.
L’avantage de la seconde approche, c’est qu’elle permet de ne pas trop “subir” les changements d’algorithme.
Vous connaissez l’histoire du lièvre et de la tortue ?
Qui gagne la course au final ? La tortue 😉
Les Guidelines de Google (c’est-à-dire, les Consignes aux Webmasters), n’ont presque jamais changé. Pendant ce temps-là, l’algorithme ne cesse de se réinventer, oui ! Mais toujours en gravitant autour de ces fameuses Guidelines.
C’est bien simple…
Google veut présenter la meilleure réponse, lorsqu’un utilisateur fait une recherche.
Certes, parfois Google ira même jusqu’à garder tout son trafic, en présentant directement la réponse à une question dans son Moteur de résultat (via les Answer Boxes).
Mais Google n’est pas totalement pingre…
La preuve, c’est qu’au travers de Google Discover, Google envoie beaucoup de trafic de qualité aux meilleurs blogueurs, et ce, gratuitement.
En échange, tout ce qui nous est demandé est de créer de la valeur.
L’intention de Google est de récompenser la qualité et dans les faits, cela se vérifie de plus en plus.
Pour preuve…
Voyons les propos les plus récents que nous ayons trouvés de John Mueller, le porte-parole de Google

John Mueller, ingénieur et porte-parole Google Search, répond très souvent aux questions des éditeurs de sites Web, aussi bien sur Reddit, que sur Twitter et YouTube.
Récemment, sur Reddit, un référenceur s’est plaint d’avoir créé de bons backlinks, vers un jeune site, il y a un mois. Mais ce site n’aurait pas encore bénéficié d’un meilleur référencement suite à ces liens (une honte 😁).
Voici une compilation résumée des conseils de John Mueller, face à ce référenceur très énervé.
Premières réponses de John Mueller :
“Vous perdez votre temps” “vous ne travaillez pas sur ce qui est efficace en référencement. Laissez tomber les liens que vous créez sur n’importe quel site, c’est juste du spam. Tous les moteurs de recherche ignorent ce genre de choses depuis des années déjà.”
“Vous êtes trop concentré sur vos outils SEO” “pour les liens, chaque outil de référencement vous dira qu’un lien est indexé d’une manière différente, à des vitesses différentes, avec des hypothèses différentes. Même si vous pouvez voir un lien dans le cache de Google, cela ne veut pas dire que celui-ci est pris en compte par Google pour votre référencement”
“Jetez votre stratégie actuelle et concentrez-vous sur du long-terme, avec de vrais efforts” “même si, accidentellement, vous obteniez de bons résultats à court terme avec cette stratégie, cela risque de ne pas durer. Les moteurs de recherche sont maintenant habitués à reconnaître lorsqu’on ne fait aucun véritable effort, ou lorsqu’on fait de la mauvaise qualité, et ils n’ont aucun intérêt à dépenser de l’énergie là-dedans lorsqu’ils voient ça.”
“Je ne connais pas votre site” “mais tout ce que vous dites active chez moi un signal d’alerte affichant une volonté de faible effort/un site de mauvaise qualité. Peut-être que cela sera suffisant quelque temps, mais vous finirez par avoir des résultats aléatoires au fur et à mesure des mises à jour des moteurs de recherche”
“Peut-être que vous ne cherchez pas à avoir du succès sur le long terme” “Peut-être qu’obtenir du trafic rapide puis partir vous convient – c’est votre choix, tout le monde a aussi utilisé des hacks et des raccourcis dans le passé” “Mais si vous vous souciez du succès de ce site sur les moteurs de recherche, ou si vous voulez apprendre à travailler sur des sites légitimes sur le long terme, je vous recommande de ne pas passer trop de temps à manipuler votre netlinking avec des liens comme ceux-là”
— John Mueller sur Reddit.
Ensuite, John Mueller a complété sur Twitter…
“Je ne pense pas que ce site soit spammy” “c’est juste qu’au fil des années, nous avons mis la barre plus haut sur ce qu’est un contenu légitime. Créer du contenu ‘unique’ ne suffit plus”
— John Mueller sur Twitter.
Un peu plus tard dans la journée, toujours sur Twitter, un référenceur demande le meilleur moyen d’accélérer l’indexation de 26.000 pages soumises via un Sitemap XML.
Le référenceur :
“Actuellement, seulement 1.200 pages sont indexées sur 26.000”
John Mueller a donc répondu :
“Qu’est-ce qu’il y a sur ces 26.000 pages qui soit unique, convaincant et de grande valeur ?”
Réponse du référenceur :
“Il y a environ 6 pages de contenu pour chacun des 4.000 produits, avec du contenu unique. Ces pages Web contiennent des données boursières sous forme de tableaux qui sont quotidiennement actualisés de manière dynamique”
Réponse de John Mueller :
“Pour être honnête, cela ressemble à n’importe quel site d’actions boursières, avec du contenu généré automatiquement. Donc je peux imaginer que nos systèmes ne voient tout simplement pas l’intérêt de dépenser beaucoup d’énergie à tout indexer. Sur le long-terme, je conseille de se concentrer sur la création d’une valeur nettement plus élevée”
Réponse du référenceur :
“J’ai compris et je suis tout à fait d’accord avec ça. Donc, est-ce qu’un plan de site XML optimisé, des liens internes depuis le blog et des backlinks venant de blogueurs pourraient m’aider d’une manière ou d’une autre ? Devrais-je passer du temps à créer un Sitemap HTML, ou simplement attendre que Google prenne son temps pour indexer toutes mes pages ?”
Réponse finale de John Mueller :
“Rien de tout cela ne rendra votre site meilleur”
— John Mueller sur Twitter.
Au moins, ça a le mérite d’être clair 😉
Libre à chacun de douter de la parole de Google sur la manière dont fonctionne réellement son algorithme. Mais personne ne peut douter des intentions de Google sur sa volonté d’offrir un moteur de recherche efficace.
Nous n’avons que 24 heures dans une journée et nous ne pouvons pas nous dédoubler.
Donc, finalement, lorsqu’on démarre notre journée de travail, il convient simplement de choisir ce qui est le plus rentable pour nous…
- Trouver des raccourcis :
aller à la pêche aux Backlinks SEO (netlinking dont l’impact est souvent difficile à mesurer) ; actionner de nouveaux Hack SEO à la mode, etc. - Créer plus de valeur :
travailler sur la qualité de son site, son contenu ; offrir une meilleure expérience aux lecteurs ; se positionner sur de nouvelles requêtes ; pousser d’anciens contenus en complétant des pages existantes, etc.
Faites votre choix selon votre humeur.
De notre côté, en tout cas, la rédaction de ce long “Article FAQ” nous a confortés dans la deuxième voie.
À propos des auteurs
Ce nouveau guide de l’indexation Google a été rédigé à 4 mains par Mélanie Dorval et Nicolas Laruelle.

Mélanie Dorval
Directrice commerciale

Nicolas Laruelle
Directeur technique
FAQ sur les problèmes d’indexation Google

Mélanie Dorval est diplômée d’un Master en Communication réalisé à l’Université Catholique de Louvain-la-Neuve. Elle a d’abord passé 7 années à prendre soin des clients de l’agence digitale Kim Communication Limited, en tant que directrice commerciale de la société. Ensuite, l’agence ayant recentré ses activités sur l’Hébergement Web, Mélanie accepte de co-fonder EasyHoster, une jeune entreprise offrant des solutions d’hébergement innovantes. Aujourd’hui, elle se consacre à son développement et à la satisfaction de ses clients.
Nicolas Laruelle est entrepreneur sur Internet depuis octobre 2009. Il a réalisé ses études supérieures à la Haute École de la Province de Liège. Après 7 années de bons et loyaux services en tant que directeur technique de l’agence digitale Kim Communication Limited, il a officiellement fondé EasyHoser en février 2017. Cependant, il n’a réellement commencé à se concentrer sur ce projet qu’à partir de mars 2021. Depuis cette année 2021, EasyHoster s’est professionnalisé et a réalisé une grande campagne de prospection qui lui a permis d’atteindre la petite notoriété qu’on lui connaît aujourd’hui. EasyHoster est bien plus qu’un hébergeur !