En 2022, nous avons eu un client qui était placé aux positions les plus élevées pour beaucoup de mots qui les concernaient et badaboum d’un coup perte de positionnement.
Il n’a fallu que peu de temps pour qu’ils dégringolent au niveau de leur trafic.
Avez-vous déjà vécu cette expérience ? Si c’est le cas, vous saurez précisément ce que cela signifie.
La sensation dans votre ventre va de pair avec la nouvelle, c’est le choc ! En effet, vous savez de quel manière cela influencera votre travail et le rapport à votre client.
Une analyse a démontré ce qui avait provoqué cette chute de positionnement. Et nous souhaitions résoudre ce problème avant qu’il ne cause trop de dommages financiers.
Si vous êtes dans le référencement depuis longtemps, vous connaissez probablement ce qui se passe dans ce genre de situation.
Peu importe la raison pour laquelle votre site a reculé dans la liste de résultats des moteurs de recherche, contrer cette tendance nécessite un travail sur votre référencement naturel. Souvent, un minimum d’effort est suffisant, en particulier si votre site a été placé correctement depuis un certain temps sur les moteurs de recherche. Il est indispensable de trouver ce qui provoque cette baisse de visibilité des SERP’s afin de prendre les mesures nécessaires.
Dans ce scénario, nous n’avons pas eu besoin d’un détective pour savoir ce qui s’était passé.
Notre client nous avait demandé de faire le nécessaire pour les amener rapidement au meilleur positionnement dans Google. Le temps était compté, pas des mois, mais quelques semaines, et tout cela dans un créneau compétitif.
Quelles solutions appliquer et retrouver un bon classement dans Google
Il n’y avait qu’un seul moyen pour classer cette entreprise. Cela consistait à utiliser des tactiques de backlinks rapidement, même si c’était dangereux, cela a souvent réussi par le passé, du moins temporairement. Mais moins depuis que Google publie autant de mises à jour mensuelles.
Même si nous avions clairement décrit les risques, le client nous a dit de faire du grey hat. Donc c’est ce que nous avons fait.
Cependant, nous n’avons pas été étonné de constater que leur classement mondial était en chute libre. Notre client ne l’était pas non plus. Et il ne s’énervait pas parce que nous lui avions exposé les règles et les conséquences du jeu seo.
Par contre, il n’était pas très content de devoir tout recommencer du début. Finalement, ils avaient engrangé plus de revenus qu’ils n’en avaient dépensé. C’est ce que nous appelons un scénario de risque/profits, vis-à-vis d’une perte de positionnement très prévisible sur Google.
Malheureusement, la plupart des problèmes ne sont pas toujours aussi facilement diagnostiqués.
Tout au long de cet article, vous apprendrez quelques techniques permettant de diagnostiquer et d’évaluer la perte de positionnement.
De la même manière que la perte de trafic lorsque vous n’avez enfreint aucune des recommandations en la matière.
Consulter Google search console qui fournit une mine d’informations sur la perte de positionnement
Cela doit être le premier endroit ou vous devez regarder.
La console de recherche Google envoie des notifications push par courrier électronique pour de nombreux problèmes graves. Tels que le netlink spaming, les erreurs d’analyse et les problèmes de structures.
D’ailleurs, vous pouvez évaluer une quantité conséquente de données pour identifier d’autres problèmes moins visibles, mais potentiellement graves.
En conséquence cela permet d’avoir une vue d’ensemble pour vous orienter dans la bonne direction.
L’inspection des URL est un outil nécessaire pour analyser certains sites web. Par exemple, elle vous permet d’afficher des emplacements avec le “regard” du robot de Google.
Ceci est très utile lors de problèmes qui n’apparaissent pas visuellement sur un site. Mais qui causent des problèmes aux robots de Google.
C’est particulièrement indiqué pour identifier les problèmes qui affectent les sites Web inclus dans l’index de Google. Citons les erreurs de serveur ou les sites soumis mais contenant une métabalise no-index.
Allô Dr. Google, aidez-moi à fixer ce problème de positionnement !
De manière générale, vous comprendrez précisément pourquoi vous obtenez une terrible suspension manuelle. En fait, il s’agit le plus souvent d’une violation des règles de Google console.
En résumé, l’achat de liens ou la génération de contenus spammeurs de qualité médiocre.
Mais parfois, configurer un balisage de schéma peut être aussi simple que de créer une erreur innocente. Vous pouvez visiter la section Actions manuelles pour ces informations. Google vous informera par courrier électronique de toute sanction manuelle.
Google reconnaîtra sur votre site Web les problèmes de virus ou de logiciels malveillants dont il se soucie.
Aussi notons que l’absence de notification à ce sujet ne signifie pas qu’il n’y a pas de problème. Cela indique juste que Google ne le sait pas encore.
Vérifier les balises de votre site, comme robot.txt et les metatitle
Ceci est particulièrement fréquent lorsqu’un nouveau site Web est transféré d’une serveur de conception à un serveur actif. Même si la perte de positionnement peut arriver à tout moment.
Il n’est pas rare que quelqu’un clique dans la mauvaise zone de WP ou installe un plugin. En bref, cela entraîne la désindexation d’un ou de plusieurs sites Web.
Analysez les paramètres d’indexation de tous les plugins SEO que vous avez installés. Vous le trouverez dans l’assistant d’installation.
Vérifiez les paramètres de niveau de chaque section associés à l’indexation (Yoast). Cela se trouve généralement dans la zone d’édition des pages et articles.
Commencez par examiner en commençant par les urls dont le placement et le trafic sont descendu dans le positionnement.
Mais il est essentiel de prendre en compte tous les articles pour éviter que le problème ne s’aggrave.
Il est également important de vérifier le fichier robots.txt. Cela vous assure qu’il n’est pas édité de manière à bloquer les robots du moteur de recherche.
Un fichier correctement configuré robots.txt devrait ressembler à ceci:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /wp-admin/
Et d'autre part, un fichier robots.txt mal configuré peut ressembler à ceci: User-agent: *
Disallow: /
Vérifier que votre site ne se soit pas fait pirater
Lorsque la plupart des gens pensent au hacking, ils s’imaginent souvent de la fraude de données et ce à juste titre, mais rarement la perte de positionnement sur google.
Face à cela, vous pourriez penser que vous êtes à l’abri des tentatives de piratage informatique. Car ce type d’informations n’est pas stocké sur votre serveur. Malheureusement, c’est un peu plus compliqué.
Les pirates jouent en quelque sorte au loto, votre site est un numéro, donc un gain potentiel supplémentaire. Cela peut les aider à gagner le gros lot en attaquant vos visiteurs, donc de s’étendre à d’autres personnes.
Il peuvent propager des logiciels malveillants ou des virus informatiques en piratant votre site. Par conséquent tenter d’exploiter davantage d’ordinateurs. Par ce biais, trouver des données qu’ils recherchent grâce à vous, car votre site est un hôte de confiance pour les visiteurs.
Mais l’impact du piratage n’a pas de fin sur la perte de classement
Nous connaissons les backlinks sur et vers les sites web. Mais certaines personnes piratent et intègrent leurs backlinks sur différents sites et font du fishing.
Il faut dire aussi que les hackers prennent des mesures pour masquer ces liens. Par exemple en les plaçant dans des textes anciens ou même en utilisant CSS pour tenter de les masquer.
Sans parler des liens financiers, de contenus pourris, de virus et autres malwares. Par ailleurs un pirate informatique peut supprimer votre site ou propager des rumeurs, sans parler de la perte de positionnement google.
Les moteurs de recherche peuvent donc supprimer un site Web de l’index google.
Les mesures appropriées pour sécuriser votre site internet constituent la première action et la plus importante que vous devez suivre.
De nombreux hackers recherchent un objectif simple. Par conséquent, si vous les obligez à se retrousser les manches pour y arriver, ils passent généralement à l’objectif suivant.
Vous devez également vous assurer que le système antivirus et malware sous automatiquement mis à jour sur votre serveur.
En effet, la plupart des sociétés d’hébergement le font. Mais même dans ce cas, il est essentiel d’examiner votre blog de temps en temps pour vérifier les liens sortants.
Le logiciel Screaming Frog offre une solution simple en produisant les résultats sous forme de document CSV. Ensuite vous pouvez les parcourir rapidement pour faire un check de tout ce qui semble bizarre.
Si votre chute de classement est liée au piratage, il est évident que vous recevrez un e-mail de Google console. Et même si vous ne l’aviez pas remarqué avant pour vous-même.
La suite consiste à protéger votre site web et à corriger rapidement les problèmes. Vous pouvez demander un réexamen via la console de recherche Google si vous êtes certain que tout a été résolu.
Analyse des liens entrants
C’est un facteur important. Si les liens entrants créent une perte de votre positionnement et votre trafic, cela vient généralement de l’un des trois problèmes suivants.
- Réaction provoquée par des technique de création de liens non conformes aux consignes de Google console
- Une dépréciation ou une perte de liens
- Un accroissement significatif des liens vers des sites Web d’un ou de plusieurs concurrents.
Dans la plupart des cas, cela n’influencera pas votre classement immédiatement. En effet, les liens vont augmenter artificiellement votre classement avant d’être reconnus par google.
Ensuite google pénalisera votre site internet dans le résultats de recherche..
D’ailleurs, vous devez toujours créer de nouveaux liens de haute qualité conformes aux règles de Google. Par conséquent, c’est uniquement en faisant cela vous pourrez attendre des améliorations durables.
Une dévaluation montre que Google attache toujours moins d’importance à ces connexions uniques. Cependant, cela pourrait être une dévaluation algorithmique encore plus large.
Comme nous le voyons avec les liens de bas de page, qui sont aujourd’hui dévalués. Cela en raison du comportement des propriétaires de sites Web.
Pour prendre un autre exemple, un site web qu’on sait connu pour acheter ou vendre des liens pourrait être pénalisé. Donc rendant les liens de ce site moins important, voire inutiles.
Notons que l’augmentation des liens vers des sites concurrents confère à Google une plus grande influence pour votre site Web.
De nos jours, les algorithmes d’analyse de contenu de Google sont en constante évolution. Ainsi, ils connaissent 1 mise à jour mensuelle en moyenne.
Perte de classement, la qualité, encore plus de qualité
Nous nous souvenons d’une époque où nous pouvions produire beaucoup de pages de 400 mots de qualité médiocre. Toutefois, les résultats de recherche grimpaient vites et pour un assez longtemps.
Désormais, nous n’allons généralement pas jusqu’à la première page pour les sujets mainstream avec 400 mots. Dorénavant les recherches positionnent des pages de plus 1300 pages de mots occupant les premières place du classement.
D‘après des études ce facteur est important, mais ne doit pas être pris seul en considération. Mais cela va plus loin que cela, par exemple il y a la vitesse de chargement.
Le comptage de mots n’est qu’un élément clé, et en soi, cela ne veut pas dire grand-chose. En fait, au lieu de vous concentrer sur le nombre de mots, vous devez évaluer si votre contenu est intéressant.
Répond-il à toutes les questions courantes sur le sujet. Autrement dit plus en profondeur que le contenu des sites web de vos concurrents ?
En guise de conclusion, est-ce exceptionnel, original et utile à lire ?
Pour aller plus loin : Refonte web et référencement, les pièges