Sommaire
Pourquoi le référencement naturel sur Google compte toujours en 2020 ?
Les 5 premiers résultats de la SERP représentent 75% des clics
Pour illustrer l’importance d’un bon référencement de son site web notamment sur Google, une étude réalisée par l’agence iProspect fin 2018 – portant sur un échantillon de 7,6 millions de requêtes FR – est sans équivoque : pour les sites marchands (dont l’objectif principal est la transaction) les 3 premiers résultats sur une recherche représentent en moyenne entre 54 à 60% du total des clics. Si on élargit l’analyse aux 5 premiers résultats : on obtient un taux de clic autour des 75%. Pour les sites médias (actualités et information) : les 3 premiers résultats représentent entre 65 à 74% des clics. Les 5 premiers entre 78% à 89%.
Autre résultat intéressant qui ressort de l’étude : en 2018, le taux de clics pour les sites marchands en deuxième page des résultats Google n’est que de 3,8% sur mobile et 7,3% sur Desktop.
Avec de tels chiffres, on comprend pourquoi l’objectif d’être bien positionné en première page sur des mots-clés stratégiques pour son entreprise est essentiel.
Le triangle d’or de la visibilité
On entend aussi parfois parler du fameux triangle d’or. Initialement révélé par la société Inquiro en 2005 (l’information date un peu mais a été confirmé à de nombreuses reprises par des études plus récentes), se cache sous cette appellation la zone des résultats de recherche Google où les gens regardent avant de cliquer. L’étude met ainsi en avant par eye-tracking un taux de visibilité dans la SERP. Même si, depuis, l’aspect des résultats de recherche a évolué (et le parcours visuel des internautes s’est adapté) la notion de triangle d’or reste un repère à garder en tête.

Etudier la SERP pour apprécier la compréhension de votre site par Google
Première étape pour savoir comment améliorer son positionnement sur les moteurs de recherche : étudier la façon dont les robots d’indexation comprennent vos pages. Dit comme cela, on pourrait penser qu’il s’agit d’une évidence. Et pourtant, nombreux sont les webmasters que je vois encore plonger la tête la première dans des optimisations techniques ciblées, sans avoir pris la peine d’analyser véritablement la perception globale de leur site par les moteurs.
L’algorithme de classement défini par Google analyse et recoupe plusieurs centaines de facteurs (si ce n’est plus) et décide in fine de vous positionner dans ses résultats devant tel acteur et derrière tel autre. Observer quelles sont les URL indexées de votre site et la nature des résultats face à vos mots-clés – marque et thématiques – permet déjà de se faire une idée plus précise de la compréhension macroscopique de votre site par Google.
Il n’est pas rare à ce stade de voir ressortir des incohérences qui devront faire l’objet d’investigations plus poussées (site absent sur le nom de la marque, URL qui ressort sur un mot clé thématique qui n’est pas celle que l’on pensait avoir optimisé pour, etc.)
Vérifier que votre site soit accessible pour Google
L’indexation est la première étape de votre référencement : si les moteurs ne trouvent pas vos pages ou ne sont pas en mesure de les indexer correctement, alors vous réduisez considérablement vos chances de gagner du trafic.
Plusieurs éléments peuvent conduire Google à ne pas indexer vos pages : certaines sont peut être orphelines, c’est à dire qu’elles ne sont pas reliées aux autres pages de votre site. Les robots qui vont crawler vos pages, découvrent leur existence car elles sont reliées entre-elles ou indiquées dans un fichier Sitemap qui lui est fourni. Dans le cas contraire, les pages orphelines resteront invisibles et ne seront pas ajoutées à l’index des résultats du moteur.
Autre cas possible représentant un frein à l’indexation : vos pages sont déclarées en “noindex”. Enfin, l’accès à certaines pages peut également être restreint par le fichier Robots.txt situé à la racine du site. Autant de facteurs bloquants pour votre indexation qu’il s’agit d’identifier et corriger si nécessaire.
Identifier et lever les freins techniques
Une fois que vous avez vérifier que vos pages sont bien accessibles aux moteurs, il est temps d’étudier la composition de votre site en détail.
Pages en erreur
Les erreurs peuvent être de plusieurs types, les plus connues étant les fameuses erreurs 404. Réaliser un crawl de votre site permettra de les identifier et de les traiter comme il se doit : la plupart du temps en réactivant le contenu en erreur à l’URL indiquée, ou en mettant en place une redirection entre l’URL en erreur et une URL proche, puis en mettant à jour les liens internes qui conduisent à l’URL en erreur.
Redirections
Au sein de votre site peut exister des redirections. Plusieurs codes HTTP indiquent que vous avez des URL dans ce cas : 301, 302, 303… Une fois ces redirections identifiées, vous devez établir la liste des liens qui en sont la cause et les corriger pour qu’ils renseignent les URL définitives (i.e. non redirigées).
Contenus dupliqués
Parfois non désiré et généré par l’outil utilisé pour construire et administrer le site, le contenu dupliqué est un véritable ennemi pour votre référencement. En plus d’être un frein au positionnement de vos pages (les moteurs doivent arbitrer entre plusieurs URL et ne sont pas capables de déterminer quelle est la plus pertinente pour être positionnée face au mot-clé ciblé), la présence de contenu dupliqué envoie à Google un signal de mauvaise qualité. L’un des filtres du moteur, baptisé Panda, est particulièrement sensible à ce phénomène et peut dans les cas les plus extrêmes vous entraîner dans une pénalité.

Données structurées
Des données structurées en erreur ou incomplètes peuvent perturber la lecture de votre contenu par les moteurs. Identifier et corriger les pages qui retournent un code HTML erroné en la matière, fournira à Google des micro données représentatives qui lui permettront de mieux comprendre vos pages et leur donner une meilleure visibilité en les intégrant dans ses résultats enrichis (fil d’ariane, avis et notations, prix, disponibilité d’un produit ou d’un service, carrousel, etc.)
Je ne vous ai cité là que quelques exemples. D’autres facteurs techniques peuvent influer sur la qualité de votre référencement. Aussi, je vous conseille d’opter pour un audit technique complet si vous voulez avoir un plan d’action précis à dérouler pour optimiser votre site.
Améliorer le temps de chargement des pages
La vitesse de chargement d’un site est un critère de performance clé pour les moteurs de recherche.
En plus d’envoyer un signal de mauvaise qualité technique, si vos pages mettent du temps à charger, les visiteurs seront plus enclins à quitter votre site via un phénomène dit de pogo-sticking (le retour-arrière depuis un clic sur les liens bleus des résultats Google). Il est donc essentiel d’optimiser la configuration de votre serveur et/ou de votre applicatif (CMS) pour minifier/compresser les ressources chargées sur vos pages, mettre en place un système de cache. Il peut-être aussi parfois utile de carrément changer d’offre d’hébergement pour réduire le time to first byte (ttfb) et la qualité de service globale.
Besoin d’une aide professionnelle pour identifier les optimisations nécessaires à l’amélioration de votre référencement naturel ? Un audit SEO peut vous aider à y voir plus clair et définir un plan d’action adapté à votre site. Un investissement rentable qui vous évitera de passer à côté d’un point technique essentiel pour votre visibilité.
Améliorer l’expérience utilisateur (UX)
Une fois que tous les points techniques ont été analysés, il est temps de se pencher sur la vision de votre site côté utilisateur (et pas uniquement moteur de recherche). Car négliger le comportement de vos visiteurs dans vos chantiers d’optimisation peut être contre-productif pour votre référencement. En effet, les moteurs semblent attacher de plus en plus d’importance au facteur humain (et c’est tant mieux !) Je vais donc évoquer quelques axes de travail qui peuvent vous aider à faire la différence et contribuer à améliorer votre visibilité organique.
La compatibilité mobile
En 2019 plus que jamais, il est important d’avoir un site responsive. C’est à dire adapté pour la navigation sur support mobile (smartphones et tablettes). Google a par ailleurs décidé de changer la base d’analyse de son algorithme en prenant en compte la vue mobile de votre site plutôt que la vue desktop. C’est ce qu’on appelle l’index mobile-first. Ce point est crucial car les visites mobiles représentent aujourd’hui une part importante du volume total des visites sur Google.
Le mobile est devenu le premier écran de connexion au Web en 2018.
Selon une étude récente réalisée par Médiamétrie et publiée en février 2019 : le mobile est devenu le premier écran de connexion au Web en 2018, comptant 34 millions de mobinautes par jour. Autre point intéressant ressortant de l’étude : l’émergence de la tendance “mobile-only” qui fait état d’une connexion quotidienne exclusive sur mobile, notamment auprès des plus jeunes (6 sur 10 des 15-24 ans accèdent au Web chaque jour uniquement via leur smartphone).
Permettre aux internautes d’avoir une navigation optimale quel que soit leur support de connexion améliore l’expérience et donc le référencement qui découle des signaux associés (comme le taux de rebond par exemple).

Navigation et conversion
Un site pensé pour l’utilisateur mais mal référencé est aussi utile qu’un site optimisé pour les moteurs et illisible pour l’humain.
Améliorer l’expérience utilisateur c’est aussi penser à mettre en place une navigation efficace : limiter la profondeur de vos contenus, ne pas rendre accessibles à plus de 3 clics les pages qui convertissent… autant d’éléments à prendre en compte pour faire évoluer votre site et satisfaire vos visiteurs.
N’oubliez pas que le référencement permet de découvrir vos pages. Une fois sur l’une d’elles, l’internaute doit être convaincu d’y rester et de poursuivre sa navigation sans revenir sur les autres résultats de sa recherche initiale. Un site pensé pour l’utilisateur mais mal référencé est aussi utile qu’un site optimisé pour les moteurs et illisible pour l’humain. Il faut parfois arbitrer entre ces deux visions extrêmes pour définir le juste milieu efficace.
Cibler les bonnes intentions de recherche (mots-clés) et optimiser vos contenus
Le contenu représente le tissu vivant de votre site. Sans lui, n’espérez pas obtenir un positionnement en première page des résultats des moteurs sur des requêtes stratégiques (du moins sur le long terme). On peut trier le contenu suivant les objectifs qu’il poursuit : être visible sur de la recherche locale, se positionner sur des mots-clés thématiques, développer son image de marque pour améliorer son taux de conversion… Autant de perspectives qui deviennent très limitées si votre contenu est faible (en quantité) voire inexistant, trop erratique et/ou ne répond pas aux problématiques des internautes.
C’est là que l’étude sémantique entre en jeu pour étudier et trier les intentions de recherche. L’idée étant d’en retenir les plus pertinentes pour améliorer votre visibilité. Son objectif ? Prioriser les problématiques saisies sur Google dont les volumes de recherche sont conséquents, sans que la concurrence organique ne soit trop élevée. Une fois ces mots-clés identifiés, vous pouvez planifier l’optimisation de vos pages déjà indexées et la production de nouveaux contenus ciblés.
La structure de l’information : les plans de page
Autre élément important pour l’optimisation de vos pages : les balises Hn. Du H1 au H6, ces balises HTML permettent de structurer l’information et de la rendre lisible (à la fois pour l’humain et les moteurs de recherche). Des plans de page clairs et complets améliorent la compréhension de vos contenus. Ne les négligez pas !
Soignez vos accroches (titres et méta descriptions)
Les titres représentent le point d’entrée visible de vos pages dans les résultats de recherche. Une accroche qui se doit d’être percutante, attractive et représentative du contenu proposé. Les balises Title peuvent ainsi inclure des mots-clés et un début de réponse à la problématique de l’internaute, ce qui est essentiel pour augmenter votre taux de clic et envoyer un signal de qualité aux moteurs.
En complément des titres, les méta descriptions permettent d’inciter les visiteurs à en savoir plus sur la réponse que votre contenu leur propose. Vous devez soigner chaque méta description pour convaincre de cliquer sur votre résultat de recherche plutôt que celui du voisin. Même s’il ne s’agit pas d’un critère direct pour votre positionnement (Google ne vous donnera pas de “bonus” pour votre classement si vos méta sont bien renseignées), améliorer votre taux de clic en rédigeant des descriptions efficaces ne pourra que conforter Google dans l’idée que votre contenu est pertinent et “mérite” d’être positionné.
Développer votre notoriété sur Internet
Le Netlinking
Vous devez voir votre site dans la continuité des autres qui partagent les mêmes thématiques.
Une fois votre socle technique et vos contenus optimisés, l’heure est à la mise en place d’une stratégie d’acquisition de lien (et pas uniquement via les annuaires !) Cette étape de diffusion de vos contenus – que l’on nomme dans le jargon SEO – Netlinking, permet de partager au delà de votre nom de domaine les pages que vous souhaitez positionner dans les résultats de recherche. Vous devez voir votre site dans la continuité des autres qui partagent les mêmes thématiques. C’est précisément comme cela que Google évalue la transmission de popularité (au delà de l’idée qu’il peut se faire d’un site en particulier). Les liens sont essentiels à la découverte et à la compréhension des pages. Aussi, ils permettent aux moteurs de “qualifier” une popularité. Retenez l’idée suivante : si une page placée sur un site – ayant acquis une popularité aux yeux de Google – fait un lien vers l’une de vos pages, alors Google transmet à cette dernière une partie de sa popularité. Cette évaluation continue influence les résultats de recherche, valorisant les pages les plus populaires au détriment de celles qui le sont moins.
Attention : si à l’inverse, une de vos pages reçoit des liens en masse de domaines dont Google n’a pas une “bonne opinion” (spam, PBN mal conçus, sites piratés, etc.) alors votre page sera elle-même limitée dans son positionnement (les cas les plus graves pouvant aller jusqu’à entraîner une pénalité manuelle).
Les réseaux sociaux
Créer des pages sociales et des liens croisés avec votre site est complémentaire au SEO : en plus de développer votre netlinking, vous touchez ainsi de nouvelles plates-formes et donc de nouveaux internautes aux profils différents. Facebook, Twitter, LinkedIn, Instagram, Pinterest, YouTube… n’en négligez aucune mais priorisez le travail sur celles où se trouvent vos cibles. Mettre en place un plan de communication sur les réseaux sociaux (pour promouvoir vos contenus) va vous aider à développer votre visibilité.
Mettre en place un process d’optimisation en continu
Voilà, vous savez à présent comment améliorer la visibilité naturelle de votre site sur Internet : technique, contenu et popularité. On en revient donc sans surprise à cette fameuse triptyque du référencement.
Pour conclure, le dernier conseil que je peux vous donner est peut-être le plus important : mettez en place un processus itératif dans lequel vous analysez, testez (optimisez) puis évaluez les effets sur votre visibilité. Précisément car le référencement n’est pas une action ponctuelle mais bien un travail de long terme, d’autant plus que les intentions de recherche, votre concurrence organique et les algorithmes des moteurs évoluent en permanence. Dans ce cadre, un reporting et suivi régulier des indicateurs SEO (trafic, positionnement, popularité) couplé à la mise en place planifiée et continue d’actions spécifiques (optimisation et production de contenus, netlinking) permettra de voir les effets positifs sur votre visibilité s’inscrire dans le temps. Et c’est ce que vous souhaitez, n’est-ce pas ?
Sur ce les amis, je vous souhaite le meilleur référencement qui soit. A vous de jouer !