Les résultats naturels
et le fonctionnement
des moteurs de recherche
et le fonctionnement
des moteurs de recherche
Et comment faire pour positionner vos pages
Les résultats naturels et le référencement
Le terme marketing « résultat naturel » est employé quand un site ou une page web est présent et positionné « naturellement » dans les pages de résultats d’un moteur de recherche. Ces résultats sont issus d’un index dans lequel les pages web d’un site sont répertoriées.
Par exemple, lorsqu’un internaute lance une requête, le moteur de recherche Google va proposer des résultats de recherche que ses algorithmes auront jugés comme étant pertinents selon de nombreux critères. En général, chaque page de la SERP contient une dizaine de résultats organiques. Le bon positionnement d’un site est obtenu par un travail d’optimisation en référencement naturel qui répond aux exigences de Google mais qui doit également répondre aux besoins des internautes.
Les résultats naturels obtenus grâce au SEO (Search Engine Optimization) sont différents des résultats issus des liens commerciaux obtenus grâce au SEA (référencement payant). L’outil Google Ads (anciennement Google Adwords) permet à un site de se positionner au-dessus des résultats de recherche naturels de recherche en créant des campagnes publicitaires sur des mots-clés pertinents et concurrentiels qui seront saisis dans une requête.
Les résultats naturels, le meilleur levier d’acquisition de trafic sur le web ?
Le canal qui reste le plus important en termes d’acquisition de trafic est celui du Search. La présence de Google en France et en Europe n’est plus à prouver (plus de 90% des recherches). Il existe cependant d’autres moteurs de recherche comme Bing Yahoo et Qwant.
Dans le monde, sa position n’est pas affirmée. Par exemple, en Chine, c’est le moteur de recherche Baidu qui est le plus utilisé. En Russie, il s’agit de Yandex. Une entreprise qui souhaite développer son activité et augmenter son trafic ou son chiffre d’affaire, devra travailler son référencement naturel selon les critères de pertinence exigés par chacun d’entre eux. Fondamentalement, la science qui se cache derrière ces moteurs de recherche est la même, il s’agit de la recherche d’informations qu’on appelle aussi « Information Retrieval ». Il s’agit d’une technique de l’information et de la communication. Cela consiste à explorer des documents dans une base de données et d’en récupérer des informations qui seront indexées et serviront à répondre au mieux, à des questions posées par un utilisateur en suscitant une interaction avec ce dernier afin d’être de plus en plus précis dans les réponses apportées. Toutefois, on note que de petites différences résident dans le fonctionnement des algorithmes utilisés par chacun des moteurs de recherche.
Certains critères propres au SEO comme la pertinence, la qualité et la fraîcheur du contenu restent les plus importants. Il est indispensable de penser à une stratégie marketing éditoriale qui permettra à nos clients de trouver ce qu’ils recherchent, avant de penser à une optimisation sémantique pour les robots.
Comment fonctionne le moteur de recherche Google pour faire apparaître les résultats naturels ?
Comment Google fait-il pour donner des résultats cohérents à une requête ?
Il s’agit d’un processus qui se fait en 4 étapes :
- Les google bots explorent toutes les pages du web
Chaque moteur de recherche a son robot d’indexation : Bingbot, Yahoo slurp et Google Bot pour Bing, Yahoo et Google. Un robot d’indexation (on lui donne également le nom de crawler, spider ou Bot) explore le web et suit, de manière aléatoire, tous les liens présents sur la toile pour récupérer des informations.
Il analyse la structure du site, le maillage interne et le contenu : fichiers HTML (balises), CSS et Javascript, les photos, les vidéos, les pdf. Il crawle toutes les pages web qui sont sur Internet et simule la navigation d’un utilisateur lambda. Le propriétaire d’un site peut également fournir un fichier sitemap.xml, c’est à dire un inventaire des urls présentes sur son site. Les robots Google disposent de ce qu’on appelle un « budget crawl », c’est-à-dire qu’ils crawlent un certain nombre de pages en un temps imparti. Il est important de prendre en compte cette notion car un site qui contient des milliers de pages, va prioriser le crawl sur ses pages les plus importantes. Pour information, Google crawle 20 milliards de site par jour.
- Google indexe toutes les pages crawlées dans une base de données.
La deuxième étape consiste à extraire tous les liens et à indexer toutes les pages, toutes les données et les contenus qui ont été crawlés par les Google Bots dans un index.
Toutes les pages d’un site web ne seront pas forcément indexées par Googlebot. Plusieurs raisons peuvent empêcher l’indexation d’une page :
- Le budget crawl est insuffisant
- Pas de lien vers la page
- L’url n’est pas présente dans un sitemap
- L’url est en erreur 404, la page demandée n’existe pas
- La page présente un contenu dupliqué
- L’url est en no-index, elle ne doit pas être indexée par le moteur de recherche
- Certaines urls sont bloquées par un fichier robots.txt
- La page ne répond pas aux critères de pertinence Google
Pour que vos pages soient indexées :
- Les url 404 doivent être corrigées pour économiser le « budget crawl »
- Optimiser le maillage interne de votre site
- Vérifier le fichier robot.txt et les pages qui ne doivent pas être indexées
- Optimiser la profondeur de vos pages (3 à 4 clics à partir de la page d’accueil)
- Eviter le contenu dupliqué
- Evaluation de la pertinence des pages web
A chaque requête formulée par un utilisateur, chaque page indexée est analysée et comparée à d’autres pages de l’index afin de proposer les meilleures réponses aux internautes, par ordre de classement.
Attention, la pertinence sémantique n’est pas le seul critère retenu par Google. En plus des critères techniques importants dans le SEO qui permettent à votre site d’être crawlé et indexé, Google prend en compte l’autorité de votre site.
Il est ainsi important de travailler le netlinking pour répartir l’autorité entre vos pages mais aussi de chercher des liens externes, plus connus sous le nom de backlinks ou de liens entrants. Ces liens entrants doivent être issus de sites qui sont dans le même domaine d’activité et qui ont une certaine popularité (recevant eux aussi des liens d’autres sites) et possédant une autorité suffisante. En effet, certains sites sont peu recommandables ou n’inspirent pas confiance par rapport au contenu qu’ils diffusent ou à leur activité (comme le spamming par exemple).
- L’affichage des résultats naturels dans la SERP.
La quatrième et dernière étape est celle qui consiste à afficher les résultats de recherche.
Cette étape peut paraître simple, il s’agit pourtant d’un aspect qui a beaucoup évolué. La SERP a en effet beaucoup changé. Simple liste à ses débuts, elle a intégré de nombreux éléments au fil des années visant à apporter des résultats plus pertinents. Certaines recherches vont ainsi inclure des images, des vidéos ou un encart avec une définition ou encore une fiche comme c’est le cas pour les recettes de cuisine.
L’utilisation du mobile a impliqué un usage plus important des assistants vocaux. Dans ce cas, le résultat donné est unique. Google a donc mis en place un système de réponse ne proposant qu’un seul résultat naturel quand la SERP en propose plusieurs.
Le SEO n’est donc pas une pratique installée définitivement. Les usages changent en fonction des évolutions technologiques des moteurs de recherche, et en particulier en fonction de celles de Google.
En Conclusion
Pour apparaître sur les résultats naturels, il faut donc bien maitriser les étapes par lesquelles Google passent pour organiser toutes les informations du web et les faire apparaître.
La modification ou la mise à jour d’un algorithme peut avoir des conséquences importantes la position naturelle d’un site.
N’hésitez pas à entrer en contact avec une agence SEO qui pourra vous aiguiller sur les bonnes pratiques pour vous rendre visible.
Profitez de l’expertise de notre agence web à Paris.
Découvrez nos autres agences :
Un Consultant Senior dédié
1 outil unique au monde
17 années d’existence
+ de 1.000 sites optimisés
+100 experts
10 chercheurs
Analyse et suivi de positionnement
Prestations de référencement
Le référencement géolocalisé
Analyser les résultats de votre stratégie
Les formations au référencement
Les techniques SEO
La rédaction web
La curation de contenu
Visibilité et positionnement sur Google
Analyse de contenu
Trafic SEO
KPI SEO
Optimisations techniques
Référencement local
Stratégie web
Stratégie SEO
Free Monitor for Google
Suivi SEO
Analyse de log
Les outils Google
Google analytics
Les liens profonds
Le maillage sémantique