Comprendre enfin ce qu’est le SEO ou optimisation du référencement naturel

Le terme anglais “SEO” pour “Search Engine Optimization” sert à désigner l’ensemble des techniques permettant d’optimiser le positionnement de chacune des pages d’un site dans les résultats de recherche d’un moteur de recherche relativement à certaines requêtes.

Ce terme est souvent incorrectement traduit en français par “référencement” là où on devrait parler “d’optimisation du référencement naturel” ou encore mieux “optimisation du classement de nos pages dans les résultats de recherche (SERP) naturels des moteurs de recherche par rapport à des requêtes précises”… Mais ce serait un peu long 😉

Pour bien comprendre ce qu’est le SEO, il faut avant tout avoir une idée précise du fonctionnement et des objectifs d’un moteur de recherche et également comprendre ce qu’est un site web.

Un moteur de recherche est un programme qui permet à des utilisateurs de faire des recherches sur Internet et dont l’objectif premier est de fournir la meilleure réponse pour chaque recherche de chaque utilisateur.

La grande difficulté pour les moteurs de recherche réside dans le fait que chaque utilisateur est différent et qu’il est donc impossible de fournir immédiatement “la” meilleure réponse pour chaque recherche de chaque utilisateur puisque le moteur de recherche doit constamment “deviner” quelle est la réponse optimale à fournir à l’utilisateur.

Les moteurs de recherche comme Google par exemple dépensent des milliards chaque année pour fournir des réponses toujours plus pertinentes aux utilisateurs. Voyons immédiatement comment ils procèdent dans le détail.

 

L’index des moteurs de recherche

Le premier pilier fondateur d’un moteur de recherche est son index. L’index d’un moteur de recherche, c’est la liste de toutes les ressources web que le moteur de recherche connait. En effet, pour fournir la meilleure réponse aux utilisateurs, il faut déjà que le moteur de recherche dispose de réponses potentielles.

Par “ressource”, j’entends ici tout ce qui possède une adresse web à soi. Les ressources incluent donc les pages web, les images, vidéos, documents pdf, etc.

Avoir un index fourni est donc l’un des objectifs premiers des moteurs de recherche puisque plus le moteur de recherche connait de ressources, meilleure sera sa chance de posséder les ressources répondant le mieux aux recherches des utilisateurs.

Comment un moteur de recherche construit-il son index ? Chaque moteur de recherche possède des petits logiciels qu’on appelle des robots d’indexation ou “web crawler” ou encore “web spider” en anglais.

Ces programmes explorent le web en se déplaçant grâce aux liens hypertextes qu’ils vont trouver sur les ressources explorées et vont renvoyer les ressources collectées au moteur de recherche auquel ils appartiennent afin que celui-ci les indexe.

Note : dans certains cas, ce sont les propriétaires de sites qui envoient eux-mêmes des plans de leur site (“sitemap”) aux moteurs de recherche afin d’être certains que les moteurs de recherche indexent bien et rapidement leurs contenus.

 

L’algorithme de recherche

L’utilisateur effectue une recherche en utilisant un moteur de recherche (on dit aussi qu’il effectue une requête). Le moteur de recherche reçoit la requête et dispose d’une multitude de ressources dans son index. Comment alors choisir la ressource qui répondra le mieux à la requête de l’utilisateur ?

Pour cela, les moteurs de recherche utilisent différents algorithmes de tri qu’on appellera également des algorithmes de classement. Un algorithme, dans notre contexte, est un programme qui effectue une suite d’opérations pour résoudre un problème.

Les moteurs de recherche vont utiliser différents algorithmes pour déterminer quel est le meilleur résultat à renvoyer à chaque utilisateur pour une requête en particulier.

La qualité des résultats renvoyés aux utilisateurs dépend directement de la qualité de ces algorithmes de classement. On comprend donc l’importance de ces programmes pour chaque moteur de recherche.

Vous pouvez par ailleurs noter que Google n’est devenu Google que grâce à la qualité de son algorithme de recherche qui était à l’époque révolutionnaire par rapport aux solutions existantes.

Lorsqu’un utilisateur effectue une requête dans un moteur de recherche, l’algorithme se met en route et sélectionne les résultats les plus pertinents selon lui à présenter à l’utilisateur en les ordonnant.

 

Et donc, c’est quoi le SEO au final ?

Le SEO est donc un terme qui sert à signer l’ensemble des techniques qu’on va pouvoir mettre en oeuvre pour que nos ressources soient sélectionnées par les algorithmes des moteurs de recherche qui nous intéressent (Google concrètement) et présentées avant celles d’autres sites pour certaines recherches ciblées dans la liste des résultats naturels.

Notez bien dans la phrase précédente les mots “ressources” et “recherches” car j’entends bien trop souvent parler “d’optimiser un site dans Google” ce qui n’a aucun sens en soi : on va toujours optimiser une ressource (une page web généralement mais cela peut également être une vidéo, une image ou un fichier pdf par exemple) PAR RAPPORT A une recherche spécifique.

En effet, si on possède un site de cours de programmation, cela ne nous intéresse pas et ça ne ferait aucun sens que nos ressources apparaissent dans les résultats des utilisateurs qui recherchent “comment s’inscrire à Toulon Triathlon” par exemple.

Notez également les termes « résultats naturels » : en SEO, nous allons toujours nous focaliser uniquement sur les résultats de recherche naturels, c’est-à-dire exclure les résultats payants de type annonces qui ne font pas partie du SEO mais du SEA (pour Search Engine Advertising).

 

Comment faire pour optimiser mon référencement en pratique ?

Résumons ce qu’on a dit jusque là. Le but principal des moteurs de recherche est de répondre au mieux aux requêtes des utilisateurs. Pour cela, les moteurs de recherche utilisent des algorithmes très complexes qui vont analyser la requête de l’utilisateur et sélectionner dans l’index du moteur de recherche les ressources qui vont répondre au mieux à cette requête.

En tant que responsable SEO, notre objectif est donc clair : faire en sorte que nos ressources soient sélectionnées par ces fameux algorithmes et qu’elles soient considérées comme des réponses meilleures que les autres pour les requêtes qui nous intéressent.

Pour faire cela, il faut donc avoir la meilleure connaissance et la meilleure compréhension possible des algorithmes de classement et disposer également des qualités nécessaires pour intervenir sur les ressources pour qu’elles soient davantage appréciées par ces algorithmes.

Ce qui fait toute la difficulté et ce qui rend à la fois le métier de SEO passionnant est que personne ne sait exactement comment fonctionne l’algorithme de Google aujourd’hui et qu’ainsi ce métier inclut une grand part de tests et tâtonnements.

En effet, les algorithmes de classement ne cessent de se perfectionner et de se complexifier chaque jour et utilisent aujourd’hui des intelligence artificielles et du machine learning ce qui fait que même les ingénieurs de chez Google travaillant dessus ne savent pas exactement comment ils fonctionnent.

Aujourd’hui, on sait que l’algorithme de Google utilise plus de 300 critères de classement et on est plus ou moins capable d’établir la liste de ces critères.

Ce qui fait la difficulté du métier de responsable SEO est que chaque critère va avoir une pondération (une importance) différente en fonction de chaque recherche et en fonction d’autres facteurs externes.

Prenons ici un exemple simple pour illustrer : essayez de taper la recette d’un plat comme “pizza” par exemple. Si vous tapez “pizza” à midi, par exemple, Google va certainement vous proposer une carte avec différentes adresses de restaurant. Si vous effectuez la même recherche à 15h, Google va vous proposer des recettes de pizza à faire à la maison.

Dans ce cas précis, le facteur “heure de la journée” influe énormément sur les résultats renvoyés. Cependant, cela ne va certainement pas être le cas si vous effectuez une recherche du type “cours html” par exemple.

Outre cela, il faut savoir que le classement de vos pages pour une même requête est sans cesse recalculé en fonction de différents critères comme la performance de vos pages. Par exemple, imaginons que Google classe une de vos pages en première position pour une certaine requête et que 100 utilisateurs tapent cette requête exacte dans la journée.

Google va analyser combien d’utilisateurs vont effectivement cliquer sur votre page, le temps qu’ils vont passer sur la page, quel pourcentage va revenir immédiatement dans la SERP (la page de résultats de Google) pour chercher un autre résultat et etc. Et va se servir de ces indicateurs de performance pour recalculer constamment le score final de votre page afin de toujours essayer de présenter les résultats avec la meilleure performance en premier.

 

White Hat vs Black Hat vs Grey hat

“Faire du SEO” correspond à employer un ensemble de techniques pour faire en sorte que nos pages répondent mieux aux critères des algorithmes de classement des moteurs de recherche par rapport à certaines requêtes et qu’elles apparaissent donc in fine plus haut dans les résultats de recherche (c’est-à-dire qu’elles soient mieux classées).

Ces techniques et la façon donc on va les mettre en place peuvent être classées en trois catégories : il y a ce qui est officiellement autorisé par les moteurs de recherche, ce qui est officiellement interdit et pénalisante et ce qui n’est ni officiellement autorisé, ni officiellement interdit.

On parle de “white hat SEO” lorsqu’on emploie des techniques autorisées dans un cadre autorisé, de “black Hat SEO” lorsqu’on utilise des techniques ou des procédés non autorisés et de “grey Hat SEO” lorsqu’on utilise des techniques et des procédés autour desquels il y a un flou législatif.

Bien souvent, une technique ne va pas être “white hat” ou “black hat” en soi mais c’est la façon donc on va la mettre en place / utiliser cette technique qui va pouvoir rendre l’opération “white” ou “black”.

Par exemple, on a le droit d’optimiser son contenu pour qu’il réponde mieux à une requête et c’est même encouragé par Google. En revanche, on n’a pas le droit de faire du “keyword stuffing”, c’est-à-dire de placer une densité non naturelle de mot clef dans notre contenu. Si on fait cela, notre page risque d’être pénalisée par Google.

De même, plus une page possède de liens externes naturels et contextualisés, c’est-à-dire plus il y a de pages parlant de la même thématique qui font des liens vers cette première page, plus la page en question est appréciée par Google. L’idée sous jacente est que si des personnes font des liens vers cette page, c’est que son contenu est forcément de qualité.

Pendant des années, certaines personnes ont abusé ce système en créant des réseaux de sites avec des liens non naturels donc pour booster le référencement de leurs pages. Aujourd’hui, Google arrive très bien à détecter cela et les sites en question ne font durement pénaliser.

L’idée grosso-modo est donc qu’il était à l’origine beaucoup plus profitable de tricher en utilisant des techniques black hat car le classement des pages était très rapidement booster et car les moteurs de recherche comme Google n’était pas suffisamment puissants pour détecter les fraudes.

Aujourd’hui, c’est beaucoup moins vrai car les algorithmes de Google sont aujourd’hui très puissants et car les critères de classement s’orientent de plus en plus vers le contenu et la satisfaction réelle des utilisateurs visitant les pages.

Il est donc aujourd’hui tout à fait possible d’être bien classé en n’utilisant que du white hat SEO et, dans tous les cas, les techniques de détection des tricheurs de Google se perfectionnent de jour en jour et l’utilisation de black hat n’est donc pas un plan valable dans la durée.

 

Conclusion : définition du SEO

Faire du SEO, c’est utiliser un éventail de techniques pour que les ressources d’un site soient mieux classées à un temps T+1 qu’à un temps T dans les résultats de recherche (SERP) des moteurs de recherche pour un mot clef (une requête) ou un ensemble de mots clefs (un ensemble de requêtes).

Pour faire cela, on va faire en sorte que nos pages répondent mieux aux critères des algorithmes de classement des moteurs de recherche (et de Google en particulier). Ces critères de classement sont nombreux et variés; il en existe plus de 300 pour Google par exemple.

Ils vont chacun avoir un poids ou une importance différence dans le classement de chaque page et cette importance va elle même être déterminée par un ensemble d’autres critères : la requête en soi, qui effectue la requête, l’heure et le lieu à laquelle elle est effectuée, etc.

Le SEO ou optimisation du référencement naturel doit toujours être envisagé sur la durée : il va en effet être finale de modifier nos pages afin qu’elles répondent immédiatement mieux à certains critères mais il va falloir beaucoup de temps pour influer sur d’autres critères.

Pour effacer ce facteur temps, certaines personnes ont trouvé des techniques pour améliorer de manière artificielle la concordance de leur page à certains critères. Ces techniques, non naturelles, sont pour la plupart officiellement proscrites par Google et on les désigne par le terme “black hat”. Aujourd’hui, Google est très fort pour identifier les “tricheurs” et il est donc fortement conseillé de ne pas utiliser de techniques interdites.

Rappelez vous que le but des moteurs de recherche est de présenter les meilleurs résultats pour leurs utilisateurs. C’est la raison pour laquelle les moteurs de recherche essaient d’identifier le contenu qui va le mieux satisfaire chaque utilisateur et c’est donc pourquoi toutes les optimisations sur vos pages et sites devraient être “naturelles”.

Laisser un commentaire