Découvrir les algorithmes de Google les plus important
Afin de comprendre ce qu’est un algorithme de Google, voyons d’abord ce que sont les algorithmes en général. La définition standard est la suivante : un ensemble de règles permettant de résoudre un problème en un nombre fini d’étapes.
Les algorithmes de Google sont un système complexe utilisé pour récupérer les données de son index de recherche et fournir instantanément les meilleurs résultats possibles pour une requête.
L’ordre des sites web qui découle d’une requête par mots-clés dans Google n’est pas le fait du hasard. Il dépend d’une série d’algorithmes mis en place par la firme. Ce sont ceux-ci qui déterminent le positionnement des sites web et blogs sur la page de résultat.
Comprendre le fonctionnement de Google et de ses algorithmes permet :
- D’améliorer la pertinence de ses contenus.
- De mieux réagir aux modifications des règles.
- D’augmenter son trafic.
Les algorithmes de Google déterminent l’ensemble des critères et facteurs de référencement que doivent respecter les sites web pour se positionner en ligne et obtenir du trafic. L’algorithme qui a fait la pertinence de Google à ses débuts est le Pagerank, concept développé par ses fondateurs.
Table des matières
Qu’est-ce qu’un algorithme pour un moteur de recherche ?
Il peut être comparé à un traitement mathématique qui s’applique aux pages du web. Ce sont des formules créées par les équipes de la firme Google. Elles permettent d’identifier quels sont les sites détenant des informations à la fois pertinentes et de bonne qualité.
Ce sont eux qui permettent ou non à une page d’être facilement trouvée par les internautes. Des mises à jour sont faites régulièrement en raison des évolutions de comportement des internautes sur le web. Cela se traduit par l’ajout de nouveaux ou par une révision de ceux existants. Le résultat des requêtes peut alors être sensiblement modifiés ; on appelle ça l’effet « Google Dance ».
Quels sont les éléments ciblés par les algorithmes de Google ?
Google n’utilise pas un seul et unique algorithme mais plusieurs. Leur rôle est de classer les sites web en fonction de la qualité de leur contenu mais aussi de leur structure et vitesse d’affichage. Pour ce qui concerne le contenu, ils vont s’assurer que le site internet ne contient pas de texte copié d’autres sources (duplicate content). De même, un site ou un blog doit être optimisé pour les équipements mobiles (smartphone, tablettes) avec une vitesse rapide d’affichage.
Qu’est ce que les Google Updates ?
Une mise à jour de Google (Google Update) se produit lorsque Google apporte des changements importants et vastes à son algorithme et à ses systèmes de moteur de recherche. Ces mises à jour visent à améliorer l’expérience de recherche des utilisateurs, en fournissant un contenu plus pertinent, plus utile et plus fiable.
Google apporte des modifications mineures tout au long de l’année à ses divers algorithmes.
En général, les mises à jour de base ont lieu plusieurs fois par an et font l’objet d’une confirmation de la part de Google.
Quels sont les principaux algorithmes historiques de Google ?
Depuis 2010, la firme Google a lancé différents algorithmes dont le rôle est généralement spécifique. Voici les plus importants, ainsi que leurs caractéristiques.
L’algorithme historique de Google : le Pagerank
Le PageRank est la technologie utilisée par Google pour évaluer l’importance et la qualité d’une page web. Il s’agit de l’une des variables utilisées par Google pour déterminer la place qu’occupera votre site dans les pages de résultats des moteurs de recherche (SERP).
Le PageRank d’un site web est représenté par un nombre de un à dix. Plus le chiffre est élevé, plus le site web est important.
L’algorithme exact qui est utilisé pour calculer le PageRank est tenu secret par Google. L’algorithme est constamment amélioré grâce à de nouvelles fonctionnalités et de nouveaux critères d’analyse du contenu.
Système d’indexation : Caffeine
Date de déploiement : juin 2010
Caffeine a permis à Google d’indexer les pages de façon instantanée. Il s’agit là d’une vaste refonte dans le système d’indexation des pages. Depuis le déploiement de Caffeine, les résultats peuvent prendre en compte des articles et du contenu 50% plus récents qu’auparavant.
Contenus de faible qualité : Panda
Date de déploiement : février 2011
L’algorithme Panda et ses pénalités sont introduits par Google dans le but de lutter contre les sites web créés à des fins de spam. Il s’agit d’un filtre de recherche qui pénalise les sites et blogs de faible qualité. Le tout premier déploiement de Panda a généré un impact majeur, avec une altération de 12% des SERP rien qu’aux Etats-Unis.
Depuis, il est régulièrement mis à jour sans avertissement, ce qui permet aux sites internet ayant été précédemment pénalisés de retrouver une meilleure place, suite aux modifications apportées.
Lutte contre les excès de publicité : Top Heavy
Date de déploiement : janvier 2012
La firme a également décidé de pénaliser les sites web présentant une charge de publicités anormale. Top Heavy a donc pour but de déceler les sites concernés et les pénalise au niveau SEO. Cependant, le déploiement de Top Heavy n’a eu d’impact que sur 1% des sites.
Les réseaux de liens : Pingouin / Penguin
Date de déploiement : avril 2012
Il s’agit là d’un algorithme très largement commenté sur internet, et particulièrement craint par les webmasters Black Hat. Penguin a pour but principal de pénaliser le référencement natureldes sites qui ne respectent pas les recommandations et directives en terme d’achat, de création ou de réseaux de liens. Tous les liens à caractère litigieux doivent être supprimés. Le fait est que cette tâche nécessite un travail assidu qui s’étire parfois sur plusieurs mois ou années. Les webmasters le craignent donc car il implique un travail parfois important et incertain pour sortir d’une pénalité.
En revanche, Penguin est désormais ajouté à l’algorithme principal de Google, ce qui permet d’obtenir un changement immédiat pour la récupération du SEO.
Luttre contre la violation des droits d’auteur et le téléchargement illégal : Pirate
Date de déploiement : août 2012
Ce filtre de recherche fait disparaître les pages web proposant du téléchargement illégal, qu’il s’agisse de musique, de films ou de séries. Il permet ainsi de lutter contre les violations de droits d’auteur. Il est régulièrement mis à jour.
Référencement du nom de domaine : Google EMD (Exact Match Domain)
Date de déploiement : septembre 2012
Beaucoup de sites internet choisissent un nom de domaine assez pauvre qualitativement. De cette façon, ils veulent augmenter leur chance d’être bien référencés dans Google, selon les recherches effectuées par les internautes.
Pour autant, certains webmasters n’ont pas hésité à créer des noms de domaines optimisés pour améliorer leur référencement naturel, et ceci en dépit du fait que le nom de domaine et le contenu du site ne coïncident pas. En réponse à ce phénomène, Google a donc déployé l’algorithme EMD, afin de pénaliser les sites incriminés.
Traitement du spam : Payday Loan
Date de déploiement : juin 2013
Le rôle de l’algorithme Payday Loan est de supprimer les résultats liés à des recherches assimilables à du spam. Il permet ainsi d’améliorer la qualité des pages de façon générale. Par spam, on désigne par exemple le contenu pour adultes, les articles de contrefaçon, les crédits ou encore les sites de jeux en ligne.
Pour une meilleure compréhension des requêtes : le colibri /Hummingbird
Date de déploiement : septembre 2013
Voici l’un des algorithmes les plus importants que Google ait créé, de part l’impact qu’il opère sur la façon d’effectuer les recherches. En intégrant l’algorithme Hummingbird (colibri), Google peut désormais mieux comprendre les recherches des internautes dans leur ensemble, en tenant compte de tous les termes dans leur intégralité.
S’agissant donc d’une recherche de meilleure qualité, les réponses le sont tout autant. Auparavant, il n’était pas possible de soumettre une recherche précise. Aujourd’hui, une requête peut prendre la forme d’une phrase complète ou d’une question. Google peut ensuite proposer des résultats pertinents.
Des résultats coordonnés avec la localisation : Pigeon
Date de déploiement : juillet 2014
Grâce à Pigeon, les recherches effectuées privilégient les résultats de proximité. Ainsi, les utilisateurs peuvent connaître les solutions proches de leur domicile. Il s’applique aussi bien sur le moteur de recherche que sur Google Maps. L’impact est particulièrement important pour les sociétés locales (secteur commercial, restauration, prestataires de service, etc).
Certificat de sécurité : Google HTTPS
Date de déploiement : août 2014
Avec lui, Google apporte une expérience de navigation sécurisée aux internautes. Il est basé sur le protocole de sécurité HTTPS, lequel est généralisé dès 2017. Dès lors, tous les sites internet non conformes sont présentés comme « non sécurisé » sur les navigateurs internet.
Optimisation mobile : Mobile Friendly
Date de déploiement : avril 2015
Il s’agit d’un autre algorithme ayant eu un impact considérable sur le SEO des pages web. Avec la démocratisation de l’utilisation des smartphones et tablettes, la firme a déployé le Mobile Friendly.
Il vérifie que le site web soit également compatible avec les appareils mobiles, et tient compte de cet élément pour le résultat du référencement naturel. Ces critères se sont renforcés avec l’introduction de l’index mobile first.
Pour une bonne qualité de contenus : Google Phantom
Date de déploiement : mai 2015
Sa particularité réside dans le fait qu’il a été déployé en secret par Google. Beaucoup de webmaster s’étant rendu compte de changements majeurs dans les SERPs, ils se sont tournés vers les équipes qualité de Google. Ils nient tout d’abord, puis confirment au bout de quelques semaines avoir déployé une mise à jour. Baptisée par la communauté web Phantom, elle est renommée « Quality » par Google. Sa mission principale est, à l’identique de Panda, d’améliorer la qualité des publications des sites web et de lutter contre le spam en pénalisant les sites porteurs de contenus médiocre.
En complément de l’algorithme Hummingbird : Rankbrain
Date de déploiement : octobre 2015
Avec Rankbrain, Google avance vers le déploiement de l’intelligence artificielle. Il a la particularité de pouvoir comprendre le sens de plusieurs requêtes formulées de façon différente.
Les réponses apportées à deux recherches rédigées différemment sont donc au final très similaires. Il complète ou prolonge les capacités propres à Hummingbird. Aujourd’hui, Google considère que Rankbrain est dans le top 3 des facteurs de référencement les plus importants (en complément des liens et de la qualité des contenus).
Le fonctionnement de Rankbrain est assez particulier. Il s’effectue principalement hors ligne. Au fil du temps, Google l’alimente avec des fichiers de recherches anciennes. De cette façon, cet outil parvient à faire des prédictions. Une fois celles-ci dûment testées, elles sont alors intégrées pour une application dans le moteur de recherche.
Qualité des pages satellites : l’algorithme Satellite
Déploiement : mai 2015
Certains sites possèdent des pages dites satellites, avec du contenu de faible qualité. Avec lui, Google identifie les sites concernés et les pénalise. Il détecte les textes dupliqués ou à faible valeur.
Association avec la publicité : Google Publicité interstitielle intrusive
Déploiement : janvier 2017
Google veille encore plus à la qualité des sites en déployant cet algorithme qui détecte les bannières interstitielles et pop-up. Une initiative qui améliore la qualité de lecture du contenu web, avec une action page par page.
Surveillance globale de la qualité : Google Fred
Déploiement : mars 2017
Si il existe bien, son but précis reste un réel mystère. Il serait une combinaison sophistiquée du Panda et du Pingouin, pouvant possiblement lutter contre les sites de faible qualité, sans contenu optimisé ou créés avec le seul but de faire de la monétisation.
Quelles sont les critères clés pour plaire aux algorithmes ?
Une fois la requête lancée dans le moteur de recherche, les sites affichés dans les différents blocs sont le résultat de nombreux critères définis par le moteur de recherches. Voici les 8 leviers élémentaires pour donner un maximum de chance au site d’obtenir un bon référencement :
Le contenu du site
C’est une priorité, l’internaute doit pouvoir retrouver de façon précise la réponse à sa requête. Il est donc primordial que le contenu du site soit de haute qualité et pertinent, agrémenté de contenus multimédias.
Placement de liens éditoriaux
Des liens doivent être judicieusement placés dans le contenu des pages. Il faut en intégrer un nombre raisonnable et que les liens aient du sens pour les internautes et pour Google. Eviter le maillage interne et externe sans valeur ajoutée.
Une bonne expérience utilisateur
Si l’utilisateur passe du temps sur le site internet, il y a de fortes chances que ce dernier corresponde bien à ses besoins. En revanche, en cas de fort taux de rebond, le webmaster prend le risque de voir son positionnement se dégrader. En effet, une visite rapide sur un site peut signifier que l’internaute n’est pas satisfait par le contenu.
Un choix de mots-clés judicieux
L’utilisation de mots-clés adéquats améliore le taux de clic ainsi que le positionnement et la pertinence du trafic. D’ou l’importance d’utiliser les bons mots clés et de travailler la sémantique en utilisant tous les termes encadrants au mieux ces mots clés et thématiques.
Un nom de domaine de qualité
Google veille à ce que le nom de domaine soit cohérent avec le contenu du site. C’est un critère de qualité essentiel, qui peut donner un meilleur positionnement aux pages.
Un site réactif et adapté aux supports mobiles
Le temps de chargement des pages web doit être rapide, et la version du site doit être optimisée pour les tablettes et smartphones. Pour Google, ce sont les éléments garants d’une bonne expérience utilisateur.
Crawl
Le site doit être accessible par des liens HTML et contenir du texte, de sorte à pouvoir être accessible à Google (le crawl). Le site doit être rapide et bien structuré pour permettre à Google de découvrir les pages les plus importantes de votre site.
Conclusion sur les algos de Google
Il faut garder à l’esprit que les classements Google peut être totalement personnalisé. En fonction du lieu, de l’horaire, du type de support et de l’historique de recherches, les sites affichés peuvent varier.
Derrière un résultat de recherche sur le moteur de Google, de nombreux facteurs et algorithmes sont en action en continu. Il est important de garder ces éléments à l’esprit lors de la création d’un blog ou d’un site web. Si la liste des algorithmes ci-dessus est non exhaustive, elle révèle les liviers principaux qui amènent Google à bien référencer ou à pénaliser certains sites web.
La compréhension des facteurs recherchés par le moteur de recherche a une importance majeure pour transformer Google en outil de visibilité et de création de trafic ciblé.
A lire également
Avez vous aimé cet article ?
Cliquez sur les étoiles pour donner une note
Note moyenne 4.9 / 5. Nombre de votes : 15
Pas de votes pour le moment, soyez le premier à voter.