Etre premier sur Google et y rester Nous créons une stratégie SEO gagnante de A à Z. Je veux améliorer ma visibilité
Temps de lecture : 30 minutes
5
(50)

Comment référencer son site avec le référencement naturel ?

Qu'est ce que le référencement naturel sur Google

Table des matières

Définition du SEO (Search Engine Optimization)

Le référencement naturel, aussi appelé SEO (Search Engine Optimization), fait référence à toutes les actions d’optimisation d’un site internet dans le but d’améliorer le positionnement et la visibilité d’un site web, de ses pages et de ses médias (images, vidéos) dans les résultats organiques des moteurs de recherche, principalement Google.

Il vise à accroître la visibilité du site pour des requêtes pertinentes et à générer en quantité un trafic ciblé non rémunéré (appelé résultats “naturels” ou “organiques”).

L’ensemble des actions d’optimisation visent à comprendre le fonctionnement des algorithmes et critères de classement afin de positionner le site premier.

Au-delà des objectifs de classement en premier et de génération de visites, il a pour autre objectif d’améliorer l’UX et la conversion du site. C’est pourquoi la discipline est associée à des termes comme SXO, CRO…

Ce guide du débutant vous permettra de mieux comprendre comment référencer votre site en première position et augmenter votre chiffre d’affaire en actionnant les principaux leviers : technique, contenu, popularité (création de liens entrants), expérience utilisateur…

Référencement naturel et payant (SEA)

Quelle est la différence entre référencement naturel et payant ?

Le référencement naturel agit sur les résultats organiques des moteurs de recherche. Le payant, appelé aussi SEA, désigne la publicité des régies publicitaires comme Google Ads (Adwords).

Beaucoup d’entreprises se demandent si faut mieux investir sur des campagnes de référencement payant ou naturel ?

Combiner campagnes les 2 est souvent une solution gagnante pour décupler l’exposition d’un site et augmenter les taux de conversion.

 SEASEO
Générer du trafic pertinentXX
Nécessite la mise en place d'une stratégieXX
Nécessite des compétencesXX
Vous payez pour chaque clicX
Vous obtenez des résultats immédiatsX
Vous gardez des bénéfices si vous stoppez les dépensesX

Pourquoi faire du SEO ?

Pourquoi faire du référencement naturel ?

Il est pour beaucoup de business une source de chiffre d’affaire importante, avec un haut taux de retour sur investissement comparé aux autres médias et leviers publicitaires. Les avantages du SEO sont nombreux pour une entreprise, quels que soient sa taille, son positionnement commercial et sa position géographique.

Quelques statistiques :

  • 93 % de toutes les activités en ligne commencent par la recherche.
  • 81 % des consommateurs commencent à chercher avant de faire un achat important.
  • Le trafic organique est 5,66 fois supérieur à celui des annonces payantes.

Les avantages :

  • C’est une source primaire de prospects.
  • Il aide à gagner des parts de marché.
  • Il renforce la crédibilité de la marque.
  • Il aide à établir la notoriété et la réputation d’une marque.
  • Il aide à obtenir un trafic de qualité sur votre site web.
  • Il permet d’améliorer l’expérience de l’utilisateur sur votre site.
  • Il génère des taux de conversion plus élevés.
  • Il améliore indirectement la vitesse des sites web.
  • C’est une stratégie marketing dont on peut tirer des bénéfices sur le long terme.
  • Il crée une synergie avec toutes les activités de marketing.

Malheureusement de nombreuses confusions et légendes entourent le métier de référenceur. Il est donc primordial d’en comprendre les subtilités afin de mieux évaluer les stratégies proposées et de mettre en place ce levier de croissance.

Quel est le prix des prestations de consulting et d’accompagnement ?

Quel est le prix du SEO ?

Lorsque l’on souhaite déployer une stratégie de référencement naturel et faire appel à des prestations de consulting et conseils SEO spécialisées, au-delà des avantages visés, la question du coût se pose rapidement, surtout lorsque l’on souhaite s’attacher les services de professionnels du secteur (freelance ou agence).

Face aux nombres d’offres proposées, des différentes prestations et tarifications, il est difficile pour un profane de faire facilement le tri entre les propositions sérieuses, les arnaques et pire, les prestations pouvant mettre en danger votre site.

C’est une discipline qui répond à des codes, des pratiques bien établies et connues. Méfiez-vous donc des vendeurs de rêves et des prestataires qui vous promettent des solutions secrètes.

Comme dans tout métier, faire appel à des professionnels à un coût proportionnel à ses qualifications. Même réalisé seul, le référencement n’est pas gratuit, un certain nombre d’investissements sont nécessaires (rédaction, netlinking, optimisation du site, temps…).

Voici quelques tarifs pour vous donner une idée :

PrestationTarif indicatif
Tarif horaire SEOEntre 80 et 200 euros
Tarif journalierEntre 300 et 1000 euros.
AuditEntre 500 et 10 000 euros
Optimisations techniquesEntre 500 et 10 000 euros
Lien forumEnviron 15 euros
Lien annuaire qualitatifEnviron 30 euros
Lien qualitatifEntre 100 et 500 euros
Lien premiumA partir de 500 euros
Rédacteur low cost20 euros / 1000 mots
Rédacteur moyen50 euros / 1000 mots
Rédacteur premium100 euros / 1000 mots

Grâce à ces bases, vous serez plus à même d’évaluer si les propositions qui vous sont faites entrent dans les normes, ou sont totalement fantaisistes.

Comment faire du bon SEO ?

Comprendre le SEO et Google

Google est le moteur de recherche numéro 1 dans le monde. Même si des alternatives existent, il domine avec plus de 92 % de part de marché dans le monde. S’y référencer est donc devenu un objectif et une nécessité pour beaucoup d’éditeurs.

Il a désormais plus de 20 ans, son histoire est aussi longue que celle de son logo. Ceux qui ont commencé le référencement dans les années 2000 comme nous, l’on vu évolué et ont du adapter leurs pratiques pour continuer à positionner des pages en tête.

Comprendre le fonctionnent du SEO et d’un moteur de recherche est primordial pour lui fournir ce qu’il veut. Quels sont les critères évalués ? Mon site mérite-t-il d’être premier ?

Les Guidelines

Les Guidelines de Google sont des recommandations et règles établies à destination des webmasters et référenceurs. Le souhait du moteur de recherche tourne autour de 2 axes, proposer des résultats fiables aux internautes, et qu’ils ne soient pas spammés par des sites utilisant des techniques qu’il juge abusives.

Il donne donc des recommandations sur la façon de construire un site qualitatif orienté vers les internautes qui sera également facile à explorer et indexer par ses spiders.

Il établit également ses règles et les sanctions qui peuvent subvenir si elles ne sont pas respectées. Des sanctions plus ou moins lourdes peuvent toucher un site, la plus radicale étant l’exclusion totale de son index.

Il est donc primordial de respecter les bonnes pratiques et de prendre des risques maitrisés afin de ne pas pénaliser un travail de référencent par une pénalité.

Les algorithmes

Les robots explorent le web en suivant les liens de page en page et de site en site. Les contenus explorés sont analysés et affichés ensuite dans les résultats en fonction de critères de pertinences évalués par les algorithmes. Ils sont nombreux et évoluent dans le temps. Des noms d’animaux sont donnés la plupart du temps à ces algorithmes.

Les critères de classement et les facultés techniques évoluent dans le temps. Les progrès technologiques, la puissance de calcule croissante et l’arrivée de l’intelligence artificielle ont fait évoluer la pertinence des informations proposées et obliger les éditeurs de sites à s’y adapter. Les méthodes évoluent en fonction de ces changements.

Afin de les rendre toujours plus pertinents, l’intelligence artificielle et le machine learning ont fait leur apparition en 2015 avec Rankbrain.

Par le passé le moteur faisait correspondre les contenus contenant des mots clés précis à une requête formulée. Aujourd’hui, grâce à son apprentissage de l’univers sémantique de chaque requête, Rankbrain est capable de soumettre un résultat pertinent en devinant le sens et l’intention de l’internaute.

Les principaux algorithmes à connaitre sont ceux-ci :

  • Panda (Février 2011)
  • Penguin (avril 2012)
  • Hummingbird (Aout 2013)
  • Mobile (Avril 2015)
  • RankBrain (Octobre 2015)
  • Medic (mai 2018)
  • Bert (Octobre 2019)
  • Core Updates (depuis 2017)

Combien de temps faut-il pour référencer un site ?

Parmi les questions les plus souvent posées, connaitre la durée pour se référencer sur Google est en tête. Développer les actions prend du temps, surtout pour un nouveau site, et beaucoup de clients se demandent à juste titre, combien de temps il faudra attendre pour avoir les premiers retours sur investissement.

Il n’y a pas de réponses toutes faites à cette question. Généralement il faut 6 mois à 1 an pour mesurer à leur juste valeur les actions déployées.

Si votre site est ancien, bénéficie déjà d’une notoriété importante, cela peut être plus rapides.

Les actions de vos concurrents entrent également dans l’équation, comme la difficulté des requêtes visées.

Age moyen des pages présentes en première page de Google selon une étude Ahrefs

Le Black Hat

Le référencement black hat

Le référencement black hat nourrit beaucoup de fantasmes. Même si certaines pratiques peuvent être illégales lorsqu’elles s’apparentent à du piratage informatique, la plupart des référenceurs au chapeau noir n’utilisent simplement des techniques pour gagner du temps et exploiter les failles de Google (réseaux de sites, génération automatique de textes…)

Exploiter les failles algorithmiques et jouer au chat et à la souris avec lui n’a rien d’illégal. Le seul problème serait d’ordre déontologique, si de telles méthodes étaient utilisaient à l’insu d’un client, risquant pour lui de se voir attribuer des pénalités.

Nombre d’actions considérées comme black hat par le passé sont entrées totalement dans les mœurs des actions white hat.

Il est également possible que des concurrents peu scrupuleux cherchent à nuire à votre site via différentes actions. Appelé négative SEO il a pour but de discréditer votre site aux yeux de Google afin de leurs faire perdre des positions au profit de vos challengers.

Les principales techniques Black Hat sont :

  • Textes généré/dupliqué automatiquement /cachés.
  • Pages satellites.
  • Cloaking.
  • Achat de liens payants (largement répandu en White Hat).
  • Utilisation abusive de données structurées.
  • Redirections trompeuses / Cloaking.
  • Négative SEO contre les concurrents.

Comment référencer son site internet ?

Comment améliorer le référencement naturel de son site sur Google ?

Améliorer la visibilité de son site nécessite d’effectuer un certain nombre d’optimisations et de travailler sur 3 sphères essentielles : la  technique, le contenu, la popularité.

L’importance de l’audit SEO

Il s’agit essentiellement d’un « bilan de santé » de votre site web. Avant tout, un audit doit être complet. Il doit couvrir à la fois les éléments structurels et de contenu qui affectent votre succès.

L’audit doit fournir une vue d’ensemble de la situation actuelle du site. Tout élément manquant pourrait donner lieu à des recommandations inutiles ou inappropriées.

Les recommandations d’un audit doivent pouvoir être mises en œuvre et priorisées selon les objectifs à court, moyen et long terme.

L’audit aborde les points suivant :

  • L’analyse de la concurrence
  • L’analyse des mots-clés
  • Les contenus
  • Exploration du site et indexation
  • Architecture et accessibilité
  • Netlinking

Les critères pour positionner un site premier sur Google

Vous pouvez accéder à la première page et vous référencer premier sur Google en apportant des modifications à votre site.

Ces différentes actions ont pour objectif de rentre votre site intéressant et de coller au plus près des exigences de ses algorithmes complexes.

Bien que rien ne puisse garantir qu’un site sera listé sur la première place, le travail d’un référenceur professionnel peut contribuer à améliorer à augmenter le nombre de visiteurs sur votre site.

Il utilise, selon le chiffre souvent annoncé, plus de 200 facteurs différents pour classer un site. Personne ne sait réellement et peu importe la précision de ce chiffre. L’ampleur de ce chiffre est encore intimidante.

Tous ces facteurs n’ont pas la même importance. Certains sont incontournables, mais d’autres ont des répercussions faibles. Nombre d’entre eux ne sont même pas directement influençables.

Avec la liste des facteurs les plus importants, il est plus facile de comprendre ce que le moteur de recherche attend et de se focaliser sur les leviers qui généreront les retours les plus rapides.

Les principaux facteurs :

  • Le contenu : balise title, sémantique… (50%)
  • La popularité : Les liens externes reçus et maillage interne entre les pages du site. (50%)
  • La technique : avoir un site assez rapide et indexable par les robots. (Malus si défaillant)

Qu’est-ce que la position zéro ?

La position zéro est l’information que Google affiche en tête. La position zéro est également appelée « featured snippet ». C’est un extrait qui répond directement à une requête de l’internaute.

La position zéro s’affiche au-dessus du premier résultat et s’affiche différemment.

Comme l’explique Google à propos des extraits en vedettes : « Ce qui est différent avec un extrait vedette, c’est qu’il est amélioré pour attirer l’attention de l’utilisateur sur la page de résultats ».

Les extraits présentées sont de toutes formes et de toutes tailles :

  • Paragraphes
  • Listes à puces
  • Listes numérotées
  • Vidéos YouTube
  • Images
  • Graphiques
  • Tableaux

Les bénéfices potentiels d’un extrait en vedette sont :

  • Plus de clics.
  • Plus grande visibilité dans la SERP.
  • Augmentation de votre crédibilité.

Le référencement d’un point de vue technique

Le SEO technique

La vitesse de chargement d’un site et son influence

La vitesse de chargement d’un site a un impact direct sur l’expérience et la conversion, mais aussi indirectement sur le référencement. Un site lent peut empêcher les bots d’analyser votre site aussi longuement que prévu. Cependant un site doit vraiment avoir un problème de vitesse majeur pour que cela lui nuise. Inutile de tomber dans l’excès inverse et de vouloir obtenir des scores de vitesses parfaits aux différentes solutions de tests.

Un site avec une vitesse se situant dans la moyenne ne se verra pas impacté.

Par contre l’optimisation des performances aura un impact direct sur l’UX et le taux de transformation, particulièrement en e-commerce.

Il existe de nombreux logiciels pour mesurer les performances d’un site et obtenir des recommandations sur les améliorations à apporter.

L’influence du Sitemap.xml

Un sitemap est un fichier dans lequel vous pouvez lister les pages de votre site pour indiquer l’organisation de votre site. Les robots comme Googlebot lisent ce fichier pour explorer votre site de manière plus intelligente.

Les sitemaps leurs indiquent ce que vous avez sur vos sites afin qu’ils puissent le trouver plus facilement et la date de sa dernière mise à jour.

Google affirme que les sitemaps sont utiles pour :

  • Les sites web avec beaucoup de pages.
  • Les sites web avec beaucoup de pages qui ne sont pas bien liés.
  • Les nouveaux sites web.
  • Ceux avec des rich media.

Comment Google indexe-t-il un site ?

Schéma explicatif issu d'un brevet déposé par Google Inc

Google trouve, analyse et propose l’url d’un site dans leurs résultats en effectuant 3 phases.

  • Crawler le site : les bots parcourent internet en examinant le code de chaque URL qu’ils trouvent.
  • L’indexer : stocker et organiser les informations trouvées pendant le processus de crawling s’appelle l’indexation. Une fois qu’une URL se trouve dans l’index, elle peut être affichée.
  • Le proposer : fournir les éléments qui répondront le mieux aux recheches d’un internaute en les classant du plus pertinent au moins pertinent.

La notion de crawl budget

Statistiques d'exploration de googlebot issues de la Search Console

Le crawl budget est un terme pour décrire le fonctionnement que les moteurs adoptent pour décider combien d’URL, et lesquelles, doivent être explorées à chaque période. Il s’agit essentiellement de l’attention qu’ils accordent à un site web.

Les moteurs qui n’ont pas des ressources illimitées répartissent leur attention de manière différente selon les cibles et leur importance. Ils ont donc besoin d’un moyen de hiérarchiser leur effort de crawling. L’attribution d’un budget d’exploration à chaque site web les aide à y parvenir.

Vous pouvez intervenir sur votre site pour que les ressources allouées soient utilisées au mieux sur vos URLs les plus stratégiques et non sur celles sans intérêts.

  • Améliorer la vitesse du site.
  • Soigner la rédaction.
  • Eviter le duplicate content.
  • Optimiser le maillage interne.
  • Réduire les erreurs d’exploration (erreurs 50X et 40X).
  • Augmenter l’importance des pages.
  • Ne faire explorer que les URLs canoniques.
  • Eviter les redirections en chaines.

La gestion des erreurs 404

Le déclencheur typique d’un message d’erreur 404 est la suppression ou le déplacement d’une page du site vers une autre URL. Il existe également d’autres raisons pour lesquelles un message d’erreur 404 peut apparaître.

Parmi celles-ci, on peut citer :

  • L’URL a été supprimé ou déplacé sans modification des liens internes en conséquence.
  • L’URL a été mal écrite pendant le processus de création ou de refonte,
  • Les liens sont incorrects ou l’adresse n’a pas été correctement saisie dans le navigateur.
  • Le serveur responsable du site ne fonctionne pas ou la connexion est interrompue.
  • Le nom de domaine demandé ne peut pas être converti en IP par le système de noms de domaine (DNS).
  • Le nom de domaine saisi n’existe pas ou plus.

L’importance du fichier robot.txt

Les éditeurs l’utilisent pour donner des instructions sur leur site aux bots, c’est ce qu’on appelle le protocole d’exclusion des robots.

Le fichier robots.txt est principalement utilisé pour spécifier quelles parties de votre site doivent être explorées par les robots d’exploration. Il peut spécifier différentes règles pour différents bots. Ils peuvent l’ignorer.

Les informations de ce fichier sont accessibles au public. Vous pouvez tenter de bannir les bots indésirables en modifiant le fichier .htaccess associé à votre site.

Les fichiers Robots.txt sont utiles si vous souhaitez que les moteurs de recherche n’indexent pas :

  • Les pages dupliquées ou brisées sur votre site web.
  • Les pages de résultats de recherche interne.
  • Certaines parties de votre site web ou un domaine entier.
  • Certains fichiers sur votre site web.
  • Les pages de connexion.

Voici les principales directives pour autoriser ou interdire les crawlers de Google.

Les principales directives du robot.txt pour Google

L’analyse de logs

Exemple du contenu d'un fichier log

L’important pour un référenceur est de savoir précisément ce que GoogleBot fait sur votre site. La principale tâche du spider lorsqu’ils entrent sur un site est de parcourir un nombre d’URLs déterminées en fonction du budget d’exploration du site. Après l’exploration, ils enregistrent les données qu’ils ont explorées dans une base de données.

Bien comprendre les mouvements des robots sur votre site est important pour améliorer le volet technique sur votre site.

L’analyse des fichiers de logs est le processus qui consiste à télécharger les fichiers logs d’un serveur et à les analyser à l’aide d’un outil d’analyse.

Elle aide les référenceurs à trouver d’importants problèmes techniques qui ne peuvent être trouvés d’aucune autre manière.

Les données des fichiers logs sont utiles, car elles nous permettent de comprendre comment les bots se déplacent et quelles informations spécifiques ils stockent dans leur base de données.

L’analyse des logs sert principalement à :

  • Connaitre le nombre de visites d’un site web.
  • Connaitre la fréquence d’exploration de Google.
  • Identifier les erreurs d’explorations des spiders.
  • Identifier les pages les plus actives.
  • Comprendre l’utilisation du budget de crawl.
  • Suivre les dates d’exploration de Googlebot.

Les redirections 301 et 302

Les redirections sont souvent utilisées en référencement pour une multitude de raisons diverses suivant les usages et situations rencontrées (refonte, migration, changement de nom de domaine, suppression…)

Une redirection 302 permet aux crawlers de savoir qu’un site ou une page a été modifiée temporairement. Une redirection 301 envoie le message d’un changement de manière permanente.

Vous redirigez généralement pour une de ces raisons :

  • L’URL est cassée ou elle ne fonctionne pas.
  • Elle n’est plus active.
  • Vous avez une nouvelle page ou un nouveau site et vous souhaitez rediriger les internautes et robots.
  • Vous testez une nouvelle destination en termes de design ou de fonctionnalité.
  • Voulez rediriger temporairement vos visiteurs vers d’autres pages.

La recherche de mots clés

La recherche de mots clés

Comment trouver les bons mots clés ?

La recherche de mots-clés est l’activité consistant à analyser et à trouver une liste de requêtes utiles pour la mise en action d’une stratégie de visibilité. Ils deviennent un guide pour l’orientation de votre rédaction.

Un mot-clé peut être constitué d’un seul mot, mais, le plus souvent, il est composé de plusieurs mots.

Il ne suffit pas de trouver un grand nombre de termes de recherche. Vous devez vous assurer que les mots-clés utilisés correspondent à votre marque, votre produit ou votre service, aux requêtes utilisés par votre client type.

  • Quel est la difficulté des mots clés ciblés, est ce réaliste ?
  • Quel est le volume de trafic espéré ?
  • Les internautes qui tapent ces mots clés sont ils des clients potentiels ?
  • Que dois-je créer pour les capter ?

Ce n’est qu’après avoir effectué une recherche adéquate et approfondie que vous pourrez créer un plan d’action détaillé pour atteindre vos objectifs.

L’intention de recherche de l’internaute

Les types d'intention de recherche expliquées par Google

L’intention de recherche est la raison pour laquelle les internautes effectuent une requête spécifique. Pourquoi effectuent-ils des recherches ? Que cherchent-ils à obtenir ?
Essaient-ils de trouver la réponse à une question ou veulent-ils atteindre un site spécifique ?

Google est devenu de plus en plus compétent pour déterminer l’intention de ses utilisateurs. L’ensemble des réponses proposés essaient désormais de répondre au mieux à cette intention de et non au mot-clé exact saisis. Dans certains cas, le terme exact n’est même pas inclus.

Comprendre l’intention est la meilleure façon de créer des contenus adaptés et ciblés.

Il existe 3 principales intentions :

  • Informationnelle
  • Navigationnelle
  • Transactionnelle

La cannibalisation des mots clés

La cannibalisation de mots-clés désigne le ciblage du mêmes mot-clé, terme ou phrase sur plusieurs URLs de votre site.

Les signaux tels que les CTR, les liens et les conversions sont donc répartis entre deux ou plusieurs pages.

  • Vous nuisez à l’autorité et à la pertinence de vos pages.
  • Google pourrait dévaloriser la page la plus pertinente
  • Dilution des backlinks entre plusieurs pages.
  • Votre taux de conversion peut se voir impacté si le mauvais contenu est mis en avant.

Chaque page de votre site doit être axée sur un terme primaire afin qu’elle puisse être clairement définie comme étant pertinente pour ce terme et qu’ils n’aient pas à choisir entre des documents similaires.

Comment utiliser la longue traine ?

Exemple de requêtes de longues traines

Les requêtes de longue traine sont des expressions dont le nombre de mots est plus élevé. Leur longueur les rend plus spécifiques que celles comportant moins de mots.

On considère que les expressions de longue traine comportant 3/4 mots ou plus.

Il s’agit d’expressions qui peuvent être très ciblées et servir spécifiquement l’intention du chercheur. Elles ont un faible volume de recherche, une faible concurrence et ont généralement des taux de conversion élevés.

L’expression « longue traîne » vient du fait que si vous deviez tracer une courbe en fonction de leur volume, ils se trouveraient à l’extrémité de la courbe en termes de demandes.

Ils peuvent avoir ces avantages : 

  • Les recherches longues ont au total un volume de recherche important.
  • Ces mots clés peuvent avoir un CTR plus élevé.
  • Ils sont moins concurrentiels.
  • Ils peuvent avoir un taux de conversion plus élevé.
  • Ils ont un coût d’acquisition plus faible et peuvent être extrêmement rentables.

Les contenus et la sémantique

Les contenus et la sémantique en SEO

Quelle est l’importance du contenu ?

Le contenu de votre site web détermine les recherches pour lesquels votre site sera classé. S’il est unique et pertinent et optimisé par rapport à l’intention de la recherche sera mieux classé qu’un faible qui ne répond pas à l’intention de l’internaute.

Voici quelques autres avantages :

  • Il génère un CTR élevé : il attire les visites et les partages.
  • Il vous aide à générer des backlinks : des citations sont synonymes de crédibilité et de confiance. Plus vous avez de backlinks, plus vous avez de chances d’être bien classé.
  • Il vous permet d’intégrer des mots clés : il est le seul moyen de s’assurer que vous pouvez utiliser vos mots clés de manière stratégique sans contraintes tout en répondant à l’intention de recherche des internautes.
  • Il offre une expérience exceptionnelle : le référencement implique également la création d’un site doté d’une bonne structure dans laquelle il est possible de naviguer facilement, orienté vers la performance et la conversion.

Vous devez donc vous concentrer sur sa qualité si vous voulez vous améliorer.

Comment définir ses buyers personas ?

Un buyer persona est un profil qui décrit un client cible. Ces profils d’acheteurs décrivent vos clients idéaux, leurs journées, les défis auxquels ils sont confrontés et la manière dont ils prennent des décisions.

Il est courant d’avoir plusieurs personnalités d’acheteurs pour un produit ou service. Par exemple, si le client final de votre produit doit obtenir l’approbation des autres avant de faire un achat, chaque personne participant à cette décision est une personnalité distincte. Ils auront des critères différents pour évaluer votre produit, et vous aurez besoin de stratégies différentes pour répondre à ces besoins.

Vous devez donc savoir qui vous ciblez, ce qui déterminera ensuite qui vous visez.

Il est extrêmement important d’avoir des buyers personas cibles avant de se lancer dans le content marketing. Avec un public cible défini, il est plus facile d’écrire des textes pour répondre à ce public.

Recherchez les bonnes informations :

  • Qui est-il : nom, sexe, âge, lieu, éducation, profession, niveaux de revenus, habitudes d’achat, intérêts, mode de vie, passe-temps…
  • Quel est son environnement : heure et lieu d’accès à votre site web, y compris les appareils qu’ils utilisent.
  • Quels sont ses besoins : que vient il chercher sur votre site web.
  • Quelle est sa motivation : son résultat souhaité.

Utiliser les différentes balises

Exemple de balises méta tags

Les balises méta-tags sont des balises invisibles qui fournissent des données aux moteurs.

Elles leurs permettent de déterminer plus facilement de quoi vous parlez. Les balises méta sont placées dans la section <head> d’un document HTML.

Ils accordent de plus en plus d’importance à une bonne expérience utilisateur, et cela implique de s’assurer que votre site répond le mieux possible à sa demande. Les balises métas y contribuent en veillant à ce que les informations que les chercheurs doivent connaître sur votre site soient affichées en premier lieu de manière concise et utile.

Il existe de nombreux types de méta-tags qui remplissent différents rôles.

Les principales balises utiles sont :

  • Balise Titre ou Title
  • Balise Méta Description
  • Les balises Robots
  • La balise Canonical
  • Les balises Open Graph
  • Balises d’en-tête
  • Attribut Alt
  • Encodage de caractère
  • Auteur et copyright

Comment faire de la rédaction ?

La rédaction web orientée SEO est une forme spécialisée d’écriture qui :

  • Contiens les mots que le lecteur cible tape pour trouver l’information qu’il souhaite.
  • Aide à être mieux classé.
  • Génère des visites qualifiées.

L’ensemble de ces optimisations ne doivent pas rendre l’écriture difficile à lire ni donner l’impression d’être répétitive ni perdre son objectif de conversion. Ce qui rend l’exercice difficile et en fait une discipline spécialisée.

Le copywriting est bien plus que la simple insertion de phrases accrocheuses, il doit faire autorité, avoir une longueur suffisante pour réponde pleinement aux questions des lecteurs et se distinguer des concurrents.

Comment utiliser le content marketing ?

Le référencement est un outil que de nombreux spécialistes en marketing connaissent bien. Si votre site est bien référencé, il apparaîtra dans les premières positions.

Le content marketing se concentre sur la création et la distribution des contenus. Ils semblent fonctionner différemment, est-il possible pour eux de travailler ensemble ? Comment pouvez vous l’intégrer dans votre logique de notoriété ?

Sans un contenu de valeur, vous ne pouvez pas profiter pleinement des avantages du référencement. Sa pertinence et utilité incite les internautes à rester plus longtemps et montre votre valeur.

Pourquoi les actualiser ?

Chaque mise à jour de votre site une fois qu’il est en ligne joue un rôle dans son interaction avec les visiteurs, les clients et les moteurs.

Un site statique sans mise à jour peut être considéré comme une entité sans vie et sans nouveauté. Pour autant, des contenus anciens sans mises à jour peuvent aussi très bien se positionner.

Google met souvent à jour son algorithme et vos concurrents sont susceptibles d’apporter des modifications dans le but de vous surclasser.

Il est donc essentiel de mettre à jour régulièrement votre plan d’action.

La notion de duplicate content

Le contenu dupliqué fait référence à des blocs de textes qui sont soit totalement identiques les uns aux autres.

Il existe deux types de duplications :

  • L’interne dans le cas où un domaine crée un double contenu par le biais de plusieurs URL internes, sur le même site.
  • Le dupliqué externe lorsque deux ou plusieurs domaines différents ont le même texte indexée.

Officiellement, Google n’impose pas de sanction pour duplicate content. Cependant, il filtre les textes identiques, ce qui a le même impact qu’une pénalité : une perte de positions.

Les doublons obligent à choisir parmi des textes identiques celui qui doit être classée dans les premiers. Il arrive que le texte original ne soit pas celui choisi.

L’utilisation du cocon sémantique

Un cocon sémantique visualisé avec Cocon.se

Le cocon sémantique est une méthode qui consiste à créer un ensemble de pages liées entre elles via des affinités sémantiques.

L’ensemble de la structure et du maillage interne créé à pour objectif de pousser des pages cibles afin de la faire progresser. L’univers sémantique créé doit donner tous les signes de pertinence dont il a besoin pour considérer la page cible comme digne d’être positionnée en tête pour la requête visée.

Dans un contexte où le netlnking peut devenir très onéreux ou sanctionné, le cocon sémantique est un outil opportun pour développer une stratégie qui elle aussi a un coût, mais qui permet d’obtenir un résultat sans actionner des leviers trop risqués.

Le référencement local

Le référencement local

Le SEO local est une opportunité pour les entreprises de proximité qui souhaitent drainer un trafic de qualité. Il est qualifié et rémunérateur, les recherches correspondant à un besoin immédiat dans la majorité des cas.

À l’aire du mobile, tirer parti de sa visibilité locale est obligation pour tout commerce qui souhaite être visible dans sa zone de chalandise.

Les principaux bénéfices du référencement local pour une entreprise :

  • Augmenter les visites sur le web.
  • Générer plus d’appels de clients potentiels.
  • Rester compétitif par rapport aux entreprises voisines
  • Créer des liens avec les entreprises locales.
  • Apparaitre les 3 résultats du pack local de Google.
  • Obtenir plus de commentaires locaux.
  • Réduire les coûts de publicité.
  • Gagner des clients prêts à acheter.
  • Suivre la croissance et les opportunités de l’internet mobile.

Google My Business

La fiche Google My Business en référencement local

La fiche GMB est la base de toute stratégie localisée. Elle regroupe toutes les informations concernant votre entreprise et permet de valider les informations qui pourront être utilisées par dans différents outils (GMB, pack local, Maps, knowledge graph…)

La création et l’optimisation d’une fiche GMB est donc le point de départ et le complètent du site web local.

Les principaux bénéfices de Google My Business sont :

  • Il est gratuit est simple à utiliser.
  • GMB vous permet d’apparaître dans les cartes et les résutats du pack local.
  • Il permet aux clients de laisser des avis sur votre entreprise.
  • Il vous permet d’accéder à des statistiques et des informations qui peuvent vous aider à déterminer d’où vient votre audience.

Le Pack local

Exemple d'un pack local qui s'affiche dans les résultats Google

Google traite environ 3,5 milliards de recherches par jour et représente près de 88 % de toutes les demandes sur mobile.

Le pack 3 local apparaît 93 % du temps lorsqu’une recherche locale est effectuée et 46 % de toutes les recherches sur Google sont de cette nature.

Les intentions locales ont un gros pouvoir de transformation, car 76 % des internautes qui recherchent des établissements, produits et services visitent un magasin dans la journée.

Affiché bien en vue, figurer dans le Pack local peut améliorer le nombre de visites et les ventes des commerces locaux.

Les principaux avantages à être visible dans pack local pour une entreprise :

  • Il occupe la première position pour une majorité des recherches locales.
  • Le pack de 3 offre aux internautes un aperçu rapide de votre entreprise.
  • Les consommateurs ont tendance à se tourner vers les entreprises qu’ils peuvent facilement trouver.
  • La fonction d’appel en un clic permet d’appeler votre entreprise en un seul clic.
  • Google rassure les clients potentiels en donnant un résumé de vos avis.

Le référencement sur mobile

Le référencement mobile

Qu’est-ce que le Mobile first index ?

La navigation sur téléphone mobile a dépassé celle sur ordinateur de bureau. Adapter son site pour la navigation mobile n’est plus une option, mais une nécessité.

De ce constat, et dans l’objectif de donner une expérience optimum, Google a décidé d’une indexation de la version mobile par défaut appelé Mobile first index.

La recherche vocale

Aujourd’hui la recherche vocale est présente sur les assistants vocaux déjà vendus par centaines de millions.

Pourquoi se développe-t-elle si rapidement ?

  • Les internautes veulent obtenir des réponses et conseils rapides.
  • Elle est plus rapide que de taper un texte sur l’écran.
  • Elle est l’outil parfait pour les recherches mobiles en déplacement.
  • Les assistants numériques sont de plus en plus utilisés et la voix constitue l’interface d’échange avec ces appareils.

OK Google est devenu une expression grand public. Avec la multiplication des assistants personnels, la façon d’optimiser va devoir s’adapter à cette nouvelle donne.

Le référencement d’application mobiles sur les App Stores

Les boutiques App Store d’Apple et Android utilisent un système de classement afin de présenter les applications mobiles.

Lorsque l’on souhaite mettre en avant son application, il est important de la faire apparaitre en bonne position sur les différentes requêtes des internautes.

Ayant beaucoup de points communs avec le SEO, l’ASO (App Store Optimization) est devenu une discipline exercée par certains professionnels.

Les principaux facteurs de ranking sont :

  • Le nombre total de téléchargements
  • Les recettes générées
  • Utilisation de l’application
  • Nombre et valeur des commentaires
  • Pertinence des mots-clés
  • La mise à jour de l’application
  • Rétention / Désinstallations

Le SEO d’un site E-commerce

Le SEO d’un site E-commerce

Comment référencer un site E-commerce ?

Le référencement d’un site e-commerce répondant à des problématiques particulières.

Les meilleures actions pour un site de commerce électronique comprennent :

  • Trouver les types d’informations que les clients recherchent.
  • Une architecture du site optimisée pour les internautes et le crawl.
  • Travailler les fiches produits.
  • Générer un trafic organique local
  • Utiliser le content marketing pour attirer des prospects ciblés.
  • Augmenter l’autorité de votre site.

Les erreurs SEO sur les E-commerce sont courantes et tournent souvent pour les débutants autour des mêmes problématiques :

  • Faiblesses des descriptions de produits.
  • Ergonomie défaillante.
  • Trop grande concentration sur les requêtes transactionnels.
  • Absence de développement informationnel.
  • Mauvaise migration entre les plateformes de commerce électronique.

Rédiger une fiche produit performante pour vendre et se référencer

Les fiches produits des e-commerce qui débutent sont souvent mal construites et mal optimisées. L’ergonomie peut y être mauvaise et les standards non utilisés.

Vos efforts seront réduits à néant, si une fois un visiteur arrivé sur votre site celui-ci ne le met pas en confiance. Il souvent plus facile d’augmenter son taux de conversion que de doubler ses visites.

Votre stratégie de notoriété et de conversion doit être optimisée sur toute la chaine.

Anatomie d’une fiche produit taillée pour la performance :

  • Optimiser l’information donnée.
  • Être précis sur le nom de votre produit.
  • Rédiger les descriptions produites pour les consommateurs.
  • Être clair et concis sur la tarification.
  • Prévoir un appel à l’action clair.
  • Utiliser des images uniques en haute résolution.
  • Inclure des vidéos.
  • Utiliser les preuves sociales.
  • Faciliter la comparaison des produits.
  • Inspirer la confiance.
  • Être clair sur les frais de port.

Le référencement de vidéos et d’images

Le référencement de vidéos et d’images

Référencer une vidéo sur YouTube et Google

YouTube est le deuxième plus important moteur de recherche du monde. Utiliser la vidéo en content marketing peut être très efficace. Encore faut-il être visible et apparaitre en tête sur la recherche de vidéos.

L’optimisation du positionnement des vidéos sur YouTube est possible et répond à des règles.

Les principaux critères de ranking d’une vidéo sur Youtube : 

  • Durée moyenne de visionnage.
  • Autorité de la chaine.
  • Données de rétention du public pour une vidéo.
  • Commentaires sur les vidéos.
  • Abonnés après avoir regardé une vidéo.
  • Nombre de partages des vidéos.
  • Taux de clics.
  • Pouces vers le haut / Pouces vers le bas.

Optimiser les images

Les images sont indispensables. Elles permettent d’illustrer le propos, d’aérer les textes et de rendre l’ensemble des textes plus agréable à parcourir.

Les images et photos peuvent également être source de visibilité dans les moteurs, notamment sur Gogole image qui peut souvent être utilisée pour des recherches spécifiques par les internautes.

Les principaux facteurs de positionnement d’une image sur Google sont :

  • L’autorité de la page web qui affiche l’image.
  • L’algorithme de classement tient compte du contexte de la recherche.
  • Google donne la priorité à la fraicheur.
  • La position de l’image dans le texte.

Augmenter la popularité d’un site

Popularité et netlinking

À ses débuts, Google doit son succès et la pertinence de ses résultats à sa philosophie de départ qui consiste à considérer que plus un site reçoit de liens d’autres sites, et plus celui-ci est qualitatif.

Ses fondateurs ont déposé le brevet de l’algorithme du Pagerank qui calcule la notoriété d’un site suivant un calcul bien particulier.

La capacité pour un site de générer des backlinks est un point déterminant en référencement naturel. C’est donc le nerf de la guerre et une des activités principales des référenceurs.

L’objectif d’une stratégie de Netlinking est donc de stimuler la notoriété d’un site en utilisant toutes les possibilités mises à disposition pour générer des liens externes, sans s’attirer les foudres de Google via une pénalité.

Qu’est-ce qu’un bon lien ?

Les liens sont l'essence même du web
Définition d’un lien par Wikipédia

La génération de liens entrants est un des piliers de la performance du référencement organique. Pour autant tous ne se valent pas, certains sont plus puissants, alors que d’autres sont totalement toxiques et feraient mieux de ne pas être.

Pendant longtemps il fut possible d’en générer par centaines ou milliers, celui qui en généraient le plus gagné. Puis le temps a passé, Google a sifflé la fin de la fête en commençant à sanctionner via des algorithmes destinés à détecter les techniques de linking abusives.

Aujourd’hui les actions de linking, pour être pérennes dans le temps, doit être beaucoup plus qualitative que par le passé.

Obtenir des backlink venant de site d’autorité, sera la pierre angulaire  :

  • Un backlink depuis une source pertinente.
  • Un lien à partir d’une source de confiance.
  • Un lien avec une ancre ciblée.
  • Un lien qui est cliqué.
  • Un lien présent dans le texte.
  • Un backlink obtenu sur une page qui a de l’autorité.
  • Un lien non réciproque.
  • Un backlink parmi peu d’autres.
  • Un lien difficile à obtenir.

Comment générer des backlink ?

Les backlink sont importants pour le SEO

Obtenir des liens externes n’est pas une chose facile et peut être risqué suivant les techniques employées. Les Guidelines ne laissent pas beaucoup de liberté à ce sujet, et si elles devaient être suivies à 100 %, seuls les ceux 100 % naturels et non sollicités seraient autorisés.

Inutile de vous dire que suivre ces règles rendrait le travail beaucoup plus difficile.

Les meilleurs façon pour stimuler votre acquisition de backlinks :

  • Créer des publications qualitatives pour générer des partages
  • Suivre les stratégies de netlinking des concurrents
  • Acheter des backlinks
  • Créer un blog pour stimuler les partages
  • S’inscrire dans des annuaires ou forums
  • Créer des commentaires sur des blogs de niche
  • Réaliser un sondage pour obtenir des liens vers celui-ci
  • Contacter des influenceurs qui parleront de vous
  • Organiser un concours qui sera partagé
  • Créer des publications durables qui généreront des liens longtemps
  • Créer des outils, scripts…
  • Parrainer un événement dans votre secteur d’activité
  • Publier des offres d’emplois
  • Créer un réseau de blog privé (PBN)
  • Utiliser le guest Blogging
  • Utiliser les relations presse et les articles sponsorisés
  • Contacter ses partenaires et fournisseurs pour demander des liens
  • Faire des échanges de liens
  • Être une référence dans son secteur
  • Créer des infographies et des visuels qui seront partagées

Comment évaluer la popularité d’un site ?

Utiliser l’outil Trust flow et Citation flow de Majestic, est courant pour évaluer la popularité d’un site ou d’une page. Majestic est un éditeur de logiciel en ligne qui pour objectif de faire l’inventaire des liens entrants obtenus par un site. Son énorme base de données contenant des milliards de données permet d’évaluer son profil de liens et ses thématiques principales.

Ces indicateurs doivent être complétés par d’autres informations pour réaliser une étude complète, mais il s’agit de références et métriques que vous rencontrerez souvent dans le monde du SEO et qui servent aux plateformes d’achat de liens pour évaluer les sites des éditeurs.

Peut-on acheter des liens ?

Le travail d’acquisition peut être grandement facilité par les plateformes d’achat de backlinks. Ces prestataires vous mettent en relation avec des éditeurs qui acceptent de placer des liens vers votre site sur le leur.

Plus le catalogue mis à disposition est étoffé, et plus il sera facile de trouver des spots de qualité dans les thématiques du vôtre.

L’achat de backlinks est une solution qui peut cependant vite devenir onéreuse. La tarification élevée de certains supports, même si la facilité et le gain de temps son à prendre en compte, peuvent mener à s’interroger sur l’intérêt final de la méthode au profit d’autres solutions, et notamment la création d’un réseau de site personnel.

L’importance du maillage interne

La popularité s’obtient majoritairement grâce aux liens externes, cependant le maillage interne joue également un rôle important pour répartir cette force entre les pages. Un bon réseau interne permet donc de transférer de l’autorité à certaines pages et d’en améliorer le positionnement.

Un travail de netlinking sera donc complété par un travail sur le maillage interne avec des ancres de qualité, placé dans un contexte sémantique adéquat, en rapport avec les contenus liés.

Qu’est qu’un PBN et réseau de site privé ?

Lorsque le netlinking est difficile, que les tarifications de l’achat de backlink deviennent trop élevées ou tout simplement pour en avoir la maitrise, la création d’un réseau de site peut être une bonne opportunité.

Appelé PBN (Personnal Blog Network), le réseau de site peut être une option qui a de nombreux avantages.

Quels sont les avantages à l’utiliser ?

  • Flexibilité et enrichissement du PBN.
  • Une continuité thématique avec votre site.
  • Force constante dans le temps pour les backlink.

Le PBN permet de créer des sites thématisés de la qualité souhaitée. D’y placer librement les liens voulus avec les ancres souhaitées, tout en pouvant revenir sur ses actions en cas de mise à jour ou de pénalités.

Le principal problème de l’achat de liens est que les publications qui contiennent les backlinks se retrouvent avec le temps dans les méandres des arborescences, faisant ainsi perdre petit à petit la puissance des backlinks si chèrement acquis.

Avec le PBN, vous avez la main et gardez une puissance constante, ou qui augmente avec la puissance intrinsèque du site lieur lui-même.

Cette stratégie efficace est cependant risquée si elle est mal maitrisée. Sans cacher les empreintes de votre réseau de site, vos concurrents n’auront pas de mal à identifier tous les sites le composant. Soyez donc vigilants.

Pourquoi analyser ses backlinks de ceux de ses concurrents ?

Votre profil de backlinks doit être harmonieux, et s’il n’est pas 100 % naturel, il doit y ressembler.

Son analyse vous permet de vérifier si votre profil de lien est cohérent avec le profil des concurrents de votre secteur d’activité, si vos ancres ne sont pas trop optimisées.

À partir de ces observations, vous serez en mesure de réévaluer votre plan d’action et de l’adapter pour qu’elle respecte les règles et objectifs fixés.

En observant les opérations de linking de vos concurrents, vous trouverez de nouvelles opportunités et pourrez comprendre quelles stratégies fonctionnent à l’instant T.

Les pénalités et sanctions Google

Les pénalités Google

Les pénalités algorithmiques et manuelles

Lorsque les Guidelines ne sont pas respectées, Google peut appliquer des sanctions. Ces pénalités sont de deux types, manuels ou algorithmiques.

Les pénalités manuelles sont directement appliquées par un membre de l’équipe suite à l’étude du site, elles sont signalées dans la Search Console avec les raisons.

Les sanctions algorithmiques sont plus insidieuses. Vous constatez une chute de trafic, de positions, sur l’ensemble du site ou certaines parties, mais vous ne savez pas pourquoi. Il faut alors étudier les causes possibles et agir en conséquence pour tenter que la sanction soit levée automatiquement.

La pénalité Pingouin

La pénalité Pingouin est l’une des plus connue et des plus redoutée. Apparue en 2012, elle a pour objectif de sanctionner les campagnes de netlinking abusives et la suroptimisation des ancres.

Si votre site reçoit des liens de mauvaise qualité, avec des ancres trop uniformes, vous risquez d’être détecté par l’algorithme Pingouin et de voir votre site chuter dans les classements.

La pénalité Panda

La pénalité panda sanctionne les textes de piètre qualité. Les éditeurs générant des textes dupliqués ou sans plus value pour l’internaute sont particulièrement exposés.

Pour s’en sortir, les textes ciblés doivent être supprimés ou améliorés.

Le profil des ancres de liens

L’optimisation des ancres est particulièrement surveillée et sanctionnée en cas d’abus. Que ce soit des liens entrants ou pour le maillage interne, ils doivent être conceptualisés et tenir compte de l’expérience utilisateur. Utiliser des mots clés de manière abusive devient risqué.

Créer des ancres descriptives dans un contexte sémantique favorable reste la meilleure pratique aujourd’hui.

Chercher à multiplier les ancres sur un mot clés exact est encore possible, mais avec parcimonie, et en surveillant en permanence leurs profils.

Comment sortir d’une pénalité ?

Les sanctions peuvent être lourdes de conséquences pour un site internet et un business. Le délai pour sortir d’une pénalité est incertain, et les causes des sanctions pas toujours clairement identifiées.

Un certain nombre de recommandations peuvent appliquées suivant le type de pénalités appliquées, manuelles ou algorithmiques.

Les meilleurs outils SEO

Les outils SEO

Quelles KPI utiliser ?

La visibilité ne se résume pas à simplement générer des visites sur votre site. Même si il peut être narcissiquement gratifiant de voir ses courbes de trafic monter, ce trafic se doit avant tout d’être ciblé et de générer les conversions souhaitées.

Il est donc primordial de définir clairement quels indicateurs de performances SEO doivent être suivis pour mesurer le bien fondé de la stratégie et de ses résultats.

Les principales KPI à suivre en référencement :

  • Conversions (ventes et prospects)
  • ROI (retour sur investissement)
  • Visibilité organique
  • Requêtes avec ou sans marque
  • Classement des mots-clés
  • Backlinks
  • Taux de clics
  • Taux de rebond
  • Durée moyenne de la page
  • Erreurs d’explorations
  • Vitesse des pages

Comment surveiller ses positions ?

Maintenant que Google est capable de reconnaitre l’intention de recherche d’un internaute, suivre les positions n’a plus le même sens qu’auparavant vu qu’une page peut se positionner sur des requêtes différents de ceux pour laquelle elle est optimisée.

Malgré tout il est toujours intéressant de suivre l’évolution de son classement sur des mots expressions stratégiques, ainsi que celui de ses concurrents afin de voir si les tendances sont à la hausse ou à la baisse.

De nombreuses solutions permettent de surveiller les positions jours par jours ou sur des périodes données afin de mesure les évolutions.

Quelles extensions utiliser pour WordPress ?

WordPress est le CMS le plus utilisé au monde. Malgré son rang de leader, les problématiques de référencement naturel sur WP ne sont pas totalement prises en compte dans son développement originel.

Afin de faire face à ces carences, de nombreuses sociétés indépendantes ont développé des extensions WordPress spécifiques afin de paliers aux différentes problématiques de référencement.

D’autres extensions, même si elles ne sont pas directement conçues directement pour le SEO, aident l’ensemble et l’expérience utilisateur via différentes fonctionnalités (mise en cache, maillage interne, poids des images…).

Les principales extensions utiles pour optimiser sa visbilité sur un site WordPress :

  • SEOPress
  • Yoast SEO
  • All in One SEO Pack
  • Rank Math
  • SEO Framework
  • Easy Table Of content
  • Broken link checker
  • Shortpixel
  • A3 Lazy Load
  • HREFLANG Tags Lite
  • Redirection
  • WP Super Cache
  • Auto Optimize
  • Really Simple SLL
  • Anti Spam
  • Rel No follow Checkbox
  • All in One Schema Rich Snippets
  • WP rocket

Quels logiciels utiliser pour optimiser ?

Le développement de la notoriété sur Google ne peut pas se faire sans utiliser les meilleurs outils SEO pour vous simplifier la vie et vous permettre de déployer votre feuille de route de la manière la plus complète.

Suivant vos besoins, vous pourrez les utiliser ponctuellement ou dans la durée.

Ils peuvent se classe suivant ces catégories :

  • Les complets
  • Audit
  • Monitorer vos positions
  • Audit des backlink
  • Recherche de mots clés
  • Aide à la rédaction et à la sémantique
  • Vérifier le duplicate content
  • Analyse de performance
  • Add-oon pour les navigateurs
  • Plugins pour WordPress, l’extension WordPress la plus connu est Yoast.
  • Plateformes d’achats d’articles sponsorisés
  • Plateformes de rédaction

Les opérations délicates

Migration et refonte en SEO

Comment faire une refonte de son site ?

Dans la vie d’un site web, les refontes font partie du schéma classique et de son cycle de vie. Un changement de nom, le besoin de rafraichir une charte graphique vieillissante, la nécessité d’évoluer techniquement, un changement de CMS… Nombreuses sont les causes qui peuvent emmener à transformer un site internet en profondeur. Comment refondre un site sans risquer de perdre ses positions si durement acquises ?

Beaucoup de migrations aboutissent à des catastrophes. La migration d’un site nécessite la mise en action d’un protocole strict afin de ne pas nuire de manière durable aux actions mises déployées dans le passé.

Quel est l’intérêt du HTTPS  ?

Le protocole HTTPS en référencement

Google a annoncé il y a quelques années que le passage au HTTPS d’un site pourrait très légèrement améliorer son positionnement. Ne vous attendez pas à des bouleversements incroyables. La migration en HTTPS d’un site présente également des avantages en matière de réassurance après des internautes.

Afin de ne pas nuire à un site, ce processus doit s’opérer en suivant un protocole précis.

Comment changer de nom de domaine  ?

Changer de nom de domaine est une opération simple qui peut néanmoins avoir de lourdes conséquences un site internet.

Le protocole pour changer de nom de domaine n’est pas compliqué à suivre, il est néanmoins nécessaire de sans soucis afin de ne pas voir son site internet plonger dans les classements.

Comment optimiser sa page d’accueil ?

Les index des sites sont souvent sous-exploitéesn. Pourtant, recevant l’essentiel de la popularité, elles bénéficient souvent d’une grande popularité, et sont les pages les plus puissantes du site. Ne pas exploiter ce potentiel est dommage.

Optimiser sa page d’accueil est possible sans pour autant nuire aux besoins esthétiques et marketing. Selon les cas cela n’est pas toujours facile, surtout si cette contrainte n’a pas été pensée lors de la création de la charte graphique.

La strate SEO doit de préférence être intégrée dès l’élaboration des maquettes, facilitant son intégration harmonieuse et évitant les reprises hasardeuses par la suite.

Avez vous aimé cet article ?

Cliquez sur les étoiles pour donner une note

Note moyenne 5 / 5. Nombre de votes : 50

Pas de votes pour le moment, soyez le premier à voter.

Partager la publication "Débuter en référencement naturel Google [Le Guide SEO] "
Partager sur facebook
Partager sur twitter
Partager sur linkedin
Partager sur email