Etre premier sur Google et y rester Nous créons une stratégie SEO gagnante de A à Z. Je veux améliorer ma visibilité
Temps de lecture : 29 minutes
5
(51)

Comment bien référencer son site internet ?

Qu'est ce que le référencement naturel sur Google

Table des matières

Qu’est-ce qu’on appelle le référencement naturel ?

Le référencement naturel, aussi appelé SEO (Search Engine Optimization), fait référence à toutes les actions d’optimisation d’un site internet dans le but d’améliorer la visibilité d’un site web, de ses pages et de ses médias dans les résultats organiques des moteurs de recherche, principalement Google.

Il vise également à générer en quantité un trafic ciblé et de qualité non rémunéré (appelé résultats « naturels » ou « organiques »).

L’ensemble des actions visent à comprendre le fonctionnement des algorithmes et critères de classement afin de positionner le site premier.

Au-delà des objectifs de classement en premier et de génération de visites, il a pour autre objectif d’améliorer l’UX et la conversion du site. C’est pourquoi la discipline est associée à des termes comme SXO, CRO…

Ce guide du débutant vous permettra de mieux comprendre comment référencer votre site en première position et augmenter votre chiffre d’affaire en actionnant les principaux leviers : technique, contenu, popularité, expérience utilisateur…

C’est quoi le référencement payant ?

Quelle est la différence entre référencement naturel et payant ?

Le référencement naturel agit sur les résultats organiques. Le payant, appelé aussi SEA, désigne la publicité des régies publicitaires comme Google Ads (Adwords).

Beaucoup d’entreprises se demandent si faut mieux investir sur des campagnes de référencement payant ou naturel ?

Combiner campagnes les 2 est souvent une solution gagnante pour décupler l’exposition d’un site et augmenter les taux de conversion.

SEASEO
Générer du trafic pertinentXX
Nécessite la mise en place d'une stratégieXX
Nécessite des compétencesXX
Vous payez pour chaque clicX
Vous obtenez des résultats immédiatsX
Vous gardez des bénéfices si vous stoppez les dépensesX

Pourquoi faire du SEO ?

Pourquoi faire du référencement naturel ?

Il est pour beaucoup de business une source de chiffre d’affaire importante, avec un haut taux de retour sur investissement comparé aux autres médias et leviers publicitaires. Les avantages du SEO sont nombreux pour une entreprise, quels que soient sa taille et sa position géographique.

Quelques statistiques :

  • 93 % de toutes les activités en ligne commencent par la recherche.
  • 81 % des consommateurs commencent à chercher avant de faire un achat important.
  • Le trafic organique est 5,66 fois supérieur à celui des annonces payantes.

Les avantages :

  • C’est une source primaire de prospects.
  • Il aide à gagner des parts de marché.
  • Il renforce la crédibilité de la marque.
  • Il aide à établir la notoriété et la réputation d’une marque.
  • Il aide à obtenir des visites qualitatives.
  • Il permet d’améliorer l’expérience de l’utilisateur sur votre site.
  • Il génère des taux de conversion plus élevés.
  • Il améliore indirectement la vitesse.
  • C’est une méthode dont on peut tirer des bénéfices sur le long terme.
  • Il crée une synergie avec toutes les activités de marketing.

Malheureusement de nombreuses confusions et légendes entourent le métier de référenceur. Il est donc primordial d’en comprendre les subtilités afin de mieux évaluer les offres proposées et de mettre en place ce levier de croissance.

Quel est le prix des prestations d’une agence SEO ?

Quel est le prix du SEO ?

Lorsque l’on souhaite déployer une stratégie de référencement naturel et faire appel à des prestations de consulting et conseils SEO spécialisées, au-delà des avantages visés, la question du coût se pose rapidement, surtout lorsque l’on souhaite s’attacher les services de professionnels du secteur (freelance ou agence).

Face aux nombres d’offres proposées, des différentes prestations et tarifications, il est difficile pour un profane de faire facilement le tri entre les propositions sérieuses, les arnaques et pire, les prestations pouvant mettre en danger votre site.

C’est une discipline qui répond à des codes, des pratiques bien établies et connues. Méfiez-vous donc des vendeurs de rêves et des prestataires qui vous promettent des solutions secrètes.

Comme dans tout métier, faire appel à des professionnels à un coût proportionnel à ses qualifications. Même réalisé seul, le référencement n’est pas gratuit, un certain nombre d’investissements sont nécessaires (rédaction, netlinking, performance du site, temps…).

Voici quelques tarifs pour vous donner une idée :

PrestationTarif indicatif
Tarif horaire SEOEntre 80 et 200 euros
Tarif journalierEntre 300 et 1000 euros.
AuditEntre 500 et 10 000 euros
Optimisations techniquesEntre 500 et 10 000 euros
Lien forumEnviron 15 euros
Lien annuaire qualitatifEnviron 30 euros
Lien qualitatifEntre 100 et 500 euros
Lien premiumA partir de 500 euros
Rédacteur low cost20 euros / 1000 mots
Rédacteur moyen50 euros / 1000 mots
Rédacteur premium100 euros / 1000 mots

Grâce à ces bases, vous serez plus à même d’évaluer si les propositions qui vous sont faites entrent dans les normes, ou sont totalement fantaisistes.

Comment faire un bon SEO ?

Comprendre le SEO et Google

Google est numéro 1 dans le monde. Même si des alternatives existent, il domine avec plus de 92 % de part de marché dans le monde. S’y référencer est donc devenu un objectif et une nécessité pour beaucoup d’éditeurs.

Il a désormais plus de 20 ans, son histoire est aussi longue que celle de son logo. Ceux qui ont commencé le référencement dans les années 2000 comme nous, l’on vu évolué et ont du adapter leurs pratiques pour continuer à positionner des pages en tête.

Comprendre le fonctionnent du SEO et d’un moteur est primordial pour lui fournir ce qu’il veut. Mon site mérite-t-il d’être premier ?

Les Guidelines

Les Guidelines sont des recommandations et règles établies à destination des webmasters et référenceurs. Le souhait du moteur tourne autour de 2 axes, proposer des résultats fiables aux internautes, et qu’ils ne soient pas spammés par des sites utilisant des méthodes qu’il juge abusives.

Il donne donc des recommandations sur la façon de construire un site qualitatif orienté vers les utilisateurs qui sera également facile à explorer et indexer par ses spiders.

Il établit également ses règles et les sanctions qui peuvent subvenir si elles ne sont pas respectées. Des sanctions plus ou moins lourdes peuvent toucher un site, la plus radicale étant l’exclusion totale de son index.

Il est donc primordial de respecter les bonnes pratiques et de prendre des risques maitrisés afin de ne pas pénaliser un travail de référencent par une pénalité.

Les algorithmes

Les spiders explorent le web en allant de page en page et de site en site. Celles explorés sont analysés et affichés ensuite dans les résultats en fonction de facteurs de pertinences évalués par les algorithmes. Ils sont nombreux et évoluent dans le temps. Des noms d’animaux sont donnés la plupart du temps à ces algorithmes.

Les critères de classement et les facultés techniques évoluent dans le temps. Les progrès technologiques, la puissance de calcule croissante et l’arrivée de l’intelligence artificielle ont fait évoluer la pertinence et obliger les éditeurs de sites à s’y adapter. Les méthodes évoluent en fonction de ces changements.

Afin de les rendre toujours plus pertinents, l’intelligence artificielle et le machine learning ont fait leur apparition en 2015 avec Rankbrain.

Aujourd’hui, grâce à son apprentissage de l’univers sémantique, Rankbrain est capable de soumettre un résultat pertinent en devinant le sens et l’intention de l’internaute.

Les principaux algorithmes à connaitre sont ceux-ci :

  • Panda (Février 2011)
  • Penguin (avril 2012)
  • Hummingbird (Aout 2013)
  • Mobile (Avril 2015)
  • RankBrain (Octobre 2015)
  • Medic (mai 2018)
  • Bert (Octobre 2019)
  • Core Updates (depuis 2017)

Combien de temps faut-il pour référencer un site ?

Parmi les questions les plus souvent posées, connaitre la durée pour se référencer sur Google est en tête. Développer les actions prend du temps, surtout pour un nouveau site, et beaucoup de clients se demandent à juste titre, combien de temps il faudra attendre pour avoir les premiers retours sur investissement.

Il n’y a pas de réponses toutes faites à cette question. Généralement il faut 6 mois à 1 an pour mesurer à leur juste valeur les actions déployées.

Si votre site est ancien, bénéficie déjà d’une notoriété importante, cela peut être plus rapides.

Les actions de vos concurrents entrent également dans l’équation, comme la difficulté des expressions visées.

Age moyen des pages présentes en première page de Google selon une étude Ahrefs

Le Black Hat

Le référencement black hat

Le référencement black hat nourrit beaucoup de fantasmes. Même si certaines pratiques peuvent être illégales lorsqu’elles s’apparentent à du piratage informatique, la plupart des référenceurs au chapeau noir n’utilisent simplement des méthodes pour gagner du temps et exploiter les failles (réseaux de sites, génération automatique de textes…)

Exploiter les failles algorithmiques et jouer au chat et à la souris avec lui n’a rien d’illégal. Le seul problème serait d’ordre déontologique, si de telles méthodes étaient utilisaient à l’insu d’un client, risquant pour lui de se voir attribuer des pénalités.

Nombre d’actions considérées comme black hat par le passé sont entrées totalement dans les mœurs des actions white hat.

Il est également possible que des concurrents peu scrupuleux cherchent à nuire à votre site via différentes actions. Appelé négative SEO il a pour but de discréditer votre site aux yeux de Google afin de leurs faire perdre des positions au profit de vos challengers.

Les principales techniques Black Hat sont :

  • Textes généré/dupliqué automatiquement /cachés.
  • Pages satellites.
  • Cloaking.
  • Achat de backlinks payants (largement répandu en White Hat).
  • Utilisation abusive de données structurées.
  • Redirections trompeuses / Cloaking.
  • Actions contre les concurrents.

Comment référencer son site internet ?

Comment améliorer le référencement naturel de son site sur Google ?

Améliorer le référencement de son site nécessite d’effectuer un certain nombre d’actions et de travailler sur 3 sphères essentielles : la  technique, le contenu, la popularité.

L’importance de l’audit SEO

Il s’agit essentiellement d’un « bilan de santé » de votre site web. Avant tout, un audit doit être complet. Il doit couvrir à la fois les éléments structurels et de contenu qui affectent votre succès.

L’audit doit fournir une vue d’ensemble de la situation actuelle du site. Tout élément manquant pourrait donner lieu à des recommandations inutiles ou inappropriées.

Les recommandations d’un audit doivent pouvoir être mises en œuvre et priorisées selon les objectifs à court, moyen et long terme.

L’audit aborde les points suivant :

  • L’analyse de la concurrence
  • L’analyse sémantique
  • Les contenus
  • Exploration du site et indexation
  • Architecture et accessibilité
  • Netlinking

Les leviers pour positionner un site premier

Vous pouvez accéder à la première page et vous référencer premier sur Google en apportant des modifications à votre site.

Ces différentes actions ont pour objectif de rentre votre site intéressant et de coller au plus près des exigences de ses algorithmes complexes.

Bien que rien ne puisse garantir qu’un site sera listé sur la première place, le travail d’un référenceur professionnel peut contribuer à améliorer à augmenter le nombre de visiteurs sur votre site.

Il utilise, selon le chiffre souvent annoncé, plus de 200 facteurs différents pour classer un site. Personne ne sait réellement et peu importe la précision de ce chiffre. L’ampleur de ce chiffre est encore intimidante.

Tous ces facteurs n’ont pas la même importance. Certains sont incontournables, mais d’autres ont des répercussions faibles. Nombre d’entre eux ne sont même pas directement influençables.

Avec la liste des facteurs les plus importants, il est plus facile de comprendre ce que le moteur de recherche attend et de se focaliser sur les leviers qui généreront les retours les plus rapides.

Les principaux facteurs :

  • Le contenu : balise title, sémantique… (50%)
  • La popularité : backlinks reçus et maillage interne. (50%)
  • La technique : avoir un site assez rapide et indexable. (Malus si défaillant)

Qu’est-ce que la position zéro ?

La position zéro est l’information que Google affiche en tête. La position zéro est également appelée « featured snippet ». C’est un extrait qui répond directement à une question de l’internaute.

La position zéro s’affiche au-dessus du premier résultat et s’affiche différemment.

Les extraits présentées sont de toutes formes et de toutes tailles :

  • Paragraphes
  • Listes à puces
  • Listes numérotées
  • Vidéos YouTube
  • Images
  • Graphiques
  • Tableaux

Les bénéfices potentiels d’un extrait en vedette sont :

  • Plus de clics.
  • Plus grande présence dans la SERP.
  • Augmentation de votre crédibilité.

Le référencement d’un point de vue technique

Le SEO technique

La vitesse de chargement d’un site et son influence

La vitesse de chargement d’un site a un impact direct sur l’expérience et la conversion, mais aussi indirectement sur le référencement. Un site lent peut empêcher les bots d’analyser votre site aussi longuement que prévu. Cependant un site doit vraiment avoir un problème de vitesse majeur pour que cela lui nuise. Inutile de tomber dans l’excès inverse et de vouloir obtenir des scores de vitesses parfaits aux différentes solutions de tests.

Un site avec une vitesse se situant dans la moyenne ne se verra pas impacté.

Par contre l’amélioration des performances aura un impact direct sur l’UX et le taux de transformation, particulièrement en e-commerce.

Il existe de nombreux logiciels pour mesurer les performances d’un site et obtenir des recommandations sur les améliorations à apporter.

L’influence du Sitemap.xml

Un sitemap est un fichier dans lequel vous pouvez lister les contenus de votre site pour indiquer l’organisation de votre site. Les spiders comme Googlebot lisent ce fichier pour explorer votre site de manière plus intelligente.

Les sitemaps leurs indiquent ce que vous avez sur vos sites afin qu’ils puissent le trouver plus facilement et la date de sa dernière mise à jour.

Google affirme que les sitemaps sont utiles pour :

  • Les sites avec beaucoup de pages.
  • Les nouveaux.
  • Ceux avec des rich media.

Comment un site est il indéxé ?

Schéma explicatif issu d'un brevet déposé par Google Inc

Google trouve, analyse et propose dans les résultats en effectuant 3 phases.

  • Crawler le site : les bots parcourent internet en examinant le code de chaque URL qu’ils trouvent.
  • L’indexer : stocker et organiser les informations trouvées pendant le processus de crawling s’appelle l’indexation. Une fois qu’une URL se trouve dans l’index, elle peut être affichée.
  • Le proposer : fournir les éléments qui répondront le mieux aux recheches d’un internaute en les classant du plus pertinent au moins pertinent.

La notion de crawl budget

Statistiques d'exploration de googlebot issues de la Search Console

Le crawl budget est un terme pour décrire le fonctionnement que les moteurs adoptent pour décider combien d’URL, et lesquelles, doivent être explorées à chaque période. Il s’agit essentiellement de l’attention qu’ils accordent à un site web.

Les moteurs qui n’ont pas des ressources illimitées répartissent leur attention de manière différente selon les cibles et leur importance. Ils ont donc besoin d’un moyen de hiérarchiser leur effort de crawling. L’attribution d’un budget d’exploration à chaque site web les aide à y parvenir.

Vous pouvez intervenir sur votre site pour que les ressources allouées soient utilisées au mieux :

  • Améliorer la vitesse du site.
  • Soigner la rédaction.
  • Eviter le duplicate content.
  • Travailler le maillage interne.
  • Réduire les erreurs d’exploration (erreurs 50X et 40X).
  • Ne faire explorer que les pages canoniques.
  • Eviter les redirections en chaines.

La gestion des erreurs 404

Le déclencheur typique d’un message d’erreur 404 est la suppression ou le déplacement d’une page du site vers une autre URL. Il existe également d’autres raisons pour lesquelles un message d’erreur 404 peut apparaître.

Parmi celles-ci, on peut citer :

  • L’URL a été supprimée ou déplacée sans modifications.
  • Elle a été mal écrite pendant le processus de création ou de refonte,
  • L’adresse n’a pas été correctement saisie dans le navigateur.
  • Le serveur responsable du site ne fonctionne pas ou la connexion est interrompue.
  • Le nom de domaine demandé ne peut pas être converti en IP par le système DNS.
  • LCelui saisi n’existe pas ou plus.

L’importance du fichier robot.txt

Les éditeurs l’utilisent pour donner des instructions sur leur site aux bots, c’est ce qu’on appelle le protocole d’exclusion des robots.

Le fichier robots.txt est principalement utilisé pour spécifier quelles parties de votre site doivent être explorées. Il peut spécifier différentes règles pour différents bots. Ils peuvent l’ignorer.

Ce fichier est accessible au public. Vous pouvez tenter de bannir les bots indésirables en modifiant le fichier .htaccess associé à votre site.

Ils sont utiles si vous souhaitez que les moteurs de recherche n’indexent pas :

  • Les pages dupliquées ou brisées sur votre site.
  • Les résultats de recherche interne.
  • Certaines parties de votre site ou un entier.
  • Certains fichiers.
  • Les pages de connexion.

Voici les principales directives pour autoriser ou interdire les crawlers.

Les principales directives du robot.txt pour Google

L’analyse de logs

Exemple du contenu d'un fichier log

L’important pour un référenceur est de savoir précisément ce que GoogleBot fait sur votre site. La principale tâche du spider lorsqu’ils entrent sur un site est de parcourir un nombre de contenus déterminées en fonction du budget d’exploration du site. Après l’exploration, ils enregistrent les données qu’ils ont explorées dans une base de données.

Bien comprendre les mouvements des bots sur votre site est important pour améliorer le volet technique sur votre site.

L’analyse des fichiers de logs est le processus qui consiste à télécharger les fichiers logs d’un serveur et à les analyser à l’aide d’un outil d’analyse.

Elle aide les référenceurs à trouver d’importants problèmes qui ne peuvent être trouvés d’aucune autre manière.

Les données des fichiers logs sont utiles, car elles nous permettent de comprendre comment les bots se déplacent et quelles données spécifiques ils stockent dans leur base de données.

L’analyse des logs sert principalement à :

  • Connaitre le nombre de visites.
  • Connaitre la fréquence d’exploration.
  • Identifier les erreurs d’explorations des spiders.
  • Identifier les pages les plus actives.
  • Comprendre l’utilisation du budget de crawl.
  • Suivre les dates d’exploration de Googlebot.

Les redirections 301 et 302

Les redirections sont souvent utilisées en référencement pour une multitude de raisons diverses suivant les usages et situations rencontrées (refonte, migration, changement de nom de domaine, suppression…)

Une redirection 302 permet aux crawlers de savoir qu’un site ou une page a été modifiée temporairement. Une redirection 301 envoie le message d’un changement de manière permanente.

Vous redirigez généralement pour une de ces raisons :

  • L’URL est cassée ou elle ne fonctionne pas.
  • Elle n’est plus active.
  • Vous avez une nouvelle page ou un nouveau site et vous souhaitez rediriger les visiteurs.
  • Vous testez une nouvelle destination en termes de design ou de fonctionnalité.
  • Voulez rediriger temporairement vos visiteurs vers d’autres pages.

La recherche de mots clés

La recherche de mots clés

La recherche de mots-clés est l’activité consistant à analyser et à trouver une liste de requêtes utiles pour son plan. Ils deviennent un guide pour l’orientation de votre rédaction.

Un mot-clé peut être constitué d’un seul mot, mais, le plus souvent, il est composé de plusieurs mots.

Il ne suffit pas de trouver un grand nombre de termes de recherche. Vous devez vous assurer que ceux utilisés correspondent à votre marque, votre produit ou votre service.

  • Quel est difficulté, est ce réaliste ?
  • Quel est le volume de visites espéré ?
  • Ceux qui les tapent sont ils des clients potentiels ?
  • Que dois-je créer pour les capter ?

Ce n’est qu’après avoir effectué une analyse adéquate et approfondie que vous pourrez créer un plan d’action détaillé pour atteindre vos objectifs.

L’intention de recherche de l’internaute

Les types d'intention de recherche expliquées par Google

L’intention est la raison pour laquelle les internautes effectuent une requête spécifique. Pourquoi l’effectuent-ils  ? Que cherchent-ils à obtenir ?
Essaient-ils de trouver la réponse à une question ou veulent-ils atteindre un site spécifique ?

Google est devenu de plus en plus compétent pour déterminer l’intention de ses utilisateurs. L’ensemble des réponses proposés essaient désormais de répondre au mieux à cette intention de et non au mot-clé exact saisis. Dans certains cas, le terme exact n’est même pas inclus.

Comprendre l’intention est la meilleure façon de créer des publications adaptées et ciblées.

Il existe 3 principales intentions :

  • Informationnelle
  • Navigationnelle
  • Transactionnelle

La cannibalisation

La cannibalisation de mots-clés désigne le ciblage du mêmes mot-clé, terme ou phrase sur plusieurs URLs de votre site.

Les signaux tels que les CTR, la popularité et les conversions sont donc répartis entre deux ou plusieurs.

  • Vous nuisez à l’autorité et à la pertinence de vos pages.
  • La page la plus pertinente pourrait être dévalorisée.
  • Dilution des backlinks.
  • Votre taux de conversion peut se voir impacté si le mauvais contenu est mis en avant.

Chaque page de votre site doit être axée sur un terme primaire afin qu’elle puisse être clairement définie comme étant pertinente pour ce terme et qu’ils n’aient pas à choisir entre des documents similaires.

Comment utiliser la longue traine ?

Exemple de requêtes de longues traines

Les requêtes de longue traine sont des expressions dont le nombre de mots est plus élevé. Leur longueur les rend plus spécifiques que celles comportant moins de mots.

On considère que les expressions de longue traine comportant 3/4 mots ou plus.

Il s’agit d’expressions qui peuvent être très ciblées et servir spécifiquement l’intention du chercheur. Elles ont un faible volume de recherche, une faible concurrence et ont généralement des taux de conversion élevés.

L’expression « longue traîne » vient du fait que si vous deviez tracer une courbe en fonction de leur volume, ils se trouveraient à l’extrémité de la courbe en termes de demandes.

Ils peuvent avoir ces avantages : 

  • Elles ont au total un volume de recherche important.
  • Elles peuvent avoir un CTR plus élevé.
  • Ils sont moins concurrentiels.
  • Ils peuvent avoir un taux de conversion plus élevé.
  • Ils ont un coût d’acquisition plus faible et peuvent être extrêmement rentables.

La rédaction et la sémantique

Les contenus et la sémantique en SEO

Quelle est l’importance du contenu ?

Le contenu de votre site détermine les recherches pour lesquels votre site sera classé. S’il est unique et pertinent et optimisé par rapport à l’intention sera mieux classé qu’un faible qui ne répond pas à l’intention de l’internaute.

Voici quelques autres avantages :

  • Il génère un CTR élevé : il attire les visites et les partages.
  • Il vous aide à générer des backlinks : des citations sont synonymes de crédibilité et de confiance. Plus vous avez de backlinks, plus vous avez de chances d’être bien classé.
  • Il vous permet d’intégrer des mots clés : il est le seul moyen de s’assurer que vous pouvez les utiliser de manière stratégique sans contraintes tout en répondant à l’intention.
  • Il offre une expérience exceptionnelle : le référencement implique également la création d’un site doté d’une bonne structure dans laquelle il est possible de naviguer facilement, orienté vers la performance et la conversion.

Comment définir ses buyers personas ?

Un buyer persona est un profil qui décrit un client cible. Ces profils d’acheteurs décrivent vos clients idéaux, leurs journées, les défis auxquels ils sont confrontés et la manière dont ils prennent des décisions.

Il est courant d’avoir plusieurs personnalités d’acheteurs pour un produit ou service. Par exemple, si le client final de votre produit doit obtenir l’approbation des autres avant de faire un achat, chaque personne participant à cette décision est une personnalité distincte. Ils auront des critères différents pour évaluer votre produit, et vous aurez besoin de stratégies différentes pour répondre à ces besoins.

Vous devez donc savoir qui vous ciblez, ce qui déterminera ensuite qui vous visez.

Il est extrêmement important d’avoir des buyers personas cibles avant de se lancer. Avec un public cible défini, il est plus facile d’écrire des textes pour répondre à ce public.

Recherchez les bonnes données :

  • Qui est-il : nom, sexe, âge, lieu, éducation, profession, niveaux de revenus, habitudes d’achat, intérêts, mode de vie, passe-temps…
  • Quel est son environnement : heure et lieu d’accès à votre site, y compris les appareils qu’ils utilisent.
  • Quels sont ses besoins : que vient il chercher sur votre site.
  • Quelle est sa motivation : son résultat souhaité.

Utiliser les différentes balises

Exemple de balises méta tags

Les balises méta-tags sont invisibles et fournissent des données aux moteurs.

Elles leurs permettent de déterminer plus facilement de quoi vous parlez. Elles sont placées dans la section <head> d’un document HTML.

Les moteurs de recherche accordent de plus en plus d’importance à une bonne expérience utilisateur, et cela implique de s’assurer que votre site répond le mieux possible à sa demande. Elles y contribuent en veillant à ce que les informations que les chercheurs doivent connaître sur votre site soient affichées en premier lieu de manière concise et utile.

Il existe de nombreux types de méta-tags qui remplissent différents rôles.

Les principales sont :

  • Balise Titre ou Title
  • Balise Méta Description
  • Robots
  • La balise Canonical
  • Open Graph
  • Balises d’en-tête
  • Attribut Alt
  • Encodage de caractère
  • Auteur et copyright

Comment faire de la rédaction ?

La rédaction web orientée SEO est une forme spécialisée d’écriture qui :

  • Contiens les mots que le lecteur cible tape pour trouver l’information qu’il souhaite.
  • Aide à être mieux classé.
  • Génère des visites qualifiées.

L’ensemble de ces optimisations ne doivent pas rendre l’écriture difficile à lire ni donner l’impression d’être répétitive ni perdre son objectif de conversion. Ce qui rend l’exercice difficile et en fait une discipline spécialisée.

Le copywriting est bien plus que la simple insertion de phrases accrocheuses, il doit faire autorité, avoir une longueur suffisante pour réponde pleinement aux questions des lecteurs et se distinguer des concurrents.

Comment utiliser le content marketing ?

Le référencement est un outil que de nombreux spécialistes de la communication connaissent bien. Si votre site est bien référencé, il apparaîtra dans les premières positions.

Le content marketing se concentre sur la création et la distribution des contenus. Ils semblent fonctionner différemment, est-il possible pour eux de travailler ensemble ? Comment pouvez vous l’intégrer dans votre logique de notoriété ?

Sans un contenu de valeur, vous ne pouvez pas profiter pleinement des avantages du référencement. Sa pertinence et utilité incite les internautes à rester plus longtemps et montre votre valeur.

Pourquoi les actualiser ?

Chaque mise à jour de votre site une fois qu’il est en ligne joue un rôle dans son interaction avec les visiteurs, les clients et les moteurs.

Un site statique sans mise à jour peut être considéré comme une entité sans vie et sans nouveauté. Pour autant, des publications anciennes sans mises à jour peuvent aussi très bien se positionner.

Le moteur met souvent à jour son algorithme et vos concurrents sont susceptibles d’apporter des modifications dans le but de vous surclasser.

Il est donc essentiel de mettre à jour régulièrement votre plan d’action.

La notion de duplicate content

Le contenu dupliqué fait référence à des blocs de textes qui sont soit totalement identiques les uns aux autres.

Il existe deux types de duplications :

  • L’interne dans le cas où un domaine crée un double contenu sur le même site.
  • Le dupliqué externe lorsque deux ou plusieurs sites différents ont le même texte indexée.

Officiellement, Google n’impose pas de sanction pour duplicate content. Cependant, il filtre les textes identiques, ce qui a le même impact qu’une pénalité : une perte de positions.

Les doublons obligent à choisir parmi des textes identiques celui qui doit être classée dans les premiers. Il arrive que le texte original ne soit pas celui choisi.

L’utilisation du cocon sémantique

Un cocon sémantique visualisé avec Cocon.se

Le cocon sémantique est une méthode qui consiste à créer un ensemble de pages liées entre elles via des affinités sémantiques.

L’ensemble de la structure et du maillage interne créé à pour objectif de pousser des urls cibles afin de la faire progresser. L’univers sémantique créé doit donner tous les signes de pertinence dont il a besoin pour considérer la page cible comme digne d’être positionnée en tête.

Dans un contexte où le netlnking peut devenir très onéreux ou sanctionné, le cocon sémantique est un outil opportun pour développer une stratégie qui elle aussi a un coût, mais qui permet d’obtenir un résultat sans actionner des leviers trop risqués.

Le référencement local

Le référencement local

Le SEO local est une opportunité pour les entreprises de proximité qui souhaitent drainer du flux de proximité. Il est qualifié et rémunérateur, les recherches correspondant à un besoin immédiat dans la majorité des cas.

À l’aire du smartphone, tirer parti de sa visibilité est obligation pour tout commerce qui souhaite être visible dans sa zone de chalandise.

Les principaux bénéfices pour une entreprise :

  • Augmenter les visites.
  • Générer plus d’appels de clients potentiels.
  • Rester compétitif par rapport aux entreprises voisines
  • Apparaitre dans les 3 résultats du pack local.
  • Obtenir plus de commentaires locaux.
  • Réduire les coûts de publicité.
  • Gagner des clients prêts à acheter.
  • Suivre la croissance et les opportunités.

Google My Business

La fiche Google My Business en référencement local

La fiche GMB est la base de toute stratégie localisée. Elle regroupe toutes les informations concernant votre entreprise et permet de valider celles qui pourront être utilisées par dans différents outils (GMB, pack local, Maps, knowledge graph…)

La création d’une fiche GMB est donc le point de départ et le complètent du site web.

Les principaux bénéfices de GMB sont :

  • Il est gratuit est simple à utiliser.
  • GMB vous permet d’apparaître dans les cartes et les résutats localisés.
  • Il permet aux clients de laisser des avis sur votre entreprise.
  • Il vous permet d’accéder à des statistiques qui peuvent vous aider à déterminer d’où vient votre audience.

Le Pack local

Exemple d'un pack local qui s'affiche dans les résultats Google

Google traite environ 3,5 milliards de recherches par jour et représente près de 88 % de toutes les demandes sur mobile.

Il apparaît 93 % du temps lorsqu’une demande locale est effectuée et 46 % de toutes sont de cette nature.

Les intentions locales ont un gros pouvoir de transformation, car 76 % de visiteurs qui recherchent des établissements, produits et services visitent un magasin dans la journée.

Affiché bien en vue, figurer dans le Pack local peut améliorer le nombre de visites et les ventes des commerces locaux.

Les principaux avantages d’y être visible pour une entreprise :

  • Il occupe la première position pour une majorité des recherches localisées.
  • Il  offre un aperçu rapide de votre entreprise.
  • Les consommateurs ont tendance à se tourner vers les entreprises qu’ils peuvent facilement trouver.
  • La fonction d’appel en un clic permet d’appeler votre entreprise en un seul clic.
  • Il rassure les clients potentiels en donnant un résumé de vos avis.

Le référencement sur smartphone

Le référencement mobile

Qu’est-ce que le Mobile first index ?

La navigation sur smartphone a dépassé celle sur ordinateur de bureau. Adapter son site à ce type la navigation n’est plus une option, mais une nécessité.

De ce constat, et dans l’objectif de donner une expérience optimum, Google a décidé d’une indexation de la version mobile par défaut appelé Mobile first index.

La recherche vocale

Aujourd’hui la recherche vocale est présente sur les assistants vocaux déjà vendus par centaines de millions.

Pourquoi se développe-t-elle si rapidement ?

  • Les internautes veulent obtenir des réponses et conseils rapides.
  • Elle est plus rapide que de taper un texte sur l’écran.
  • Elle est l’outil parfait pour les recherches en déplacement.
  • Les assistants numériques sont de plus en plus utilisés et la voix constitue l’interface d’échange avec ces appareils.

OK Google est devenu une expression grand public. Avec la multiplication des assistants personnels, il va falloir s’adapter à cette nouvelle donne.

Le référencement d’application sur les App Stores

Les boutiques App Store d’Apple et Android utilisent un système de classement afin de présenter les applications.

Lorsque l’on souhaite mettre en avant son application, il est important de la faire apparaitre en bonne position.

Ayant beaucoup de points communs avec le SEO, l’ASO (App Store Optimization) est devenu une discipline exercée par certains professionnels.

Les principaux facteurs de ranking sont :

  • Le nombre total de téléchargements
  • Les recettes générées
  • Utilisation de l’application
  • Nombre et valeur des commentaires
  • Pertinence des mots-clés
  • La mise à jour de l’application
  • Rétention / Désinstallations

Le SEO d’un site E-commerce

Le SEO d’un site E-commerce

Comment référencer un site E-commerce ?

Le référencement d’un site e-commerce répondant à des problématiques particulières.

Les meilleures actions pour un site de commerce électronique comprennent :

  • Trouver les types d’informations que les clients recherchent.
  • Une architecture du site optimisée pour l’utilisateur et le crawl.
  • Travailler les fiches produits.
  • Générer un trafic organique.
  • Utiliser le content marketing pour attirer des prospects ciblés.
  • Augmenter l’autorité de votre site.

Les erreurs SEO sur les E-commerce sont courantes et tournent souvent pour les débutants autour des mêmes problématiques :

  • Faiblesses des descriptions de produits.
  • Ergonomie défaillante.
  • Trop grande concentration sur les requêtes transactionnels.
  • Absence de développement informationnel.
  • Mauvaise migration entre les plateformes de commerce électronique.

Rédiger une fiche produit performante pour vendre et se référencer

Les fiches produits des e-commerce qui débutent sont souvent mal construites et mal optimisées. L’ergonomie peut y être mauvaise et les standards non utilisés.

Vos efforts seront réduits à néant, si une fois un visiteur arrivé sur votre site celui-ci ne le met pas en confiance. Il souvent plus facile d’augmenter son taux de conversion que de doubler ses visites.

Votre stratégie de notoriété et de conversion doit être optimisée sur toute la chaine.

Anatomie d’une fiche produit taillée pour la performance :

  • Développer l’information donnée.
  • Être précis sur le nom de votre produit.
  • Rédiger les descriptions produites pour les consommateurs.
  • Être clair et concis sur la tarification.
  • Prévoir un appel à l’action clair.
  • Utiliser des illustrations uniques en haute résolution.
  • Inclure des vidéos.
  • Utiliser les preuves sociales.
  • Faciliter la comparaison des produits.
  • Inspirer la confiance.
  • Être clair sur les frais de port.

Le référencement des médias

Le référencement de vidéos et d’images

Référencer une vidéo sur YouTube et Google

YouTube est le deuxième plus important moteur du monde. Utiliser la vidéo peut être très efficace. Encore faut-il être visible et apparaitre en tête.

L’optimisation du positionnement des vidéos sur YouTube est possible et répond à des règles.

Les principaux facteurs de ranking d’une vidéo sur Youtube : 

  • Durée moyenne de visionnage.
  • Autorité de la chaine.
  • Données de rétention du public pour une vidéo.
  • Commentaires sur les vidéos.
  • Abonnés après avoir regardé une vidéo.
  • Nombre de partages des vidéos.
  • Taux de clics.
  • Pouces vers le haut / Pouces vers le bas.

Positionner les images

Les images sont indispensables. Elles permettent d’illustrer le propos, d’aérer les textes et de rendre l’ensemble des textes plus agréable à parcourir.

Elles peuvent également être source de visibilité dans les moteurs, notamment sur Gogole image qui peut souvent être utilisée pour des recherches spécifiques.

Les principaux facteurs de positionnement d’une image sont :

  • L’autorité de la page qui affiche l’image.
  • L’algorithme de classement tient compte du contexte.
  • Google donne la priorité à la fraicheur.
  • La position de l’image dans le texte.

Augmenter la popularité d’un site

Popularité et netlinking

À ses débuts, Google doit son succès et la pertinence de ses résultats à sa philosophie de départ qui consiste à considérer que plus un site reçoit de liens d’autres, et plus celui-ci est qualitatif.

Ses fondateurs ont déposé le brevet de l’algorithme du Pagerank qui calcule la notoriété d’un site suivant un calcul bien particulier.

La capacité pour un site de générer des backlinks est un point déterminant en référencement naturel. C’est donc le nerf de la guerre et une des activités principales des référenceurs.

L’objectif d’une stratégie de Netlinking est donc de stimuler la notoriété d’un site en utilisant toutes les possibilités mises à disposition, sans s’attirer les foudres via une pénalité.

Qu’est-ce qu’un bon backlink ?

Les liens sont l'essence même du web

La génération de backlinks est un des piliers de la performance du référencement organique. Pour autant tous ne se valent pas, certains sont plus puissants, alors que d’autres sont totalement toxiques et feraient mieux de ne pas être.

Pendant longtemps il fut possible d’en générer par centaines ou milliers, celui qui en généraient le plus gagné. Puis le temps a passé, Google a sifflé la fin de la fête en commençant à sanctionner via des algorithmes destinés à détecter les opérations de linking abusives.

Aujourd’hui les actions de linking, pour être pérennes dans le temps, doit être beaucoup plus qualitative que par le passé.

Obtenir des backlink venant de site d’autorité, sera la pierre angulaire  :

  • Un backlink depuis une source pertinente.
  • A partir d’une source de confiance.
  • Avec une ancre ciblée.
  • Un lien qui est cliqué.
  • Présent dans le texte.
  • Un backlink obtenu sur une page qui a de l’autorité.
  • Non réciproque.
  • Un backlink parmi peu d’autres.
  • Un lien difficile à obtenir.

Comment générer des backlink ?

Les backlink sont importants pour le SEO

Obtenir des liens externes n’est pas une chose facile et peut être risqué suivant les méthodes employées. Les Guidelines ne laissent pas beaucoup de liberté à ce sujet, et si elles devaient être suivies à 100 %, seuls les ceux 100 % naturels et non sollicités seraient autorisés.

Inutile de vous dire que suivre ces règles rendrait le travail beaucoup plus difficile.

Les meilleurs façon pour stimuler votre acquisition de backlinks :

  • Créer des publications qualitatives pour générer des partages
  • Suivre les stratégies de netlinking des concurrents
  • Acheter des backlinks
  • Créer un blog pour stimuler les partages
  • S’inscrire dans des annuaires ou forums
  • Créer des commentaires sur des blogs de niche
  • Réaliser un sondage pour obtenir des citations vers celui-ci
  • Contacter des influenceurs qui parleront de vous
  • Organiser un concours qui sera partagé
  • Créer des publications durables
  • Créer des outils, scripts…
  • Parrainer un événement dans votre secteur d’activité
  • Publier des offres d’emplois
  • Créer un réseau de blog privé (PBN)
  • Utiliser le guest Blogging
  • Utiliser les relations presse et les articles sponsorisés
  • Contacter ses partenaires et fournisseurs
  • Faire des échanges
  • Être une référence dans son secteur
  • Créer des infographies et des visuels qui seront partagées

Comment évaluer la popularité d’un site ?

Utiliser l’outil Trust flow et Citation flow de Majestic, est courant pour évaluer la popularité d’un site ou d’une page. Majestic est un éditeur de logiciel en ligne qui pour objectif de faire l’inventaire des liens entrants obtenus par un site. Son énorme base de données contenant des milliards de données permet d’évaluer son profil et ses thématiques principales.

Ces indicateurs doivent être complétés par d’autres données pour réaliser une étude complète, mais il s’agit de références et métriques que vous rencontrerez souvent dans le monde du SEO et qui servent aux plateformes d’achat pour évaluer les sites des éditeurs.

Peut-on acheter des backlinks ?

Le travail d’acquisition peut être grandement facilité par les plateformes d’achat de backlinks. Ces prestataires vous mettent en relation avec des éditeurs qui acceptent d’en créer.

Plus le catalogue mis à disposition est étoffé, et plus il sera facile de trouver des spots dans les thématiques souhaitées.

L’achat de backlinks est une solution qui peut cependant vite devenir onéreuse. La tarification élevée de certains supports, même si la facilité et le gain de temps son à prendre en compte, peuvent mener à s’interroger sur l’intérêt final de la méthode au profit d’autres solutions, et notamment la création d’un réseau de site personnel.

L’importance du maillage interne

La popularité s’obtient majoritairement grâce aux backlinks, cependant le maillage interne joue également un rôle important pour répartir cette force entre les pages. Un bon réseau interne permet donc de transférer de l’autorité à certaines pages et d’en améliorer le positionnement.

Un travail de netlinking sera donc complété par un travail sur le maillage interne avec des ancres pertinentes, placé dans un contexte sémantique adéquat, en veillant à lier des pages pertinentes entre elles.

Qu’est qu’un PBN et réseau de site privé ?

Lorsque le netlinking est difficile, que les tarifications de l’achat de backlink deviennent trop élevées ou tout simplement pour en avoir la maitrise, la création d’un réseau de site peut être une bonne opportunité.

Appelé PBN (Personnal Blog Network), le réseau de site peut être une option qui a de nombreux avantages.

Quels sont les avantages à l’utiliser ?

  • Flexibilité et enrichissement du PBN.
  • Une continuité thématique avec votre site.
  • Force constante dans le temps pour les backlink.

Le PBN permet de créer des sites thématisés, d’y placer librement les liens voulus avec les ancres souhaitées, tout en pouvant revenir sur ses actions en cas de mise à jour ou de pénalités.

Le principal problème de l’achat est que les publications qui contiennent les backlinks se retrouvent avec le temps dans les méandres des arborescences, faisant ainsi perdre petit à petit la puissance des backlinks si chèrement acquis.

Avec le PBN, vous avez la main et gardez une puissance constante, ou qui augmente avec la puissance intrinsèque du site lieur lui-même.

Cette stratégie efficace est cependant risquée si elle est mal maitrisée. Sans cacher les empreintes de votre réseau, vos concurrents n’auront pas de mal à identifier tous les sites le composant. Soyez donc vigilants.

Pourquoi analyser ses backlinks de ceux de ses concurrents ?

Votre profil de backlinks doit être harmonieux, et s’il n’est pas 100 % naturel, il doit y ressembler.

Son analyse vous permet de vérifier si votre profil de lien est cohérent avec le profil des concurrents de votre secteur d’activité, si vos ancres ne sont pas trop optimisées.

À partir de ces observations, vous serez en mesure de réévaluer votre plan d’action et de l’adapter pour qu’elle respecte les règles et objectifs fixés.

En observant les opérations de linking de vos concurrents, vous trouverez de nouvelles opportunités et pourrez comprendre quelles stratégies fonctionnent à l’instant T.

Les pénalités et sanctions

Les pénalités Google

Les pénalités algorithmiques et manuelles

Lorsque les Guidelines ne sont pas respectées, Google peut appliquer des sanctions. Ces pénalités sont de deux types, manuels ou algorithmiques.

Les pénalités manuelles sont directement appliquées par un membre de l’équipe suite à l’étude du site, elles sont signalées dans la Search Console avec les raisons.

Les sanctions algorithmiques sont plus insidieuses. Vous constatez une chute de positions, sur l’ensemble du site ou certaines parties, mais vous ne savez pas pourquoi. Il faut alors étudier les causes possibles et agir en conséquence pour tenter que la sanction soit levée automatiquement.

La pénalité Pingouin

La pénalité Pingouin est l’une des plus connue et des plus redoutée. Apparue en 2012, elle a pour objectif de sanctionner les campagnes de netlinking abusives et la suroptimisation des ancres.

Si votre site reçoit de mauvais liens, avec des ancres trop uniformes, vous risquez d’être détecté par l’algorithme Pingouin et de voir votre site chuter dans les classements.

La pénalité Panda

La pénalité panda sanctionne les textes de piètre qualité. Les éditeurs générant des textes dupliqués ou sans plus value pour l’internaute sont particulièrement exposés.

Pour s’en sortir, les textes ciblés doivent être supprimés ou améliorés.

Le profil des ancres

L’optimisation des ancres est particulièrement surveillée et sanctionnée en cas d’abus. Ils doivent être conceptualisés et tenir compte de l’expérience utilisateur. Utiliser des mots clés de manière abusive devient risqué.

Créer des ancres descriptives dans un contexte sémantique favorable reste la meilleure pratique aujourd’hui.

Chercher à multiplier les ancres exactes est encore possible, mais avec parcimonie, et en surveillant en permanence leurs profils.

Comment sortir d’une pénalité ?

Les sanctions peuvent être lourdes de conséquences pour un site internet et un business. Le délai pour sortir d’une pénalité est incertain, et les causes des sanctions pas toujours clairement identifiées.

Un certain nombre de recommandations peuvent appliquées suivant le type de pénalités appliquées, manuelles ou algorithmiques.

Les meilleurs outils

Les outils SEO

Quelles KPI utiliser ?

Le SEO ne se résume pas à simplement générer des visites sur votre site. Même si il peut être narcissiquement gratifiant de voir ses courbes monter, ces visites se doivent avant tout d’être ciblée et de générer les conversions souhaitées.

Il est donc primordial de définir clairement quels indicateurs de performances doivent être suivis pour mesurer le bien fondé de la stratégie et de ses résultats.

Les principales KPI à suivre en référencement :

  • Conversions (ventes et prospects)
  • ROI (retour sur investissement)
  • Requêtes avec ou sans marque
  • Classement des mots-clés
  • Backlinks
  • Taux de clics
  • Taux de rebond
  • Durée moyenne de la page
  • Erreurs d’explorations
  • Vitesse

Comment surveiller ses positions ?

Maintenant que Google est capable de reconnaitre l’intention de recherche d’un internaute, suivre les positions n’a plus le même sens qu’auparavant vu qu’une page peut se positionner sur des requêtes différents de ceux pour laquelle elle est optimisée.

Malgré tout il est toujours intéressant de suivre l’évolution de son classement sur des mots expressions stratégiques, ainsi que celui de ses concurrents afin de voir si les tendances sont à la hausse ou à la baisse.

De nombreuses solutions permettent de surveiller les positions jours par jours ou sur des périodes données afin de mesure les évolutions.

Quelles extensions utiliser pour WordPress ?

WordPress est le CMS le plus utilisé au monde. Malgré son rang de leader, les problématiques de référencement naturel sur WP ne sont pas totalement prises en compte dans son développement originel.

Afin de faire face à ces carences, de nombreuses sociétés indépendantes ont développé des extensions WordPress spécifiques afin de paliers aux différentes problématiques de référencement.

D’autres extensions, même si elles ne sont pas directement conçues directement pour le SEO, aident l’ensemble et l’expérience utilisateur via différentes fonctionnalités (mise en cache, maillage interne, poids des images…).

Les principales extensions utiles pour WordPress :

  • SEOPress
  • Yoast
  • Rank Math
  • Easy Table Of content
  • Broken link checker
  • Shortpixel
  • A3 Lazy Load
  • HREFLANG Tags Lite
  • Redirection
  • WP Super Cache
  • Auto Optimize
  • Really Simple SLL
  • Anti Spam
  • Rel No follow Checkbox
  • All in One Schema Rich Snippets
  • WP rocket

Quels logiciels utiliser ?

Le développement de la notoriété sur Google ne peut pas se faire sans utiliser les meilleurs outils SEO pour vous simplifier la vie et vous permettre de déployer votre feuille de route de la manière la plus complète.

Suivant vos besoins, vous pourrez les utiliser ponctuellement ou dans la durée.

Ils peuvent se classe suivant ces catégories :

  • Les complets
  • Audit
  • Monitorer vos positions
  • Audit des backlink
  • Etude des mots clés
  • Aide à la rédaction et à la sémantique
  • Vérifier le duplicate content
  • Analyse de performance
  • Add-oon pour les navigateurs
  • Plugins pour WordPress, l’extension WordPress la plus connu est Yoast.
  • Plateformes d’achats d’articles sponsorisés
  • Plateformes de rédaction

Les opérations délicates

Migration et refonte en SEO

Comment faire une refonte de son site ?

Dans la vie d’un site web, les refontes font partie du schéma classique et de son cycle de vie. Un changement de nom, le besoin de rafraichir une charte graphique vieillissante, la nécessité d’évoluer techniquement, un changement de CMS… Nombreuses sont les causes qui peuvent emmener à transformer un site internet en profondeur. Comment refondre un site sans risquer de perdre ses positions si durement acquises ?

Beaucoup de migrations aboutissent à des catastrophes. La migration d’un site nécessite la mise en action d’un protocole strict afin de ne pas nuire de manière durable aux actions mises déployées dans le passé.

Quel est l’intérêt du HTTPS  ?

Le protocole HTTPS en référencement

Google a annoncé il y a quelques années que le passage au HTTPS d’un site pourrait très légèrement améliorer son positionnement. Ne vous attendez pas à des bouleversements incroyables. La migration en HTTPS d’un site présente également des avantages en matière de réassurance après des visiteurs.

Afin de ne pas nuire à un site, ce processus doit s’opérer en suivant un protocole précis.

Comment changer de nom de domaine  ?

Changer de nom de domaine est une opération simple qui peut néanmoins avoir de lourdes conséquences un site internet.

Le protocole pour changer de nom de domaine n’est pas compliqué à suivre, il est néanmoins nécessaire de sans soucis afin de ne pas voir son site internet plonger dans les classements.

Comment optimiser sa page d’accueil ?

Les index sont souvent sous-exploitées. Pourtant, recevant l’essentiel de la popularité, elles bénéficient souvent d’une grande popularité, et sont les pages les plus puissantes du site. Ne pas exploiter ce potentiel est dommage.

Optimiser sa page d’accueil est possible sans pour autant nuire aux besoins esthétiques et marketing. Selon les cas cela n’est pas toujours facile, surtout si cette contrainte n’a pas été pensée lors de la création de la charte graphique.

La strate SEO doit de préférence être intégrée dès l’élaboration des maquettes, facilitant son intégration harmonieuse et évitant les reprises hasardeuses par la suite.

Avez vous aimé cet article ?

Cliquez sur les étoiles pour donner une note

Note moyenne 5 / 5. Nombre de votes : 51

Pas de votes pour le moment, soyez le premier à voter.

Partager la publication "Qu’est ce que le référencement naturel (SEO) ? "