Illustration de deux ordinateurs avec site web effectuant leur migration nécessaire

Migration de site web : 4 aspects à ne pas oublier

La migration d’un site web, en particulier d’une boutique en ligne, peut influencer profondément le référencement naturel, car les moteurs de recherche doivent s’adapter à la nouvelle structure et au contenu renouvelé. Notamment, lorsqu’on parle de migration PrestaShop, il s’agit souvent de passer d’une solution open source à une autre, comme Shopify, un processus qui nécessite une attention méticuleuse lors de la migration web.

Pourquoi migrer un site web vers une autre plateforme ?

De nombreuses entreprises ont déjà un site Internet, et profitent donc d’une première expérience du web. Elles peuvent alors utiliser leurs connaissances pour complexifier leur stratégie web et repenser la manière dont est construit leur site web. La refonte et la migration d’un site Internet peuvent alors répondre à différents besoins :

  • Opérer des changements stratégiques ;

  • S’aligner à la concurrence en repensant le projet ;

  • Redonner des bases stables à un site web qui souffre de développements spécifiques mal établis dès le départ ;

  • Profiter des meilleures performances de la dernière version 1.7 de PrestaShop.

Dans ces cas-là, on fait ce qu’on appelle une refonte. Le développeur web opère donc la création d’une nouvelle boutique PrestaShop, en partant de l’ancienne version.

L’importance de la réussite d’une migration PrestaShop

La migration d’une boutique PrestaShop n’est pas une tâche à prendre à la légère. Elle touche à la colonne vertébrale de votre présence en ligne, à savoir vos données, vos modules spécifiques, et bien sûr, votre interface client.

Illustration de la migration d'une boutique PrestaShop avec plusieurs produits mis dans des fenêtres web, un personnage et le logo Prestashop

Certains points cruciaux d’une refonte PrestaShop, notamment ceux liés aux fonctionnalités et modules intégrés, requièrent une expertise approfondie, notamment en ce qui concerne la migration des données. Ces données sont vitales, car elles définissent directement l’expérience utilisateur sur votre site web.

En effet, la confiance et la sécurité sont au cœur des préoccupations de chaque client naviguant sur une boutique en ligne. Et quand on effectue des achats en ligne, on doit renforcer cette confiance. Google, comme d’autres moteurs de recherche, prend en compte cette expérience utilisateur pour le référencement SEO de votre site.

Ainsi, dans le cadre d’un projet de refonte, il est crucial d’assurer la continuité en matière d’expérience client. Le but est de transférer toutes les données, sans la contrainte pour les clients de créer un nouveau compte ou de réinitialiser leurs mots de passe.

La migration PrestaShop vise à intégrer toutes les données du catalogue produits. Cela inclut des éléments essentiels tels que les données clients, les historiques de facturation, les commandes, les fiches produits et l’arborescence du site. De plus, il est essentiel de prendre en compte l’intégration et la compatibilité des modules, qu’il s’agisse de fonctionnalités natives de PrestaShop, de solutions tierces ou de modules spécifiques développés pour Magento et adaptés pour PrestaShop.

Au-delà de la simple migration des données, la refonte d’une boutique en ligne PrestaShop peut également être l’occasion d’enrichir son blog, d’améliorer la création de contenu ou encore d’optimiser le SEO du site pour un meilleur positionnement sur Google.

Les points de vigilance d’une migration PrestaShop

Sur certains points, la récupération des données peut être un peu délicate, et il faut y prêter une certaine attention.

Conserver et migrer les données client

Nous l’avons vu plus haut, le but de migrer l’intégralité des comptes client est de faire en sorte de garder l’historique. Mais il est aussi important que ce soit complètement transparent pour le client. Au changement de plateforme, l’internaute doit pouvoir voir toutes les modifications du site, mais il doit garder les mêmes informations de connexion (identifiant, mot de passe…). Cela permet de ne pas avoir à redemander de créer un nouveau compte, au risque de donner une mauvaise impression au client final.

En effet, demander une telle chose peut manquer de professionnalisme, et beaucoup peuvent hésiter à se réinscrire, par crainte d’avoir affaire à un site peu fiable, ou avec des problèmes de sécurité. Sans parler de tous les internautes qui ne prendront pas le temps de procéder à une nouvelle inscription par manque de temps ou d’envie !

Il est donc important de faire attention au fait que les connexions soient parfaitement opérationnelles après migration. Pour cela, il faut alors récupérer la clé de cryptage des mots de passe de chaque compte présent sur l’ancien site, et la transférer sur la nouvelle plateforme, avant de s’assurer qu’elle fonctionne parfaitement.

Il suffit alors de vérifier que la connexion passe avec exactement le même mot de passe que sur l’ancienne plateforme.

La validation des nouvelles données

Il faudra également faire attention à la partie sur les validations des nouvelles données. Une fois que toutes les anciennes données sont migrées, il est important de tester la création de chaque process.

Créer une nouvelle fiche produit, passer une commande… Le but est alors de vérifier que tout fonctionne bien entre les anciennes données et les nouvelles données.

La modification des anciennes données

Il est également important de vérifier que vous avez correctement enregistré les modifications apportées aux données de l’ancien site. Par exemple, si vous migrez une fiche produit depuis l’ancien site, et qu’une fois sur le nouveau site, vous essayez de la modifier, il faut vous assurer qu’il n’y ait pas de problème ou de perte de données au passage.

La migration des images

La migration des images n’est pas seulement un enregistrement de base de données, c’est aussi le transfert de fichiers présents sur le serveur de fichiers. Il faut donc s’assurer que la migration a bien fonctionné à ce niveau-là aussi.

C’est d’autant plus important que, dans la plupart des cas, la refonte d’un site englobe aussi une refonte graphique. Il va donc falloir générer à nouveau toutes les miniatures et tous les formats d’image, car généralement, l’évolution des technologies est telle que ça ne fonctionne pas, et on n’aura pas exactement les mêmes formats ou le même rendu.

Chaque élément doit donc être testé tout particulièrement, que ce soit en créant un nouveau compte client, en passant une commande, en créant une fiche produit… Cela prend énormément de temps, mais c’est vraiment nécessaire dans la réussite de la migration du site PrestaShop, car il vous faut être certain que tout est parfait à la sortie du nouveau site.

Les enjeux de la migration d’une boutique en ligne e-commerce

Illustration des 3 impacts de la migration de site web 
et notamment d'une boutique en ligne : SEO, commerce et réseaux sociaux.

Lorsqu’on parle de migration d’un e-commerce, qu’elle soit sous PrestaShop, Shopify, Magento ou toute autre solution open source, les enjeux de la migration de site sont majeurs. Que l’objectif soit de changer d’hébergeur, de serveur, ou d’opter pour une refonte internet complète, il est crucial de maîtriser les implications et les risques associés à une telle démarche :

  • Impact sur le référencement naturel de la boutique : la migration PrestaShop ou Magento vers PrestaShop, peut impacter drastiquement votre position dans les moteurs de recherche. Si votre boutique bénéficiait d’un bon SEO, le passage à une nouvelle version ou plateforme peut dérouter les moteurs de recherche. Les algorithmes, comme ceux de Google, peuvent nécessiter un temps d’adaptation à votre nouvelle configuration, ce qui pourrait affecter temporairement votre visibilité ;
  • Impact sur les réseaux sociaux : votre boutique en ligne, qu’elle opère sous PrestaShop, Shopify ou autre, a sûrement établi une présence robuste sur les réseaux sociaux. La migration implique donc de relier tous les partages, les fiches produits et autres contenus à la nouvelle version de la boutique. Cette étape, cruciale pour l’expérience utilisateur et l’expérience clients, peut être chronophage.
  • Impact sur la gestion commerciale : toute modification, notamment dans le back office comme avec des outils tels que Store Commander, nécessite une attention particulière pour garantir que les success stories précédentes en termes de chiffre d’affaires et de gestion se reflètent dans la nouvelle mouture de la boutique.

Pour naviguer au mieux dans ces eaux parfois tumultueuses, nous recommandons l’accompagnement par une agence web spécialisée. L’anticipation, la préparation minutieuse et l’expertise dans la gestion des migrations, qu’il s’agisse de PrestaShop vers Shopify ou de Magento vers PrestaShop, sont essentiels pour garantir la continuité de la boutique et le maintien des standards d’expérience client.

Pourquoi la migration d’un site web impacte son SEO ?

L’obfuscation dynamique représente le gros enjeu SEO d’un site. Cela veut dire qu’en fonction de la page où vous êtes, vous pouvez ouvrir ou fermer des pages au crawl de Google, et obfusquer ou non les liens, afin d’orienter Googlebot. 

  • Garantir du contenu pertinent pour votre boutique en ligne PrestaShop : si vous réécrivez vos pages, ou que vous les modifiez, assurez-vous de conserver un contenu de qualité. Optimisez vos fiches produits pour qu’elles répondent toujours à l’intention de recherche des internautes et des potentiels clients de votre boutique en ligne.
  •  Assurer un bon maillage interne dans le back office PrestaShop : si vous changez vos contenus, depuis le tableau de bord PrestaShop, pensez à refaire votre maillage interne. Il doit être cohérent pour que les robots de Google et les internautes ne tombent pas sur des liens morts.
  •  Optimiser les Core Web Vitals pour le référencement naturel PrestaShop : quitte à faire une refonte de votre e-commerce avec un CMS open source comme PrestaShop, autant appliquer les nouvelles exigences de Google. Pour cela, des optimisations techniques sont nécessaires, notamment pour améliorer le temps de chargement.
  • Vérifier les backlinks depuis le tableau de bord PrestaShop: pensez à reprendre tous vos backlinks, url par url, dans votre boutique en ligne PrestaShop pour ne pas perdre tout le bénéfice d’un bon netlinking après la migration.

Réussir la migration d’un site Internet : ce qu’il faut éviter

Il faut le reconnaître, migrer les pages de son site web peut être risqué. Alors, pour assurer votre succès, il est conseillé d’éviter certaines erreurs majeures.

Faire une migration sans bonne raison

Illustration d'une personne devant une page web qui fait attention avant la migration de son site.

Cela peut paraître anodin, mais demandez-vous si la migration de votre site web est vraiment nécessaire. Quand on sait le travail que cela demande, et les risques auxquels on s’expose, il est judicieux de se poser la question.

Si c’est juste pour vous tourner vers un CMS qui vous semble plus sympa, ou pour profiter d’une version de PrestaShop qui n’apporte que peu de modifications, le jeu n’en vaut peut-être pas la chandelle.

S’entourer des mauvaises personnes

Une migration de site web ne se fait pas en un claquement de doigts. Cela demande un minimum de connaissances, que seul un expert peut vous apporter. Il peut alors être très risqué de se lancer seul. Lemon Interactive ne peut que vous recommander de faire appel à une agence web spécialisée, ou à un consultant spécialisé.

Ne pas avoir les outils adaptés

Pour assurer un transfert optimal de toutes vos données, vous devez pouvoir vous appuyer sur des outils fiables et performants. Pour effectuer une migration de site, il est alors conseillé d’avoir un crawler, comme Screaming Frog, un accès à la Search Console et à Google Analytics, ou encore des outils d’export de backlinks, comme Majestic, Ahrefs, SeoServer…

Ne pas anticiper suffisamment la migration

De nombreux propriétaires de sites web sous-estiment le travail que demande une migration. Il faut alors solliciter la team de développeurs suffisamment tôt, pour que le projet soit parfaitement exécuté, sans précipitation, et qu’il n’y ait aucun problème, visible ou non, dès la mise en ligne. Anticiper la migration permet aussi de faire preuve de rigueur pour conserver les performances SEO du site.

Vous envisagez de faire une refonte complète de votre site PrestaShop ? Pour vous assurer une migration de site optimale, qui n’aura pas d’impact négatif sur votre trafic, faites confiance aux experts de Lemon Interactive.

Illustration d'ordinateurs avec des liens d'obfuscation SEO.

L’obfuscation de lien en SEO : c’est quoi et pourquoi c’est efficace ?

Parmi toutes les techniques SEO qui permettent d’améliorer le référencement naturel d’un site web, l’obfuscation des liens vient optimiser le maillage interne et la distribution de jus entre les différentes pages. Loin des techniques black hat du cloaking, cette stratégie de netlinking augmente alors la visibilité et le positionnement d’un site en toute légalité. En combinant une visibilité accrue avec un contenu pertinent et de qualité, l’obfuscation de lien renforce l’attractivité globale d’une plateforme web auprès des moteurs de recherche. Fort de son expérience en tant qu’agence de référence à Lille, Lemon Interactive vous invite à explorer les secrets de l’obfuscation de lien en SEO.

Qu’est-ce que l’obfuscation ?

L’obfuscation est une méthodologie qui consiste à dissimuler, d’une manière ou d’une autre, des liens ou des éléments html de la structure de votre site web à Google. Autrement dit, obfusquer un lien revient à le cacher de Google, sans pour autant que cela interfère sur la navigation dans le site.

C’est, bien sûr, la définition de l’obfuscation au sens SEO du terme, à ne pas confondre avec l’obfuscation php, qui est un tout autre sujet.

L’obfuscation est un excellent moyen, sur la gestion du contenu et de la technique de votre site, de thématiser votre contenu, et de donner du sens à Google, pour le maillage interne. Un expert SEO doit toutefois l’utiliser avec prudence, car une mauvaise application peut engendrer des problèmes d’indexation des pages ou des problèmes du parcours du site par Google.

Les bénéfices de l’obfuscation

Au premier abord, on pourrait se demander quel est l’intérêt de cacher un lien aux moteurs de recherche, si c’est pour le laisser visible aux yeux de l’internaute. En réalité, les intérêts de l’obfuscation sont nombreux.

Améliorer la thématisation d’un site

Illustration de liens entre plusieurs sites internet pour faire de l'obfuscation.

En SEO on accorde beaucoup d’importance à ce qu’on appelle le glissement sémantique. En référencement naturel, cette technique permet de créer des liens entre différentes pages, voire différents sites, qui n’ont pas la même thématique. Le lien se fait alors par un mot commun, qui permet au moteur de recherche de comprendre la relation entre les deux pages. 

En ce sens, la page A transmet à la page B, via un lien, toute sa puissance, mais aussi un contexte sémantique.

Prenons un exemple : si une page A parle de chaussures Nike, et que la page B parle de football, le moteur de recherche va comprendre qu’en passant de l’un à l’autre, on reste dans la thématique du sport et des chaussures Nike pour le football.

Aujourd’hui, avec un maillage interne non contrôlé, notamment via les méga menus, vous pouvez vous retrouver dans une situation où Google passe de page en page sans qu’elles n’aient de lien entre elles, et qui ne font pas sens entre elles. Et cela peut avoir des conséquences sur le référencement naturel et la puissance du site.

Autre exemple : si, sur un grand site e-commerce comme Amazon, la page « chaussure » fait un lien vers celle « transat », le cocon sémantique est brisé, et la puissance s’éparpille.

Prioriser le crawl de Google

Le second intérêt de l’obfuscation est de pouvoir prioriser le crawl de Google, en le guidant vers les pages les plus importantes du site, au détriment des moins puissantes.

Prenons l’exemple classique qu’on voit en page d’accueil : sans obfuscation, les mentions légales ou la politique de confidentialité ont autant de poids SEO, voire plus, que n’importe quel élément de la home page ou du menu. Pourquoi ? Parce qu’elles sont dans le footer, et donc présentes sur toutes les pages du site.

L’obfuscation joue un rôle crucial dans la gestion de la façon dont Google explore et indexe les pages d’un site web. En cachant délibérément certains liens ou en les rendant moins visibles pour le Googlebot, les webmasters peuvent guider efficacement le robot d’exploration vers des pages spécifiques qu’ils jugent prioritaires. Cela permet d’optimiser le temps et les ressources que Google consacre à l’indexation d’un site, mais aussi de s’assurer que les plus importantes reçoivent l’attention qu’elles méritent.

En outre, l’obfuscation aide à une meilleure distribution du PageRank. C’est un algorithme utilisé par Google pour mesurer l’importance d’une page web sur la base et la qualité des liens qui pointent vers elle. Une page avec un grand nombre de liens de haute qualité pointant vers elle est considérée comme ayant un PageRank élevé. En utilisant l’obfuscation, les webmasters peuvent contrôler la façon dont ce PageRank est distribué à travers leur site, assurant ainsi que la notoriété et l’autorité sont distribuées de manière plus équilibrée entre les différentes pages. Cela garantit que les pages essentielles ne sont pas négligées.

Pour résumer très simplement, l’obfuscation permet de doper les performances des pages business, en leur donnant une mise en valeur plus importante, au détriment des pages moins influentes pour le business.

Prendre le pas sur le nofollow

Aujourd’hui, un expert SEO sérieux ne recommande jamais d’utiliser une balise rel=nofollow sur une balise a href, car Google l’a tuée.

Il n’y a encore pas si longtemps, nofollow donnait l’ordre à Google de ne pas suivre le lien, et de ne pas transmettre de puissance à la page. Aujourd’hui, nofollow donne toujours l’ordre à Google de ne pas suivre le lien, en revanche, on y dilue quand même la puissance du site. 

Imaginons qu’une page représente une puissance de 100 %, et que cette page contienne 2 liens, un en dofollow et un en nofollow. Plutôt de mettre 100 % de la puissance sur le lien en dofollow, le lien en nofollow va faire perdre 50 % de la puissance pour rien.

Les dangers de l’obfuscation

Illustration d'une personne qui attrape le danger d'une page internet obfusquée.

L’obfuscation est souvent mise en lien avec le cloaking. Cette méthode, qui consiste à afficher une version différente d’un site Internet en fonction de l’IP, du user agent, ou de la personne qui va se connecter, est une technique de black hat couramment employée.

L’objectif est alors de proposer une version de votre site spécifique à Google, pour lui donner le plus de chances possibles de ranker. Concrètement, pendant que Google voit une page avec énormément de contenus texte idéale pour le SEO, l’utilisateur lambda, lui, va voir une belle page aérée, avec des images, un formulaire, des vidéos… Autant d’éléments qui n’aident pas forcément au référencement de la page.

Il ne faut alors pas mélanger l’obfuscation avec le cloaking. L’obfuscation a été reconnue comme totalement acceptable par Google depuis un moment déjà, et notamment par l’intermédiaire de John Mueller, le grand défenseur du SEO. En effet, ce n’est pas une manière de cacher du contenu, mais plutôt de prioriser le crawl de Google. Et ça, Google l’apprécie, car le Googlebot est très cher à déployer, et en l’aidant à faire du bon travail en l’envoyant vers des bonnes pages, vous l’aidez à économiser de l’argent. Il n’a donc aucune raison de sanctionner cette pratique.

Comment déployer l’obfuscation ? Méthodologie

Pour déployer l’obfuscation sur votre site web, deux méthodologies sont applicables, selon vos objectifs.

L’obfuscation statique

Si demain vous écrivez un article et que vous faites un lien vers Le Monde ou Le Figaro, et que vous n’avez pas envie d’envoyer de puissance (et encore moins de mettre un nofollow), vous pouvez alors mettre en one shot un lien obfusqué sur Le Monde ou Le Figaro, pour préserver votre jus. De manière plus concrète, le site obfusque le lien où que vous soyez. C’est ce qu’on appelle l’obfuscation statique.

C’est la méthode la plus simple, et par exemple, on l’utilise pour les liens du footer, qui sont généralement des liens statiques.

L’obfuscation dynamique

L’obfuscation dynamique représente le gros enjeu SEO d’un site. Cela veut dire qu’en fonction de la page où vous êtes, vous pouvez ouvrir ou fermer des pages au crawl de Google, et obfusquer ou non les liens, afin d’orienter Googlebot. 

On parle d’obfuscation dynamique presque exclusivement dans le cadre d’un méga menu. En effet, dans le cadre du maillage en silo, on va ouvrir ou fermer l’accès aux catégories, sous-catégories et sous-sous-catégories en fonction de l’endroit où vous vous situez dans l’arborescence.

Rien ne vaut un exemple : Si on arrive sur la home page, le menu présente une obfuscation dynamique. L’ensemble des catégories du menu a un accès libre avec une balise a href classique, tandis que l’obfuscation affecte l’ensemble des sous-catégories (et niveaux inférieurs).

Une fois qu’on a atterri sur une catégorie, les autres catégories, l’ensemble du silo et la home page restent accessibles au googlebot, mais pas les autres sous-catégories. Et ainsi de suite…

Le déploiement technique de l’obfuscation

Illustration des trois techniques de l'obfuscation SEO : propriété button on click, encryptage en base 64, méthode par IP

Rentrons dans le cœur technique de l’obfuscation, en découvrant les différentes méthodes de déploiement. Il y a ainsi 3 grandes solutions pour réaliser de l’obfuscation :

  • L’utilisation de la propriété button onclick : cela va vous permettre de cacher le lien dans du JavaScript de façon très simple, et d’empêcher Google de voir le lien grâce à un habillage CSS concordant avec la balise a href traditionnelle. En effet, rappelons que Google n’interprète pas le JS ;

  • L’encryptage en base64 : cette technique est un peu plus compliquée, et consiste à créer un fichier JavaScript (qu’on trouve facilement en open-source sur le web) qui permettra de crypter un lien, et de ne le décrypter qu’avec l’exécution d’un code JS ;

  • La méthode par IP (ou white hat cloaking) : avec cette technique, on cloake le site en disant « si le visiteur qui vient sur le site est Googlebot, on lui affiche une disposition des liens spécifique ». Mais on ne touche surtout pas au contenu ! La seule chose à laquelle on touche, c’est l’ouverture et la fermeture des liens. C’est la méthode la plus technique, car elle nécessite du développement, mais c’est assurément la plus efficiente.

Quels liens faut-il obfusquer ?

L’obfuscation d’un lien se fait, en général, au cas par cas, et dépend de vos objectifs, de la page où il se trouve, et de celle où il amène. En revanche, certains liens sont toujours bons à obfusquer pour une stratégie SEO efficace :

  • Le méga menu et le footer, afin qu’ils ne prennent pas le dessus sur le contenu ciblé des pages principales ;

  • Les liens e-commerce : sur un site e-commerce, on a vite fait de trouver des liens qui mènent vers tout et n’importe quoi. Mieux vaut les obfusquer pour éviter les catastrophes sémantiques, qui ont un impact direct sur le référencement ;

  • Les liens identiques dans un même contenu : les liens insérés dans le contenu d’une page sont entourés d’un contexte sémantique riche qui leur donne de la puissance. Alors, si vous avez plusieurs fois le même lien dans un seul contenu, faites en sorte d’obfusquer ceux qui ont une ancre sémantiquement moins riche.

L’obfuscation est une technique SEO essentielle, mais difficile à mettre en place. Alors, si vous souhaitez optimiser le maillage interne de votre site Internet ou créer un site parfaitement optimisé pour le référencement naturel, n’hésitez pas à contacter les experts SEO de Lemon Interactive.

Illustration de personnages entourés d'investissements en SEO.

Investir en SEO : 5 conseils pour votre entreprise (TPE, PME, Grands comptes…)

De nos jours, une entreprise a tout intérêt à créer un site web, pour s’assurer une visibilité en ligne et ouvrir son marché. Mais pour qu’un site attire du trafic et soit un investissement rentable, il est impératif d’avoir une stratégie marketing basée sur le SEO. Lemon Interactive vous livre quelques conseils pour investir en référencement naturel.

Qu’est-ce que le SEO ?

Il est toujours intéressant de faire une petite piqûre de rappel pour ceux qui débutent en SEO, ou Search Engine Optimization. Cette pratique regroupe un ensemble de techniques de référencement naturel qui a pour but d’améliorer le positionnement d’un site web dans les pages de résultats des moteurs de recherche (SERP).

Une stratégie SEO se base sur différentes techniques qui permettent aux moteurs de recherche de saisir la pertinence et l’autorité du site et de ses contenus, pour ensuite le mettre en avant :

  • Optimisation des mots-clés ;
  • Création de contenus de qualité ;
  • Optimisation de la structure du site web ;
  • Optimisation de la vitesse de chargement des pages ;
  • Mise en place de techniques de netlinking, et notamment de liens entrants ;
  • Mise en place d’une stratégie sur les réseaux sociaux.

Les algorithmes des moteurs de recherches sont en constante évolution, mais ces critères SEO restent des valeurs sûres pour gagner en visibilité.

Quel est l’intérêt, pour des entreprises, de travailler le SEO de son site ?

Illustration d'un site optimisé grâce au SEO bien investi

Avoir un site Internet, c’est bien, mais s’il n’est pas visité, il ne sert à rien. La stratégie SEO est donc essentielle, car elle est le garant du succès de votre projet.

  • Un site optimisé attire du trafic qualifié : l’internaute arrive sur votre site en tapant une requête dans la barre de recherche de Google, il est vraiment intéressé par votre thématique ;

  • Un site optimisé se démarque de la concurrence : pour un même mot-clé tapé dans Google, le site optimisé sera mieux classé dans la SERP qu’un concurrent mal optimisé ;

  • Un site optimisé offre un meilleur taux de conversion et représente un levier d’acquisition : le SEO permet d’améliorer l’expérience utilisateur des internautes, et de répondre précisément à leur intention de recherche. Il est alors plus facile de convertir un convaincu, que de convertir un internaute qui arrive sur votre site Internet par hasard.

Investir en SEO : un projet au cas par cas

Il est difficile de donner des conseils généraux pour investir dans le SEO, car la stratégie à adopter dépend vraiment de la situation de l’entreprise et de son site web.

Une stratégie SEO selon votre situation

Que vous ayez un site qui vient de sortir de terre, un business qui débute, ou encore une start-up, vous n’aurez pas les mêmes problématiques de stratégie SEO qu’une grande entreprise nationale ou internationale, installée dans la durée. Les enjeux de positionnement sont bien différents.

Une stratégie SEO selon le marché que vous occupez

Si vous êtes sur un marché de longue traîne ou une niche, ou encore si vous êtes sur un marché hyper concurrentiel, comme le prêt-à-porter, l’assurance ou la banque, vous aurez des considérations très différentes sur le volume et la façon d’investir le budget SEO.

Des efforts ponctuels en SEO peuvent-ils remplacer un investissement constant ?

Si vous envisagez de lancer votre site web, vous pouvez être tenté de créer un gros volume de contenus d’un coup, de tout publier, sans revenir dessus pendant des mois. Grosse erreur !

SEO : une stratégie sur le long terme

Illustration d'une stratégie sur le long terme du SEO.

En SEO, on ne peut clairement pas se permettre de ne pas investir continuellement et durablement dans sa stratégie. Les efforts ponctuels ne remplaceront donc jamais l’investissement constant.

Pour rappel, les 3 gros enjeux de ranking en SEO sont : le contenu, la popularité et la technique. Si les bases techniques sont bien posées et entretenues, il est possible de ne plus trop intervenir dessus dans le temps. En revanche, ce n’est pas du tout le cas pour le contenu et la popularité.

Selon une étude de 2022, la production constante de contenus pèse pour plus de 30 % dans les critères de référencement naturel pour Google. C’est énorme, et ça démontre bien tout l’enjeu de poster très régulièrement du nouveau contenu.

Pourquoi le SEO demande de l’endurance ?

La raison de la mise en avant des contenus réguliers par Google est assez simple : un site qui poste du nouveau contenu va générer l’intérêt et le crawl des robots de Google avec robots.txt. Ainsi, le Googlebot va venir beaucoup plus souvent sur le site, et va avoir envie de découvrir de nouvelles pages. Par la même occasion, il va revisiter vos anciennes pages, ce qui va augmenter sa considération pour votre contenu et le repositionnement dans les résultats de recherche.

À l’inverse, si vous avez un site qui végète, sans nouvelle production, Google viendra de moins en moins souvent, ce qui va occasionner inévitablement des chutes de positions.

L’importance des liens entrants en SEO

La création de contenus est primordiale, et il en va de même avec les backlinks. L’un et l’autre sont même liés. Car un site qui ne propose pas de contenu frais est aussi un site qui génère beaucoup moins de potentiels nouveaux liens entrants naturels, et qui prend donc le risque de voir la concurrence le dépasser, même si la position actuelle est confortable.

Le SEO est donc un effort au long cours, et vous ne pouvez pas lever le pied de la pédale si vous souhaitez performer dans la durée.

Comment faire du SEO pour un site qui débute ?

La clé SEO, pour un site qui débute, est de bien poser les bases, mais aussi d’être présent et régulier dès le départ.

Prioriser la création de contenu de qualité

Un site débutant doit sortir de terre avec une technique la plus irréprochable possible, mais il doit aussi mettre l’accent en priorité sur la rédaction et la création de contenus. Plus vous allez proposer de pages avec du contenu riche, intéressant, et qui fait autorité sur votre thématique, et plus Google va avoir envie de venir crawler votre site et bien l’indexer.

Aller chercher des backlinks pour booster la popularité du site

Dans le cas particulier où vous utilisez un nom de domaine neuf, qui n’a jamais été utilisé auparavant, vous devrez travailler sa popularité. Pour cela, vous devez porter une attention particulière à la génération de backlinks. Cela doit se faire le plus naturellement possible, avec différentes techniques :

  • Une activité sur les réseaux sociaux ;
  • L’emailing ;
  • Le bouche-à-oreille ;
  • Le partage d’informations ;
  • La sollicitation de votre réseau ;
  • Les campagnes de netlinking.

Sortir de la sandbox au plus vite grâce aux backlinks

Illustration des backlinks pour sortir de la sandbox en investissant en SEO.

Il est très important de prioriser le linking lorsque le site sort de terre, mais il faut aussi être très prudent. Quand un site voit le jour, il est placé dans ce qu’on appelle la sandbox.

Alors, pendant 0 à 6 mois, le nouveau site sera très peu poussé par Google dans la SERP, le temps de vérifier votre efficacité, votre pertinence, et votre comportement avec votre site. Le meilleur moyen de raccourcir la période de sandbox est d’avoir rapidement des liens entrants, qui vont faire connaître votre site, et lui donner de l’importance aux yeux du moteur de recherche.

Attention : dans la première année de vie d’un site, on recommande de ne pas faire plus de 5 à 10 liens entrants par mois. Google ne trouverait pas naturel du tout qu’un nouveau site ait plus de liens. Plus vous dépassez cette valeur, plus vous prenez le risque d’être considéré comme un site de spam.

Comment faire du SEO avec un site qui a du vécu ?

Avec un site existant, la stratégie SEO sera tout autre, et chez Lemon Interactive, nous recommandons avant tout à nos clients d’investir dans la repasse du site web, autrement dit, dans la partie technique. Un site existant présente souvent de nombreuses petites failles techniques qui ont un impact sur le référencement naturel. Cela peut concerner le temps de chargement, avec les Core Web Vitals, les données structurées, avec les rich snippet…

Une fois que la plateforme technique est propre, vous pouvez passer à l’audit sémantique, afin de savoir comment se positionne le site sur les mots-clés principaux. C’est aussi le moment de vérifier les backlinks, et d’analyser la concurrence.

À partir de là, en regardant votre situation et celle des concurrents, sur le contenu et la popularité, vous pourrez décider du point sur lequel vous devrez accentuer vos efforts.

Un site qui génère naturellement beaucoup de backlinks et qui en a plus que la concurrence, mais qui a peu de contenus, fixe son enjeu sur la production de contenu (cocon sémantique, enrichissement de page…).

À l’inverse, un site qui a un excellent contenu, mais qui reçoit peu de liens entrants, doit prioriser ses investissements sur du netlinking.

Quel budget investir dans le SEO ?

Le budget SEO dépend vraiment de la situation. Une start-up qui débute et qui vient de créer son site Internet n’aura pas le même budget qu’une multinationale.

Pour les sites qui débutent, on recommande de commencer avec un budget contenu, qui peut aller de moins de 1 000 € à quelques milliers d’euros. Ces prix incluent les campagnes de netlinking et le temps de production de contenus.

Pour un site existant, qui demande beaucoup de travail et qui a une forte concurrence, le budget dépasse les 10 000 € par mois. Le montant dépend vraiment du volume de liens entrants à générer et du temps de production de contenus nécessaire. Les estimations peuvent aller du simple au triple assez rapidement.

Dans l’entre-deux, vous pouvez avoir un site web d’une entreprise qui génère un chiffre d’affaires de 2 à 20 millions d’euros par an. Les tarifs sont entre 3 000 et 10 000 € d’investissement.

Ce sont, bien sûr, des estimations, car chaque site nécessite un audit complet avant de pouvoir donner un tarif précis.

Investir dans le SEO est essentiel pour sortir du lot et attirer un trafic qualifié. Vous pouvez alors suivre nos conseils pour démarrer, ou faire appel aux équipes de l’agence web Lemon Interactive pour élaborer une stratégie SEO puissante.

Illustration des 5 astuces de SEO.

5 astuces SEO pour performer quand on débute

Le SEO est une discipline en constante évolution, qui est très difficile et technique à suivre. Toutefois, n’importe qui peut obtenir des victoires rapides, ou quick wins, pour le référencement naturel de son site web. Il suffit pour cela d’être un minimum organisé, et d’appliquer nos 5 astuces SEO pour performer quand on débute.

Définition du SEO : la base

Avant de se lancer sur le sujet des astuces SEO à mettre en place, il est nécessaire de faire un rappel sur ce qu’est le référencement naturel. Le SEO, ou Search Engine Optimization, est un ensemble de pratiques qui permettent d’augmenter la visibilité en ligne d’un site Internet. Avec une bonne stratégie SEO, un site peut alors espérer apparaître dans les premiers résultats des moteurs de recherche, et s’assurer un bon positionnement sur la SERP.

Pour pouvoir améliorer le référencement naturel d’un site, il est nécessaire de maîtriser quelques bases du SEO, et notamment comprendre l’algorithme de Google, et des moteurs de recherche en général. Le SEO est une discipline en constante évolution, et il est essentiel de rester informé des dernières tendances et meilleures pratiques pour obtenir des résultats optimaux.

L’algorithme d’un moteur de recherche : comment ça marche ?

Illustration d'un ordinateur avec un moteur de recherche.

L’algorithme d’un moteur de recherche regroupe plusieurs procédures qui permettent de classer et répertorier les pages web. De nombreux éléments sont alors pris en compte pour savoir quels sites web mettre en avant dans les premiers résultats de la SERP, et déterminer quels sont ceux qui vont rester dans le bas du panier.

Le référencement naturel a alors pour but de répondre aux exigences des algorithmes de Google, pour que quand un internaute tape à mot-clé dans la barre de recherche, votre site soit présenté en premier plutôt qu’un autre dans la SERP.

Personne ne connaît vraiment en détail les critères des algorithmes, et ils changent sans cesse, ce qui les rend d’autant plus compliqués à déterminer. En revanche, certaines pratiques SEO font leur preuve sur le référencement des sites web.

Les 5 astuces SEO pour améliorer le référencement naturel d’un site web

Entrons désormais dans le vif du sujet, en faisant le tour des 5 techniques SEO applicables facilement pour améliorer la notoriété d’un site.

Vérifier les bases de configuration SEO de votre site web

Les bases de configuration SEO d’un site Internet doivent vous pousser à agir à différents niveaux.

Vérifier les paramètres du robots.txt

Vous pouvez commencer votre optimisation SEO en vérifiant les paramètres du robots.txt de votre site web en tapant « nomdusite.extension/robots.txt » (ex : lemoninteractive.fr/robots.txt). Vous pourrez alors vérifier si tous les paramètres sont bons, et notamment les deux points essentiels, qui sont le « allow » et le « disallow » (autoriser ou non le Googlebot à accéder à une page).

Il est important de vérifier que ce fichier est existant, et que vous avez au moins une forme de configuration de base qui permettra d’orienter le robot sur le site. C’est particulièrement intéressant pour les sites de e-commerce, qui ont des filtres à facettes et de nombreuses fonctionnalités parasites susceptibles de créer une multitude de combinaisons de pages, et donc d’impacter les performances du crawl.

Déclarer votre sitemap dans le robots.txt

Illustration de l'astuce seo d'un robots.txt qui vérifie un sitemap.

Il faudra aussi vérifier, dans le robots.txt, la déclaration du sitemap, autrement dit, le plan du site tel que vous le fournissez à Google. Ce plan va lui permettre d’organiser le parcours de votre site, pour l’indexer et évaluer sa performance.

Pour déclarer un sitemap dans le robots.txt, vous devez utiliser la commande « sitemap:lienverslesitemap ». Le site doit alors héberger le lien à sa racine.

Le sitemap se génère alors au format XML, et de nombreux outils permettent de le générer en ligne. Mais il est aussi possible de le faire via le CMS que vous utilisez (CMS, PrestaShop…). Si tel est le cas, prenez garde à ce que le sitemap généré à partir de votre CMS ne présente pas une multitude d’URLs pourries, qui n’auront aucun intérêt pour le référencement naturel (SEO). Une bonne gestion du sitemap est essentielle pour aider les moteurs de recherche à explorer et à indexer correctement votre site web.

Vérifier le volume d’indexation de vos pages web

Pour vérifier le volume d’indexation de vos pages, autrement dit, le nombre de pages indexées par Google, il suffit d’aller dans Google et de taper la commande « site:adressedusite ». Toutes les pages indexées du site en question s’afficheront alors dans la SERP. Vous aurez alors une idée précise des pages bien indexées, de celles qui devraient l’être et ne le sont pas, et celles qui le sont alors que vous ne le voulez pas.

Créer et travailler du contenu de qualité

En 2022, le contenu représente environ 60 % des critères d’évaluation de pertinence d’un site web. C’est clairement le critère de référencement numéro 1 ! Vous pouvez alors optimiser le contenu de vos pages web de différentes manières.

Travailler le balisage sémantique du contenu

Le contenu se travaille à la fois d’un point de vue technique et d’un point de vue purement textuel. C’est-à-dire qu’on vérifie d’abord le balisage sémantique, et plus particulièrement la balise H1 et la balise H2.

  • Les balises Hn : il doit y avoir impérativement une balise H1 par page, puis au maximum 5 à 7 H2. On peut alors considérer le H1 comme le titre de la page, et les H2 comme les chapitres du contenu. Pensez alors à avoir une balise H1 unique par page, pour pouvoir répondre aux exigences SEO consistant à consacrer une page par mot-clé. Ce fameux mot-clé doit donc être présent dans le H1, mais également dans la balise title ;

  • La balise title : elle est généralement vraiment sous-estimée, alors qu’elle fait partie du top 3 des critères de référencement de Google. Il est donc essentiel de l’optimiser, et d’y faire figurer le mot-clé principal, voire quelques déclinaisons ;

  • La meta description : ce snippet de 200 à 250 caractères est utilisé par Google pour présenter votre site dans les résultats de recherche. Si la meta description n’a pas de poids direct sur le référencement, car Google ne l’analyse pas, elle a quand même un impact indirect, car elle améliore le CTR (taux de clic) dans les résultats de recherche, en donnant envie aux internautes de cliquer. Or, Google analyse le CTR, il va donc améliorer le positionnement de votre site si le CTR est bon.

Travailler le texte du contenu

Aujourd’hui, nous recommandons de fixer la longueur minimum d’un texte à 600 mots, sur un mot-clé pas trop concurrentiel. Alors, avant de vous fixer cette limite, mieux vaut regarder la concurrence sur le mot-clé, et déterminer la volumétrie nécessaire pour bien se positionner. De manière générale, Google met en avant le contenu long.

Ensuite, quand on écrit du contenu, l’idéal est de se positionner sur la home page et les pages catégories (ou les pages essentielles du business). Il n’est donc pas nécessaire de perdre du temps à rédiger du contenu sur les mentions légales ou la page contact, par exemple.

Sur le site d’un hôtel, par exemple, on va travailler la page d’accueil, celle qui présente les chambres, celle qui présente les prestations…

Et on garde à l’esprit qu’une page = un mot-clé.

Travailler les backlinks

Les backlinks, ou liens externes qui pointent vers un site, sont travaillés dans une campagne de netlinking, une prestation que propose par Lemon Interactive.

Illustration de l'astuce SEO des liens externes qui pointent vers le site principal.

Les backlinks font, eux aussi, partie du top 3 des critères de référencement, il ne faut donc pas les négliger. Nous vous conseillons donc fortement d’en posséder pour obtenir de la performance. En effet, aux yeux de Google, un site Internet qui n’a pas de backlink est un site qui n’a pas de popularité. Pour améliorer votre SEO, il est essentiel de développer des techniques de netlinking efficaces, en obtenant des liens de qualité depuis d’autres sites web pertinents dans votre domaine.

Pour aller chercher des backlinks, il existe plusieurs techniques, notamment pour un site e-commerce :

  • Demander un backlink à un fournisseur, qu’il peut placer sur la page du revendeur agréé de leur site. Parfois même, les fournisseurs créent une page par vendeur, et y intègrent un lien vers votre site Internet ;
  • Demander aux clients d’intégrer sur leur site un lien vers votre site ;
  • Bénéficier d’un lien puissant en recevant une subvention ou un accompagnement d’institutions, comme le département, l’État, la région… Les liens en .gouv ou les liens d’organismes officiels de l’État sont ceux qui ont le plus de valeur aux yeux de Google, il ne faut donc pas hésiter à les solliciter lorsque l’opportunité s’offre à vous.

Enfin, n’oubliez pas que quand on va chercher des backlinks, il est important de les thématiser. En effet, un site qui propose des chambres d’hôtel ne va pas aller chercher un lien sur un site de jardinage.

Optimiser la vitesse de chargement du site web

Depuis l’introduction des Core Web Vitals, en 2021, la vitesse de chargement d’un site est devenue un critère important, notamment dans la gestion du budget crawl pour Google. Sans être développeur, et donc sans toucher à la partie backend du site, on peut agir sur différents éléments : images, pdf, vidéos…

Vous pouvez alors jouer sur la taille des éléments, le format des éléments et le nombre des éléments, afin d’optimiser leur poids. Des outils en ligne peuvent vous aider à réduire vos fichiers, comme iLovePDF ou iLoveIMG, qui permettent d’optimiser le poids de n’importe quelle ressource en quelques clics.

Si vous passez par un CMS, vous pouvez aussi faire le ménage du côté des extensions, en réduisant le nombre au strict nécessaire. Il faut aussi alléger le DOM, autrement dit, le contenu essentiel du site. Pour améliorer la qualité de votre site et son référencement naturel, il est essentiel de prendre en compte ces aspects liés à la performance et à la vitesse de chargement.

Si vous souhaitez connaître précisément la performance de votre site, vous pouvez utiliser des outils comme GTmetrix ou Dareboost. Ils lanceront un audit complet des performances de votre site, et vous aurez en détail les points d’achoppement de performance, afin de donner à votre développeur une liste détaillée de recommandations à travailler en priorité.

Utiliser la Search Console

Les utilisateurs négligent souvent la Search Console de Google parce qu’elle semble trop facile d’accès et trop simple à utiliser. Pourtant, c’est une mine d’informations pour analyser la performance d’un site. De nombreux points peuvent alors être vérifiés, et notamment deux données essentielles :

  • Le volume de pages indexées : en le comparant au nombre de pages total sur le site, vous pourrez repérer si vous avez des urls pourries qui polluent votre crawl, ou si vous avez des pages orphelines (pages qui devraient être référencées, mais qui ne le sont pas car elles ne sont pas maillées sur le site) ;
  • Le volume d’erreurs 404 sur le site : une erreur 404 est une page qui a un chemin, mais qui ne répond pas quand on tente de s’y connecter, car elle n’existe plus ou parce que le chemin a changé. Cela crée une impasse dans laquelle Google va se perdre et dilapider votre budget crawl. Une erreur 404 se traite en créant des redirections 301.

Il existe de nombreuses autres données à analyser dans la Search Console, que nous détaillons dans d’autres articles. N’hésitez donc pas à parcourir nos contenus pour en apprendre davantage sur les bonnes techniques SEO.

Un propriétaire de site web motivé peut très bien réussir à obtenir de bons résultats SEO, en appliquant simplement ces quelques conseils. Si vous n’avez pas de temps à y consacrer, ou que vous souhaitez une stratégie SEO plus puissante, vous pouvez alors confier votre projet aux experts de l’agence web Lemon Interactive.

Illustration de 3 personnages portant des pièces d'un puzzle à réaliser pour faire un bon netlinking SEO

5 techniques de netlinking SEO à connaître

Pour une stratégie de netlinking performante, l’obtention de backlinks de qualité joue un rôle majeur. Mais la qualité des liens est tout aussi cruciale, et il n’est pas si facile de réussir à intégrer une ancre vers votre site depuis un site qualifié. Alors comment booster son référencement naturel ? Voici 5 techniques de netlinking SEO pour obtenir des backlinks naturels.

Qu’est-ce qu’un backlink ?

Illustration d'une page web en chantier avec un pictogramme de lien backlink

Avant toute chose, rappelons ce qu’est un backlink dans une stratégie SEO. Un backlink, qu’on appelle aussi lien retour ou lien entrant, est un lien créé à partir d’un site externe et qui dirige vers votre propre site web.

Même si l’impact SEO des backlinks a été diminué par Google, qui tend à appuyer sa stratégie avant tout sur le contenu, il est de notoriété publique que les liens externes restent le talon d’Achille de Google. Ce sont même eux qui permettent d’avoir les résultats les plus rapides en termes de positionnement dans les pages de résultats de recherche.

Petit disclaimer : les techniques que nous allons lister sont, sauf cas exceptionnel, des techniques complémentaires à l’acquisition de backlinks de qualité. Elles viendront donc compléter à moindres frais une campagne d’acquisition de liens payants, par exemple, ou une campagne d’acquisition de liens de qualité. Mais ces techniques ne sont pas à aborder comme une stratégie unique d’acquisition de liens.

Les 5 techniques pour obtenir des backlinks naturels de qualité

Vous avez établi une stratégie de maillage interne et de liens sortants très performante, mais il vous manque la puissance des backlinks ? Plusieurs solutions s’offrent à vous pour aller chercher ces liens et booster la visibilité comme une agence de référencement.

Technique n°1 : demander un lien intelligemment

Demander aux autres sites de vous faire un lien, c’est bien, mais il faut que cela soit fait intelligemment. Si vous avez un magasin de chaussures, par exemple, vous n’allez pas demander au magasin de jardinage voisin de vous faire un lien. Il faut donc impérativement s’adresser aux sites ayant la même thématique d’activité que la vôtre. Ensuite, vous pouvez faire des demandes à de nombreuses personnes.

Demander des liens aux institutions publiques

Ce qui peut être intéressant, c’est d’aller frapper à la porte des institutions locales : la ville, le département, la région, la communauté d’agglomérations…

Il est fréquent, pour des entreprises, d’obtenir des subventions, des aides, des contacts ou des avis pour le référencement local. Dans ce cas-là, elles peuvent plus volontiers vous faire un lien via leur site.

Le gros avantage dans ce cas précis, c’est que tous les sites institutionnels gouvernementaux d’éducation sont des sites qui peuvent faire des liens vers n’importe quel site et envoyer beaucoup de puissance. Ce sont d’ailleurs les spots de liens les plus recherchés pour le backlink.

Demander à vos revendeurs de vous faire un lien

Si vous avez un site e-commerce ou une marketplace bien placée, par exemple, il ne faut pas hésiter à demander à vos revendeurs de vous faire un lien vers votre site, en tant que fournisseur.

Dans ce même ordre d’idée, votre fournisseur dispose très probablement d’une liste de tous ses revendeurs. Il peut alors être intéressant de demander à ces revendeurs de vous faire un lien (en évitant les concurrents directs, bien sûr).

Demander un lien à vos partenaires

Vous pouvez aussi demander un lien à un partenaire. Par exemple, si vous êtes une association ou un club, n’hésitez pas à demander un lien de la part d’un des partenaires ou sponsors. Inversement, si vous avez une entreprise qui subventionne ou sponsorise un partenaire, vous pouvez aussi lui demander un lien. Le partenariat peut d’ailleurs aussi se faire entre deux entreprises.

Demander des liens aux enseignes locales

Demander un lien auprès des entreprises locales est aussi une stratégie gratuite qui peut valoir la peine. Là encore, on reste sur du netlinking avec des liens thématisés. Pour reprendre l’exemple du magasin de chaussures, il n’est pas question d’aller frapper chez le boulanger du coin. En revanche, vous pouvez demander un lien chez un autre vendeur de chaussures qui ne vous fait pas concurrence (chaussures pour enfants, ou magasin de chaussures éloigné du vôtre…).

Solliciter les annuaires pour intégrer vos liens

Sur Internet, on trouve facilement des annuaires généralistes, mais aussi des annuaires spécialisés, qui recensent toutes les enseignes de votre domaine d’activité. Il peut alors être intéressant de retrouver votre entreprise, et d’y déposer un lien vers votre site. Si ce canal d’acquisition de liens n’est plus aussi puissant que par le passé, cela reste toujours une stratégie netlinking pertinente, et gratuite qui plus est.

Technique n°2 : pratiquer le linkbaiting

Le linkbaiting, ou « piège à liens », regroupe toutes les stratégies qui vont consister à créer un contenu le plus engageant et le plus incitatif possible au partage.

Illustration d'un personnage avec un chat attiré par une boîte aux lettre symbolisant le linkbaiting

Par exemple, vous pouvez décider de créer une campagne de communication très transgressive ou très marquante, afin de donner envie aux gens de faire un lien vers votre campagne de com. L’objectif est d’inciter les gens à parler de votre campagne sur leur propre site.

Mais cela peut aussi prendre la forme d’un post très bien rédigé, notamment avec de la data, comme une infographie de qualité, une représentation graphique de données ou un traitement de données très précis. Cette stratégie vise à ce que les autres sites, et notamment les plus puissants, fassent un lien vers votre contenu, pour leur éviter d’avoir à traiter eux-mêmes le sujet complexe. Cette stratégie est généralement très bénéfique, et on a souvent vu de très gros sites de référence faire des liens vers des articles de petits sites, et ainsi leur apporter une puissance conséquente.

Mais le linkbaiting, ce peut être aussi un PDF, que vous hébergez sur un site externe, et dans lequel vous aurez intégré votre backlink.

Finalement, il existe de nombreuses façons de faire du linkbaiting, mais l’idée est toujours la même : créer un contenu tellement incitatif au partage qu’on génère naturellement des liens.

Technique n°3 : repérer les liens cassés et le skyscraping

Le lien cassé et le skyscraping s’intègre tous les deux dans une stratégie d’utilisation des liens cassés, mais chacun à son propre rôle.

Les liens cassés, ou liens brisés

La technique du lien cassé, ou broken link est assez simple. Il existe des outils, tels que Majestic ou Broken Link Check, qui vous permettent d’identifier les liens cassés :

  • Les sites qui vous ont fait un lien par le passé, et qui l’ont retiré ;
  • Les sites qui mentionnent votre marque sans faire de lien ;
  • Les sites qui parlent de vous sans envoyer de backlink.

Vous pouvez alors les contacter manuellement pour leur dire que vous avez vu leur contenu, et leur demander de mettre un lien vers votre site, et notamment vers la page ciblée en fonction du contenu.

La technique du broken link marche également de manière un peu plus pernicieuse sur des sites qui ne parlent pas directement de vous. Là, on touche à la méthode de skyscraping.

La technique du skyscraping

Le skyscraping est une technique qui vous permet de considérer certains de vos concurrents qui auraient des liens cassés.

Par exemple, vous repérez qu’un de vos concurrents a rédigé un très bon guide d’achat sur des mots-clés longue traîne autour des chaussures, devenu obsolète aujourd’hui, et pour lequel il y a un lien brisé qui venait d’un gros blog de mode lifestyle. Dans ce cas-là, travaillez sur un nouveau guide d’achat de très grande qualité sur les chaussures, en l’optimisant au maximum, et contactez le blog de mode pour leur demander de faire un lien vers votre guide.

C’est tout l’intérêt du skyscraping. Vous pouvez alors chercher :

  • Tous les sites qui faisaient un lien vers vos concurrents et qui ne le font plus ;
  • Tous les sites qui font un lien actif vers vos concurrents, mais pour lequel vous pensez pouvoir faire mieux, en proposant un contenu de meilleure qualité.

Technique n°4 : proposer des collaborations

Dans les collaborations, on recense deux grandes thématiques : l’échange de liens et le guest posting (article invité).

L’échange de liens

L’échange de liens est assez simple et plutôt classique. On retrouve souvent des personnes qui proposent de vous faire un lien vers votre site. En contrepartie, vous devez, vous aussi, faire un lien vers son site.

Dans les faits, cette stratégie n’est pas très puissante, parce qu’on retrouve comme un système de boucle infinie. En effet, vous avez un lien vers ce site, et ce site a un lien vers votre site… La boucle est bouclée, le gain est vraiment faible.

Plus grave encore, si vous faites des échanges de liens à l’excès, Google va finir par s’en rendre compte et trouver ça bizarre. Le robot de Google et le robots.txt va penser que le propriétaire cherche à manipuler l’algorithme des moteurs de recherche, et risque de le pénaliser.

Le mieux est alors de faire un échange de liens triangulaire : le site A fait un lien vers le site B, le site B fait un lien vers le site C, et le site C fait un lien vers le site A. De cette façon, vous êtes dans une structure optimisée, même s’il faut reconnaître que c’est plus difficile à obtenir.

Le guest posting

Il existe des sites où vous pouvez rédiger gratuitement, ou faire valider votre contenu par l’équipe rédactionnelle, et générer un backlink vers votre site en tant qu’auteur, c’est ce qu’on appelle le guest posting. Il existe aussi des sites sur lesquels vous pouvez faire de l’échange d’amabilité, comme on le fait avec l’échange de liens. Dans ce cas, vous écrivez un article sur le blog d’un autre site dans lequel vous intégrez un lien vers votre propre site (un guest post), et en retour le propriétaire du blog fait de même sur votre propre site. Pensez alors à garder en tête la stratégie de triangulation des backlinks.

Technique n°5 : faire du ninja linking

Illustration d'une lettre ninjalinking se faisant livrer par un camion

Le ninja linking fonctionne sur un constat : il existe des multitudes d’opportunités sur le web de poser des liens gratuits, mais tous n’ont pas la même valeur. Il faut alors savoir faire des recherches pour trouver les meilleurs spots de liens.

Prenons un exemple d’action à entreprendre : vous pouvez créer un web profile (profil de compte) très détaillé sur certains sites de grande popularité, puis faire en sorte de référencer ce profil et d’y intégrer un backlink vers votre site. Mais cela peut se faire aussi dans des commentaires de blog, dans des messages dans des forums…

Tous ces liens ne se valent pas, alors ne perdez pas votre temps à spammer les forums et les blogs pour intégrer vos liens. En effet, ils n’envoient pas tous de la puissance, et il existe beaucoup de critères pour bien les choisir. Mais un SEO expert d’une agence web qui vous propose une campagne de ninja linking pourra vous obtenir du volume de backlink pour un prix très raisonnable.

Par ailleurs, la stratégie de ninja linking permet de diluer votre volume d’ancres de liens.

Vous aimeriez renforcer la visibilité et l’autorité de votre site web en obtenant des backlinks naturels de qualité ? Confiez alors votre stratégie de netlinking aux experts SEO de Lemon Interactive.

Illustration d'une personne qui donne des ordres à un robot.txt pour le seo.

Robots.txt et SEO : pourquoi est-il nécessaire et comment l’optimiser ?

Parmi tous les outils et fichiers utiles au référencement naturel d’un site web, le fichier robots.txt est un incontournable pour tous les créateurs de sites web. Découvrez ce petit fichier, facile à mettre en place, qui guidera les robots de crawl vers les pages les plus importantes de votre site, et interdira l’accès à d’autres.

Le robots.txt, qu’est-ce que c’est ?

Le robots.txt est un fichier texte utilisé comme un protocole d’exclusion des robots d’exploration, tel que Googlebots. Placé à la racine de votre site web, à la base de l’arborescence des dossiers hébergés sur le serveur, il permet d’empêcher les web crawlers (ou robots d’exploration) d’accéder à tout ou partie de votre site Internet. Pour cela, il envoie des commandes aux robots d’indexation des moteurs de recherche leur indiquant ce qu’ils ont le droit de crawler ou non.

Le fichier robots.txt est l’un des premiers fichiers crawlés par un moteur d’indexation. Il permet donc de prioriser l’activité du bot avant même qu’il ait commencé l’exploration du site, grâce aux consignes de crawl intégrées à la racine du site.

Attention, le fichier robots.txt n’est pas destiné à désindexer des pages. En effet, si vous interdisez aux robots d’explorer une page de votre site web qui est déjà indexée, cela ne la désindexera pas. Si c’est votre intention, il faudra alors utiliser la balise noindex, ou protéger la page par un mot de passe.

En revanche, si vous avez une page web non-indexée, interdire le crawl avec robots.txt vous assure qu’elle ne sera jamais indexée.

Bon à savoir : le fichier robots.txt de votre site web est accessible en saisissant www. nomdedomaine.extensiondedomaine / robots.txt dans la barre de recherche.

Quel est l’intérêt d’un fichier robots.txt ?

Si le robots.txt ne doit pas être utilisé pour gérer l’indexation des pages web d’un site, il est intéressant pour le SEO, pour la gestion du budget crawl, ainsi que pour la sécurité du site.

Optimiser votre budget crawl

Illustration d'un robot qui regarde des pages web.

L’intérêt d’un fichier robots.txt concerne d’abord l’éditeur de site. En effet, celui-ci va pouvoir, avec le robots.txt, autoriser ou interdire des accès à des pages, ou à des dossiers, qui ne sont pas pertinents pour le SEO, et qui, de ce fait, vont consommer inutilement du budget crawl. Les robots ne vont alors pas perdre de temps sur vos pages sans intérêt, et concentrer toute leur attention sur vos pages importantes, augmentant ainsi votre budget crawl.

Piloter astucieusement son robots.txt est donc un très bon moyen d’ouvrir et de fermer les vannes aux bons endroits sur un site web, afin d’obtenir une optimisation du référencement sur tous les mots-clés.

Assurer la sécurité du site Internet

Robots.txt est aussi intéressant pour la sécurité, dans le cas où, par exemple, un bot extérieur de black hat non-désiré génère une surcharge sur le serveur, ou quand on n’a pas envie que Google accède au site web (dans le cas d’une refonte notamment).

Le fait d’interdire l’accès, via le fichier robots.txt, peut permettre d’éviter des catastrophes, comme l’indexation prématurée du site, ou l’indexation de la préprod.

Séduire les moteurs de recherche

Le robots.txt est enfin un atout pour les moteurs de recherche. En priorisant la navigation, et en fermant les bonnes portes, vous allez optimiser le temps de parcours des robots d’exploration. Au final, vous faites des économies d’argent, car, rappelons-le, les bots coûtent très cher à déployer sur tous les sites web de la planète.

Si tout le monde gérait de façon efficiente son robots.txt, les bots pourraient aller à l’essentiel plutôt que de parcourir des tonnes de pages inutiles.

Comment fonctionne un robots.txt ?

Le robots.txt est un simple fichier texte, qu’on peut éditer à partir de n’importe quel éditeur de texte, et dans lequel on renseigne ses instructions.

Les commandes de robots.txt

Le fichier robots.txt charge les robots des moteurs de recherche (également appelés agents ou spiders) de recevoir des instructions. Pour cela, il faut alors utiliser plusieurs commandes.

La commande user-agent

Illustration d'un robot qui accepte ou refuse l'accès à un site.

Parmi les renseignements que l’on peut fournir dans robots.txt, on commence toujours par indiquer à quel moteur de recherche on s’adresse. Pour cela, on utilise la consigne « user-agent », suivie de deux points et de la liste des user-agents autorisés, qu’on trouve très facilement sur Google (googlebot pour Google, bingbot pour Bing…).

L’intérêt, c’est que l’on peut définir quel robot de moteur de recherche aura accès ou non au site, ou à certaines parties du site. Généralement, vous verrez souvent la fonction :user-agent:, ce qui signifie que l’instruction concerne l’intégralité des moteurs de recherche.

En effet, l’astérisque signifie « n’importe quel caractère » ou « s’applique à tous ». Cela permet d’assurer que nous prenons en compte toutes les URL concernées ou les moteurs de recherche autorisés en ligne.

Les commandes allow et disallow

Ensuite, on utilise seulement 2 instructions : allow pour ouvrir des portes, et disallow pour les fermer.

Il suffit alors d’entrer la consigne, et d’ajouter l’élément que vous souhaitez autoriser ou bloquer.

Cas particulier, si vous souhaitez, par exemple, fermer l’accès total à un répertoire, mais que vous voulez quand même que Google, voire son canal SEO Google Discover, accède à un seul petit bout du répertoire, alors vous devrez procéder par ordre chronologique. En premier lieu, on interdit l’accès au dossier, et en second temps, on autorise l’accès à la petite partie du dossier. De cette façon, le moteur de recherche comprend qu’il y a une exception à la règle de base.

Par exemple : vous ne voulez pas que Google accède à votre répertoire d’images, mais vous voulez qu’il accède quand même au dossier spécifique « images 2022 ». Alors vous interdisez d’abord l’accès au dossier images, puis vous autorisez l’accès à « images 2022 ».

Les particularités de robots.txt

Pour utiliser robots.txt de manière intelligente et efficace, il est essentiel d’en connaître les spécificités, dont voici les plus importantes :

  • Dans le robots.txt, on privilégie l’usage d’une url relative, c’est-à-dire une url sans le protocole http, le www, le nom de domaine et l’extension de domaine. Par exemple, pour évoquer une agence lilloise SEO lemoninteractive.fr/agenceseolille.html, on a juste /agenceseolille.html ;

  • Vous pouvez mettre des instructions globales sur le site, en intégrant simplement « / » (slash), sans rien d’autre. Dans ce cas-là, on indique qu’on souhaite interdire l’intégralité de l’accès ;

  • Si deux instructions entrent en conflit dans votre robots.txt, Google les ignorera ou priorisera l’instruction la plus détaillée. Cela vous invite alors à être vigilant sur la qualité et la précision de votre production ;

  • Enfin, il est très important, dans le robots.txt, de déclarer un sitemap. Indiquez cet annuaire de toutes les pages de votre site en utilisant la consigne « sitemap: » suivie de l’URL de votre fichier sitemap.

Bon à savoir : le fichier robots.txt doit être encodé en UTF-8, un mode d’encodage spécifique aux fichiers txt.

Comment exploiter au mieux le robots.txt ?

L’utilisation du fichier robots.txt peut être un véritable atout pour l’optimisation de votre site web. Mais attention, si vous l’utilisez mal, cela peut aussi se retourner contre vous, nécessitant l’intervention d’une agence web.

Optimiser la sécurité du site web

L’usage primaire du robots.txt a un enjeu de sécurité, en refusant l’accès aux dossiers admin, à certaines ressources du CMS, ou à certaines pages.

Illustration d'une personne qui protège un site web.

Il faut donc éviter d’avoir des interdictions sur des pages susceptibles d’être exploitées par un hacker, comme l’url de connexion de votre site. En effet, si un hacker veut s’en prendre spécifiquement à votre site web, il regardera directement robots.txt et se servira des informations qu’il va collecter pour accélérer son travail.

Rappelons que robots.txt n’est qu’un fichier qui donne des consignes au robot. Et si les robots bienveillants jouent généralement le jeu, les plus malveillants sont libres de ne pas les suivre, voire même d’aller tout droit vers vos pages interdites, pour en récupérer les données sensibles.

Donc, utilisez robots.txt avec modération. Mieux vaut essayer le fait de ne laisser aucune trace sur le site, comme votre url de connexion, plutôt que d’avoir à la bloquer dans le robots.txt.

Viser la performance du site

Le deuxième gros enjeu du robots.txt vise la performance. Pour prendre un cas classique, un site e-commerce avec un grand nombre de filtres à facettes et de filtres de tri pourrait se retrouver dans des situations où il aurait des combinaisons infinies de pages générées par l’ensemble des combinaisons de ces filtres à facettes. La bonne solution consiste alors, dans 99 % des cas, à simplement indiquer dans le robots.txt la référence du paramètre php, et de le mettre en disallow pour l’ignorer.

Comment savoir si votre fichier robots.txt fonctionne ?

L’encodage du fichier robots.txt peut rapidement devenir un casse-tête, surtout si votre site est dense. Alors, pour vous assurer que votre fichier est fonctionnel, et que toutes les consignes sont opérationnelles, vous pouvez vérifier votre fichier robots.txt sur la Google Search Console avant de l’intégrer.

Il vous suffira d’aller dans l’onglet « exploration », puis sur « outil de test du fichier robots.txt ». Vous pourrez alors copier les données de votre fichier robots.txt, et lancer le test.

Si le test est validé, et que la mention « autorisé » s’affiche, vous pouvez alors intégrer votre fichier à la racine de votre site Internet, car celui-ci est opérationnel.

Vous aimeriez optimiser votre budget crawl en guidant les robots des moteurs de recherche vers les pages web de votre site les plus pertinentes ? Lemon Interactive peut vous aider à installer robots.txt sur votre site, et ainsi améliorer votre référencement naturel.

Illustration d'un personne montrant le SEO d'un site

Pourquoi spécifier ses mots-clés longue traîne en SEO ?

Aujourd’hui, plus de la moitié des visiteurs d’un site web provient du trafic organique. Autrement dit, c’est en tapant un mot-clé dans les moteurs de recherche que les internautes atterrissent sur votre site… Ou pas. La stratégie SEO basée sur les mots-clés est donc essentielle, mais visez-vous les bons keywords ? Voyons ce que peuvent vous apporter les mots-clés longue traîne.

Qu’est-ce qu’un mot-clé ?

Un mot-clé est une expression webmarketing qui désigne un mot ou groupe de mots qui va présenter une certaine volumétrie et un certain intérêt par rapport à l’activité d’un client. Ce sont, plus concrètement, les mots que nous tapons tous dans la barre de recherche Google quand nous cherchons une réponse à notre question.

Dans une stratégie de référencement naturel, il est potentiellement intéressant de travailler le mot-clé, afin de chercher à se positionner dessus dans la SERP (pages de résultats de recherche de Google et des autres moteurs de recherche).

Qu’appelle-t-on une longue traîne ?

La longue traîne, ou long tail, est une expression complémentaire de la courte traîne, ou short tail, et de la milieu de traîne, ou mid tail. Plus spécifiquement, la longue traîne constitue 80 % des mots-clés qui forment un corpus sémantique autour d’une thématique. En revanche, elle représente une volumétrie plus faible que la courte traîne, qui représente les 20 % des mots-clés les plus recherchés dans les moteurs de recherche.

Dans la pratique, un mot-clé en courte traîne est composé d’un ou deux mots génériques (nom de la marque + activité ou produit, par exemple). Plusieurs expressions complexes composent un mot-clé longue traîne.

Pourquoi ne pas chercher à se positionner sur la courte traîne ?

Les shorts tails sont des mots-clés qui présentent de très fortes volumétries, mais ils sont aussi très disputés. Sur des outils comme Semrush, par exemple, ou sur le planificateur de mots-clés de Google Ads, on peut très vite voir qu’un mot-clé avec une forte volumétrie peut présenter jusqu’à 50 000 recherches par mois. Si cela peut paraître très alléchant au premier abord, on va très vite voir que les premières positions sur ce type de requête sont extrêmement disputées.

Sur Google Ads, le CPC (coût par clic) sera très élevé, et en Google Search, les efforts pour se positionner sur cette requête vont être très coûteux, que ce soit en temps ou en argent.

Prenons un exemple : si vous cherchez une agence web, Google vous propose plus de 491 000 000 résultats. Si vous précisez votre recherche avec un mot-clé longue traîne « agence web SEO accompagnement référencement naturel », vous n’avez plus que 77 600 résultats (avec Lemon Interactive en 5ème position !)

Quel est l’intérêt de la longue traîne ?

Avec un mot-clé long tail, on pourrait craindre de trop cibler la recherche, et passer à côté d’internautes. Pourtant, utiliser la longue traîne s’avère plus judicieux que de travailler un mot-clé en courte traîne.

Attirer un trafic plus qualifié

Illustration d'une page internet avec les mots longue traîne et 70% mots-clés.

La longue traîne permet de spécifier son mot-clé. Par exemple, sur une marketplace en SEO, au lieu de travailler sur « chaussures Nike », par exemple, on va plutôt travailler sur « chaussures Nike rouge enfant ». Ces mots-clés auront une volumétrie plus faible, c’est vrai, mais ils attireront un trafic beaucoup plus qualifié.

Il faut garder à l’esprit qu’un mot-clé en short train est trop imprécis, trop vague. Si un internaute tape « chaussures Nike », il peut à la fois chercher un magasin de chaussures Nike, des chaussures Nike homme, des chaussures Nike vertes, des chaussures Nike de foot…

En 2023, l’intérêt des robots de Google va aux sites qui arrivent à qualifier au mieux l’intention de recherche. Il s’agit alors de se mettre à la place du persona du client, pour savoir quelle est son intention précise derrière le mot-clé tapé.

Avec une longue traîne, on vise un mot-clé hyper qualifié sur lequel, si vous venez placer la bonne page web en face, vous pourrez avoir un CTR (taux de clic) et des conversions avec de meilleures performances qu’avec un mot-clé générique.

Attirer plus de trafic

Vous aussi, quand votre grand-tante cherche quelque chose sur Google, elle écrit pratiquement la phrase en entier ? Sachez qu’elle n’est pas la seule, et qu’elle utilise tout simplement les mots-clés longue traîne. Ainsi, les mots-clés longue traîne composent 70% des recherches sur Google.

En toute logique, utiliser cette stratégie SEO pour votre performance vous assure alors de répondre le plus précisément possible aux requêtes des internautes, et donc d’avoir un trafic beaucoup plus important. C’est d’autant plus vrai qu’avec l’avènement de la recherche vocale, les requêtes orales sont aussi longues et spécifiques.

Comment travailler la longue traîne efficacement ?

Vous pouvez travailler la longue traîne en cherchant à qualifier une page par mot-clé. Si vous travaillez un mot-clé « chaussures Nike homme football noir », vous allez créer une page qui se positionnera sur cette requête précise. On concentre alors la page entière à ce seul et unique mot-clé, sans se disperser.

En effet, aujourd’hui, avec la concurrence dans la SERP et les demandes d’optimisation de Google, la seule solution qui fonctionne, c’est de travailler une page par mot-clé, et de travailler le corpus autour de ce mot-clé pour venir le compléter.

La requête longue traîne consiste donc à abandonner les mots-clés les plus flatteurs en termes de volume, au profit de milliers d’expressions beaucoup plus précises, mais qui ont le potentiel de mener à bien vos conversions. Ce sera le résultat d’un travail sémantique et d’analyse puissant qui permettra de s’adresser très précisément aux clients que vous cherchez à toucher.

Application : définir vos mots-clés long tail

Généralement, quand on crée un site web, le mot-clé short tail vient en tête rapidement. Reste à trouver les mots-clés longue traîne sur lesquels vous pourrez vous positionner. Plusieurs méthodes permettent alors de faire le tour des long tails.

Illustration des applications pour les mots-clés long tail.
  • Les suggestions Google : quand vous tapez votre mot-clé dans la barre de recherche, Google le complète avec des suggestions thématisées ;

  • La recherche associée de Google : des propositions d’expressions-clés s’affichent en bas de la SERP, en rapport avec la requête initiale ;

  • Les « autres questions posées » de Google : les People Also Ask (PAA) recensent les questions que les internautes ont cherché sur le même sujet, et peuvent guider vers des longues traînes ;

  • L’analyse de la concurrence : plusieurs outils permettent de voir les mots-clés longue traîne que vos concurrents utilisent, comme Semrush, Yooda Insight, Keywords Everywhere… ;

  • Les générateurs de mots-clés : il existe des outils de recherche de mots-clés qui peuvent vous aider, comme Plezi, Ubersuggest, Google Keyword Planner (Google Ads), ou encore Answer the Public.

Et parfois, un simple brainstorming suffit à définir des centaines de mots-clés longue traîne.

Utiliser vos mots-clés longue traîne dans les contenus de votre site web

Vous avez trouvé de nombreux mots-clés longue traîne qui vont vous permettre de pouvoir cibler vos contenus. Il ne reste plus qu’à les appliquer sur votre site web.

Prioriser vos mots-clés long tail

En premier lieu, il vous faudra effectuer un petit tri de vos mots-clés, pour déterminer ceux qu’il faudra pousser davantage et prioriser. Vous pouvez, pour cela, vous baser sur plusieurs critères :

  • La volumétrie des recherches : grâce à différents outils, vous pourrez analyser le volume de recherche de chaque mot-clé, pour prioriser ceux qui ont un plus fort volume ;
  • La concurrence : plus les mots-clés sont utilisés par d’autres sites, plus il sera difficile de vous démarquer ;
  • La pertinence : l’essentiel reste de travailler des mots-clés qui ont du sens pour votre site web et surtout pour vos internautes. L’intention de recherche est alors prioritaire face à la volumétrie ou la concurrence

Établir votre calendrier éditorial en vous appuyant sur votre liste de mots-clés

Illustration de deux personnes travaillant sur un calendrier éditorial pour les mots-clés des articles.

Lister les mots-clés longue traîne pertinents fait partie d’une stratégie SEO de positionnement, mais c’est aussi une solution astucieuse pour trouver des sujets de contenus à publier sur votre blog, par exemple.

Alors, pour vous assurer de couvrir tous les mots-clés longue traîne pertinents pour votre référencement naturel, intégrez-les directement dans votre calendrier éditorial, en prévoyant au minimum un article par mot-clé.

Intégrer vos requêtes longue traîne dans vos contenus

Votre calendrier éditorial est prêt ? Vous pouvez passer à la rédaction SEO de votre article. L’idée est alors d’utiliser le champ sémantique et le champ lexical qui s’articulent autour de votre mot-clé, pour bien faire comprendre à Google le sujet de l’article, et surtout votre expertise dans le domaine. Ensuite, plusieurs solutions s’offrent à vous pour optimiser vos contenus avec vos requêtes longue traîne.

Insérer directement vos keywords longue traîne dans votre texte

Une fois devant votre ordinateur, il ne s’agit pas simplement d’insérer vos requêtes au fil du texte, mais plutôt d’intégrer les expressions de manière à conserver une lecture fluide et pertinente. L’aspect humain est ici essentiel, et le bourrage de mots-clés ne peut que jouer en votre défaveur. Il faut alors travailler la qualité du contenu en utilisant un vocabulaire ciblé autour de la thématique, en évitant l’écriture robotisée indigeste. Ainsi intégrés au sein d’un champ sémantique dense et varié, les mots-clés longue traîne seront perçus comme une véritable plus-value aux yeux de Google, et cela améliorera aussi l’expérience utilisateur (UX).

Miser beaucoup sur votre introduction et vos Hn

Les experts en référencement naturel savent qu’une bonne stratégie SEO doit viser à intégrer les longues traînes à des endroits clés du texte. Ainsi, pour marquer votre expertise et affirmer clairement le sujet de votre contenu à Google, nous vous conseillons de placer votre mot-clé dès l’introduction. Un joli mélange de votre longue traîne et de différents mots de votre champ lexical vous assurera un meilleur positionnement qu’une introduction trop évasive ou bâclée.

Il est également conseillé de placer votre mot-clé longue traîne dès le premier H2, puis de varier le champ sémantique et le champ lexical dans les Hn suivants.

Par ailleurs, certains experts SEO recommandent d’essayer de placer le mot-clé principal au moins une fois tous les 100 mots. Cette indication ne fait pas l’unanimité, mais elle reflète bien l’idée qu’il faut l’intégrer tout au long du texte, et pas seulement dans l’intro et les titres.

Recycler et reprendre vos anciens contenus

Vous aviez déjà plusieurs contenus publiés sur votre site avant de faire votre recherche de mots-clés longue traîne ? Appliquez alors dès maintenant les recommandations SEO sur vos nouveaux contenus, mais prenez le temps, également, d’optimiser vos anciens textes, afin qu’ils soient mieux positionnés. Prenez alors un contenu, repérez le mot-clé principal, et travaillez-le en longue traîne, en intégrant le mot-clé naturellement dans l’introduction, votre texte et vos Hn. C’est aussi l’occasion de recycler son contenu, en mettant à jour les informations et en redéfinissant la stratégie SEO.

Essayez d’insérer des mots-clés dans un contenu, c’est essentiel pour le SEO, mais viser les mots-clés longue traîne, c’est encore mieux. Les experts SEO de Lemon Interactive ne peuvent que vous recommander cette pratique, sans oublier de l’accompagner de toutes les autres pratiques SEO essentielles au référencement d’un site web.

Illustration d'un hacker dans un écran d'ordinateur, entouré de graphiques

White hat, black hat, grey hat SEO : définitions et différences

Pour augmenter la visibilité et la notoriété d’un site web sur la SERP des moteurs de recherche, rien ne vaut un bon SEO propre et respectueux des guidelines de Google. Car c’est bien le géant des moteurs de recherche qui dicte les règles du référencement naturel, et gare à celui qui tentera d’outrepasser ses guidelines. Alors, comment faire la différence entre le white hat, le grey hat et le black hat SEO et ne pas se faire pénaliser ? Faisons le point.

Qu’est-ce que le SEO ?

Le SEO (Search Engine Optimization) est la science qui consiste à trouver et appliquer toutes les techniques permettant d’augmenter la performance et le positionnement d’un site web dans les résultats de recherche. Appelé aussi référencement naturel, le SEO vise alors à apparaître dans les premiers résultats de la SERP (page de résultats des moteurs de recherche) et augmenter sa visibilité en ligne. Notre agence SEO à Lille peut vous aider pour votre référencement.

Qu’est-ce que le white hat SEO ?

Illustration d'un hacker qui augmente la visibilité aux yeux de google

Ce qu’on entend par white hat SEO, ce sont toutes les actions les plus vertueuses et bienveillantes que l’on peut entreprendre sur un site Internet, et qui ont pour vocation d’augmenter la considération et la visibilité aux yeux de Google.

L’objectif d’une stratégie SEO white hat est alors de placer l’internaute au cœur des priorités de la création de contenu sans laisser paraître sa volonté de ranker dans les premières positions des résultats de recherche. Dans le white hat, on retrouve différents enjeux.

La production de contenu

Toute la partie « contenu » du white hat concerne la propension à produire des textes qui seront d’autorité sur leur sujet, et produits de façon continue. En effet, Google considère de façon bien plus positive un site Internet qui ajoute du contenu de manière régulière (rythme journalier, hebdomadaire…) plutôt qu’un site qui ajoute beaucoup de contenus un jour, et plus rien pendant 6 mois.

Si vous opérez dans une niche, vous considérez également beaucoup le contenu. Vous verrez que tous les experts SEO ont pour Graal de trouver une niche dans laquelle se positionner. En toute logique, si vous avez moins de concurrence, et que peu de personnes parlent de votre sujet, Google vous positionnera plus facilement dans les premières positions.

Besoin d’un accompagnement SEO adapté à vos besoins ?

Les éléments de base du SEO

Le white hat ne concerne pas que la production de textes, cela comprend aussi des éléments de base du SEO :

  • Avoir un bon balisage sémantique (balisage Hn) ;
  • Renseigner les données structurées, ou rich snippet ;
  • Renseigner la meta description et la balise title ;
  • Renseigner la balise canonical ;
  • Renseigner la balise hreflang, pour les sites internationaux…

Les actions liées à la performance du site

Plusieurs actions sont à mettre en place pour optimiser les performances du site web et séduire Google :

  • Faire en sorte d’améliorer la vitesse de chargement du site ;
  • Assurer une bonne mise en cache du site ;
  • Garantir un DOM léger ;
  • Mettre en place un CDN qui répond vite ;
  • Éviter les fichiers JS lourds et trop nombreux ;
  • Minifier le CSS…

Tous ces enjeux vont améliorer le temps de chargement du site, et vont donc être des actions white hat SEO, même si cela implique souvent l’intervention d’une équipe technique.

Les autres spécialités du white hat

Enfin, une pratique white hat du référencement naturel, à l’inverse du black hat, implique l’utilisation de plusieurs techniques :

  • La construction d’un maillage interne efficient pour optimiser le crawl des robots ;
  • La création de contenu avec pour objectif d’obtenir des liens, sans aller en chercher ;
  • La mise en place d’un site responsive pour les smartphones (mobile first) qui garantit une bonne expérience utilisateur.

Qu’est-ce que le grey hat SEO ?

Le grey hat concerne l’expert SEO qui joue avec la limite des guidelines de Google. Il va en lire les règles, et dénicher les parties qui ne sont pas suffisamment claires ou sujettes à interprétation, pour en tirer profit. Il va donc utiliser des techniques qui ne sont pas entièrement reconnues comme white hat ou comme black hat pour Google, pour optimiser la performance du site web.

Dans le grey hat, on retrouve plusieurs actions :

Illustration d'un hacker qui utilise des liens et adresses IP
  • L’obfuscation ou le cloaking white hat par IP : ces actions consistent à dissimuler ou non du contenu, et notamment les liens, pour optimiser le budget crawl du site. Dans l’ensemble, on considère que ces techniques sont acceptées par Google, car cela lui permet d’économiser de la bande passante et limiter le coût d’exploitation du Googlebot, mais ce n’est pas pour autant une technique officiellement reconnue par le moteur de recherche ;

  • Les techniques d’acquisition de liens qui ne sont pas vraiment de l’achat de liens ou de la manipulation d’algorithme : cela comprend le fait de solliciter un lien par guest blogging, ou encore de procéder à une triangulation de liens, par exemple. Bien qu’elles ne soient pas officiellement autorisées par Google, ces techniques, qui ne sont pas appliquées en masse, restent safe et les risques de se faire prendre sont faibles.

Le grey hat est quand même assez limité, car Google communique des guidelines assez strictes. Il est donc plutôt difficile de se positionner à la limite entre white et black hat.

Qu’est-ce que le black hat SEO ?

Le black hat concerne les actions où on contrevient de manière intentionnelle aux règles de Google, et où on outrepasse les guidelines dans le but de gagner de la performance, mais aussi au risque de se faire attraper.

On distingue alors plusieurs degrés de black hat SEO, avec des répercussions et des pénalités qui varient.

Le netlinking

Illustration d'un hacker qui gère le volume des liens des pages

Le netlinking représente la source principale d’acquisition de liens. Tous les plus grands sites web l’utilisent. Et pourtant, le netlinking est officiellement black hat selon Google. Si jamais vous vous faites repérer par Google, il y a de fortes chances d’encourir une pénalité automatique, notamment depuis la mise en place de l’algorithme Pingouin.

Cependant, il existe des techniques pour voler sous les radars de Pingouin, notamment en gérant bien :

  • Le volume de liens reçu par page ;
  • Le type de page source qui fait un lien (la page doit être thématisée, l’ancre de lien ne doit pas être suroptimisée…)

Le cloaking

Ici, on ne parle pas du cloaking white hat, qui consiste à activer ou supprimer des liens sur un site web, et qui est autorisé par Google. En black hat, on parle plutôt du cloaking qui consiste à changer totalement le contenu de la page (texte, photos…), afin de présenter une version à Google, et une autre version aux utilisateurs. Google repère pratiquement toujours cette méthode trompeuse et bannit automatiquement le site en quelques semaines, voire quelques mois.

Le duplicate content, ou duplication de contenu

Si vous avez besoin, pour votre site web, de rédiger un article sur l’achat d’un matelas, vous n’avez pas le droit de copier et coller un article déjà présent sur un autre site. C’est ce qu’on appelle le duplicate content, et Google le repère très facilement.

En revanche, le duplicate content peut être utilisé comme une arme de destruction massive en SEO par un hacker, et peut être dangereux même pour les white hats, car Google n’est pas très performant pour détecter le véritable auteur d’un texte dupliqué. Donc, si votre site Internet a une forte réputation, et que vous copiez et collez un site de plus petite réputation, il est bien possible que ce soit le petit site qui soit pénalisé, même s’il est l’auteur du texte.

Le negative SEO

Le negative SEO (ou NSEO) concerne toutes les techniques qui consistent à tenter de nuire à un domaine concurrent. Cela peut se faire, par exemple, en créant des backlinks toxiques, en faisant une attaque au duplicate content, ou encore avec du hacking pur et dur. Il existe plein de méthodes pour pourrir un site, et y recourir pour pousser un autre site est évidemment considéré comme du black hat.

Le content spinning

Google refuse totalement le contenu non-naturel, de pauvre qualité et généré par intelligence artificielle, qui qualifie le content spinning. Il faut reconnaître qu’il a quand même du mal à le repérer, donc, dans un premier temps, il le référence plutôt bien. Mais dès qu’il se rend compte de la tromperie, la sanction est immédiate.

Il existe beaucoup d’autres méthodes black hat, qui ne s’inscrivent pas dans la logique d’un SEO pérenne, étant donné qu’elles sont surtout utilisées par des personnes qui ont pour vocation de créer un site éphémère, au succès qui ne durera que quelques semaines ou mois, avant de disparaître.

Disclaimer : toutes les techniques SEO sont toujours un peu du black hat

On dit souvent que certaines techniques sont black hat, que d’autres sont vraiment limites (grey hat), mais en réalité, dans l’esprit des guidelines de Google, n’importe quelle technique SEO est black hat. Pourquoi ? Tout simplement parce qu’une action SEO vise à influencer et manipuler l’algorithme de Google et des autres moteurs de recherche. Le simple fait d’agir sur la considération qu’a Google de notre site web est déjà, en soi, du black hat. Finalement, toute personne qui cherche à se faire bien voir par Google fait du black hat, mais tout le monde ne le fait pas proprement.

Quid du dunce cap, ou bonnet d’âne ?

Illustration d'une personne qui s'enfuit car le chargement est trop long

Si le black hat, le white hat et le grey hat sont des termes plutôt courants pour toutes les personnes qui s’intéressent un minimum au SEO, le dunce cap l’est déjà moins.

Cela concerne toutes les personnes qui n’appliquent pas les recommandations de Google, mais qui le font involontairement. C’est le cas des propriétaires de site qui exploitent maladroitement leur site, et qui se tirent une balle dans le pied. Ils ne vont pas forcément à l’encontre des guidelines de Google, mais ils n’optimisent pas leur site, ce qui nuit à l’expérience utilisateur, mais aussi au budget crawl du site.

On peut retrouver, par exemple, un temps de chargement trop long, qui fait fuir l’internaute et fait perdre le temps des robots de Google.

Alors, Google ne pénalise pas le dunce cap car l’éditeur de site respecte les conditions et ce n’est pas du tout une tentative de tricherie. En revanche, les performances du site peuvent malgré tout entraîner une pénalité.

Grey hat et black hat : quelles sont les pénalités ?

Aucune loi ne dicte les règles SEO. Alors, rassurez-vous, vous ne finirez pas en prison, ou avec une amende à payer, si vous pratiquez le black hat. En revanche, vous risquez de fortes pénalités pour votre site web. Et si les sanctions automatiques sont plutôt légères, les sanctions manuelles, régies par la Google Search Quality Team, peuvent être plus embêtantes :

  • Le déclassement du site au fin fond de la SERP ;
  • La désindexation des pages web, et notamment celles qui sont dupliquées ;
  • Le blacklistage du site entier, pour une durée indéterminée, et qui exigera, à la fin du blacklistage, de regagner la confiance de Google avec des pratiques plus propres. Un site sur liste noire n’est tout simplement plus visible du tout sur la SERP, même à la 97ème page.

Vous l’aurez compris, pratiquer le grey hat ou le black hat n’est clairement pas une bonne idée pour assurer la visibilité, la notoriété et la pérennité de votre site web. Si vous avez besoin d’aide pour connaître les meilleures techniques SEO white hat, n’hésitez pas à faire appel aux équipes SEO de l’agence Lemon Interactive.

Illustration d'une femme dans un caddie devant une carte de commerces locaux

Comment la création de sites internet favorise l’essor du commerce local ?

À l’ère du numérique, le paysage du commerce local a subi une transformation radicale. C’est fini le temps où une simple enseigne et une bonne réputation locale suffisaient. Aujourd’hui, la création de site internet local associée au SEO est devenue une nécessité pour les petits commerces artisanaux désireux de se distinguer dans un environnement numérique en constante évolution.

Pourquoi la création d’un site internet est-elle essentielle pour le commerce local ?

Illustration d'un homme devant un site e-commerce local avec des graphiques

La création d’un site web est votre vitrine numérique, accessible 24/7. Elle permet à vos clients potentiels de vous trouver facilement et d’obtenir les informations nécessaires avant de pousser la porte de votre magasin. Pour tous les commerces, créer un site internet c’est :

  • Une nouvelle clientèle potentielle
  • Une crédibilité en ligne officialisée
  • Un accès direct à vos produits, tous les jours et à toutes les heures

De plus, dans un monde où tout se recherche en ligne, un site web local donne une nouvelle dimension à votre commerce. Il construit et renforce la présence auprès des nouveaux clients, tout comme les plus fidèles depuis des années !

Taux de conversion des recherches locales : 78% des recherches mobiles locales aboutissent à un achat hors ligne.
Source: Search Engine Land

Les avantages distincts d’un site internet pour un commerce local

Un site internet local va agir comme une extension de votre magasin physique. Il va offrir une centralisation des informations en précisant vos horaires d’ouvertures, votre localisation exacte ou encore vos coordonnées globales. Mais ce n’est pas tout.

Grâce à votre site web, vous pouvez mettre en avant des promotions, des nouveaux produits, et même recueillir des témoignages de clients satisfaits (ou non) qui boosteront votre réputation et vous permettront de rayonner dans un paysage toujours plus concurrentiel.

  • Centralisation des informations : Horaires, localisation, contacts…
  • Mises en avant : Promotions, nouveautés, événements…
  • Témoignages et avis : Feedback des clients, preuve sociale…

Comment la « création de site internet local » booste le référencement

Illustration d'un homme s'appuyant sur un graphique de référencement

Avec plus de 10 ans d’expérience en webmarketing, nous pouvons affirmer que la création de site internet local est un levier puissant pour le référencement sur Google. Le SEO local permet à votre site de se démarquer dans les résultats de recherche, surtout lorsque les clients cherchent des options à proximité.

  • SEO local : Optimisation de Google My Business, mots-clés locaux (géolocalisable).
  • Backlinks locaux : Liens depuis des sites web crédibles locaux.
  • Avis clients : Critiques et témoignages pour renforcer la confiance.

Par exemple, vous pouvez optimiser votre fiche Google My Business, et y intégrer des mots-clés avec des localisations à proximité de votre commerce, et obtenir des backlinks locaux sont autant de stratégies gagnantes.

Et ne négligez pas l’importance cruciale des avis clients pour votre visibilité sur les moteurs de recherches car ils sont un gage de confiance pour Google, comme pour vos futurs clients.

Importance de Google My Business : Les entreprises qui revendiquent leur fiche Google My Business gagnent en moyenne 7 fois plus de visites que celles qui ne le font pas.
Source: Business 2 Community

Éléments clés à considérer lors de la création d’un site internet pour un commerce local

Le design responsive est une exigence non négociable. De plus en plus de consommateurs recherchent des commerces de proximités via leurs smartphones. Votre site web doit être consultable rapidement et avec une vitesse de chargement optimale.

Votre contenu doit lui aussi être pertinent et régulièrement mis à jour, et vous devez aussi vous servir de la recherche vocale pour améliorer votre visibilité. Ce sont des éléments incontournables pour toute commerce de proximité souhaitant réussir en ligne.

  • Design responsive : Adaptabilité à tous les appareils.
  • Vitesse de chargement : Temps nécessaire pour charger le site.
  • Contenu pertinent : Mise à jour régulière, pertinence pour le public.
  • Recherche vocale : Optimisation pour les requêtes vocales de type questions

En 2019, 63% du trafic du site web mondial provenait des appareils mobiles.
Source: Statista

Les erreurs courantes à éviter

Illustration d'un homme qui débranche une prise électrique avec une croix des erreurs à éviter pour l'e-commerce local

Malheureusement, de nombreuses entreprises négligent le SEO local lors de la création de leur site internet. C’est une erreur souvent fatale. Avoir une vitrine digitale c’est bien, mais une vitrine qui apporte du trafic c’est beaucoup mieux, non ?

Négliger l’importance des avis clients est encore une erreur courante, et un site internet non adapté aux mobiles ? C’est un véritable suicide commercial à l’ère du numérique car c’est un critère pris en compte dans Google.

  • Négliger le SEO local : Manquer des opportunités de visibilité.
  • Oublier les avis clients : Ignorer un facteur majeur de confiance.
  • Design non adapté aux mobiles : Perdre une grande partie de l’audience.

Au final, la création de site internet local n’est pas simplement une option, il s’avère que c’est une nécessité pour toute entreprise de proximité désireuse de prospérer à l’ère du numérique. Avec notre expérience dans le domaine, nous pouvons attester de l’impact durable et transformateur de la présence en ligne d’une entreprise. Vous pouvez directement le constater dans notre rubrique clients.