Comment faire une optimisation technique sur les moteurs de recherche

L'optimisation technique sur les moteurs de recherche, ou SEO technique en abrégé, garantit que le contenu des sites Web est accessible rapidement et de manière optimale par les moteurs de recherche et les utilisateurs.

Outre le contenu, le référencement technique joue également un rôle déterminant pour le placement dans les résultats de recherche. Le meilleur contenu ne sert à rien si Google ne peut pas le récupérer, c'est-à-dire l'explorer et l'indexer. Il est également important que le contenu s'affiche rapidement et de manière optimale pour chaque appareil.

Un autre aspect est la sécurité des données : si un site Web est accessible via HTTPS, les données sont transmises sous forme cryptée, de sorte qu'il est plus difficile pour des tiers de lire ou de manipuler les données.

Les sections suivantes décrivent comment un site Web peut être équipé techniquement de manière à ce qu'il soit facilement et en toute sécurité accessible à la fois pour Google et les utilisateurs. Cela peut porter ses fruits sous la forme d'utilisateurs satisfaits et de meilleurs classements.

faire une optimisation technique

Vitesse de la page

Le temps de chargement des sites Web est un facteur de classement sur Google. Pas le plus important, bien sûr, mais le temps qu'il faut pour qu'une page apparaisse complètement dans le navigateur peut être le facteur décisif pour savoir si vous figurez devant ou derrière la concurrence sur les pages de résultats de recherche.

Google recommande un temps de chargement maximum de trois secondes - chaque seconde supplémentaire est susceptible d'entraîner la perte d'utilisateurs qui se détournent déçus et recherchent des alternatives.

De nombreux facteurs peuvent affecter le temps de chargement. Certains des facteurs d'influence les plus importants sont énumérés ci-dessous :

  • Le système de gestion de contenu (CMS) utilisé . Selon que vous utilisez WordPress, Joomla, Drupal ou d'autres systèmes, le temps nécessaire pour transférer les données et créer les pages peut varier. Contrairement aux sites Web constitués de HTML pur, les CMS sont principalement basés sur le langage de programmation PHP. Lorsqu'un site Web est interrogé, le code HTML à afficher est d'abord généré dynamiquement, avec accès à PHP et à une base de données. Bien sûr, ce processus prend plus de temps que le simple transfert du HTML fini d'une page statique et son affichage.
  • Les extensions utilisées : Si des plugins sont utilisés pour un CMS, par exemple pour un forum, un diaporama ou pour des commentaires, des données supplémentaires doivent être transférées. De plus, le calcul des pages prend d'autant plus de temps. Vous devez donc vérifier de manière critique et vous demander si toutes les extensions utilisées sont réellement nécessaires.
  • Mise en cache et compression : La mise en cache des données dans le navigateur de l'utilisateur garantit que certains fichiers tels que les images, JavaScript et CSS ne doivent être transférés qu'une seule fois. La prochaine fois que vous visiterez le site Web, le navigateur accédera à la mémoire locale, ce qui vous fera gagner du temps. La compression a lieu avant le transfert des données. Les données sont ensuite décompressées à nouveau sur l'ordinateur de l'utilisateur, de sorte que le volume de données à transférer est plus faible.
  • Utilisation d'un réseau de diffusion de contenu (CDN) : un CDN est un réseau de serveurs répartis géographiquement. Si un utilisateur accède à un site Web lié à un CDN, la requête n'est pas envoyée à un serveur fixe, mais au serveur qui peut répondre le plus rapidement. De plus, les serveurs stockent certaines données dans le cache d'un CDN et peuvent ainsi les livrer encore plus rapidement. Les CDN sont proposés par de nombreux hébergeurs et peuvent être réservés en plus des packages existants - souvent même sans frais supplémentaires.
  • Images, vidéos et autres médias : si de grandes images, des vidéos haute résolution ou même des fichiers audio doivent être chargés sur un site Web, cela peut également réduire le temps de chargement. Par conséquent, par exemple, les images intégrées doivent toujours être vérifiées pour leur potentiel d'optimisation : la taille du fichier peut-elle être réduite ? Il existe des outils adaptés tels que Tiny PNG, JPEG Optimizer ou Compress.photos. Les vidéos ne doivent pas nécessairement fonctionner sur votre propre serveur, mais peuvent également être téléchargées sur YouTube, par exemple. De là, vous pouvez intégrer les vidéos via iFrame.
  • Serveur : Le potentiel d'optimisation est particulièrement important ici. Un petit forfait d'hébergement avec un serveur que vous devez partager avec de nombreux autres sites Web est bien sûr moins puissant que votre propre serveur ou même un système distribué de plusieurs serveurs contrôlés à l'aide d'un équilibreur de charge. Surtout pour les sites Web avec un nombre élevé de visiteurs, il vaut la peine d'envisager d'investir un peu plus d'argent dans l'infrastructure.

HTTPS

La transmission sécurisée des données dans le réseau est plus importante que jamais aujourd'hui. La transmission doit être cryptée, en particulier lorsque des données utilisateur sensibles sont impliquées. Cela s'applique dans les deux sens, c'est-à-dire à la fois du client vers le serveur et vice versa.

La méthode de cryptage la plus simple est l'utilisation de Transport Layer Security (TLS). Vous pouvez reconnaître les sites Web avec cette technologie par le "HTTPS" dans les URL. Un certificat de serveur correspondant est requis. La plupart des hébergeurs ont TLS ou HTTPS dans leur programme en standard, souvent même sans frais supplémentaires.

Google honore cela, car l'entreprise promeut depuis longtemps la sécurité des données sur Internet. Les sites Web qui utilisent HTTPS peuvent bénéficier d'un meilleur classement.

Mais il n'y a pas que les classements qui parlent en faveur du HTTPS : les navigateurs modernes tels que Firefox ou Chrome soutiennent également la tendance en marquant les pages non cryptées comme dangereuses. Cela peut rebuter les visiteurs du site.

Conception réactive

La conception réactive est une technologie qui garantit que les sites Web sont affichés de manière optimale sur les ordinateurs de bureau, les ordinateurs portables, les smartphones et les tablettes. Ceci est réalisé en affichant ou en masquant, en déplaçant ou en mettant à l'échelle certains éléments du site Web. En conséquence, les textes peuvent également être lus sur des écrans plus petits, les liens et les boutons sont suffisamment grands pour être également actionnés avec le doigt et les images s'adaptent à l'espace disponible.

Un grand avantage des sites Web avec un design réactif est qu'une seule variante doit être conservée, contrairement aux sites Web qui ont une variante mobile distincte.

Compte tenu du changement à venir vers un nouvel index Google , il est recommandé de convertir les sites Web en responsive design, car à l'avenir, les facteurs de classement mobile seront au premier plan (au lieu des signaux de la version de bureau, comme c'était le cas auparavant).

Mais déjà aujourd'hui, Google récompense les sites Web adaptés aux mobiles avec de meilleurs classements. Le fait que Google classe ou non un site Web comme adapté aux mobiles peut être testé avec le test spécialement conçu pour les mobiles .

La plupart des systèmes de gestion de contenu ont aujourd'hui des modèles qui répondent aux exigences du responsive design. L'effort pour la conversion est donc limité.

Crawlabilité et indexabilité

Pour qu'un site Web apparaisse dans les résultats de Google, Google doit pouvoir l'explorer et l'indexer. Lors de l'exploration, un soi-disant robot d'exploration, le Googlebot, visite les pages et enregistre le contenu et les liens qui y sont disponibles. Les liens sont ensuite utilisés pour explorer d'autres pages. C'est pourquoi une structure de liens internes optimisée est si importante.

L'indexation est un processus ultérieur : Google écrit les données trouvées lors de l'exploration dans une sorte de base de données, l'index Google, après leur premier traitement. Celui-ci contient de nombreux champs et critères qui décident plus tard si et dans quelle position une page peut apparaître dans les résultats de la recherche.

Beaucoup de choses peuvent mal tourner avec l'exploration et l'indexation - toutes les conditions doivent donc être créées de manière à ce qu'il y ait le moins d'obstacles possible pour Google.

robots.txt

Le fichier robots.txt contient des informations sur les pages et les ressources d'un site Web auxquelles les différents robots d'exploration peuvent accéder. Fondamentalement, vous pouvez considérer un fichier robots.txt comme une simple liste d'instructions « vous pouvez » et « vous ne pouvez pas ». Tout ce qui est marqué avec "allow" est accessible - tout ce qui est marqué avec "disallow" est interdit. Le contenu qui n'est pas marqué par « autoriser » ou « interdire » peut également être exploré.

Lors de la modification du fichier robots.txt, il est important de s'assurer qu'aucune page n'est accidentellement bloquée et qu'elle devrait se retrouver dans l'index Google. Une instruction comme

interdire : /

garantit, par exemple, que toutes les pages sont bloquées.

Vous devez également vérifier si toutes les ressources importantes telles que les dossiers d'images, les répertoires JavaScript et CSS sont accessibles aux robots d'exploration, car elles sont nécessaires pour afficher (calculer) une page. Google est capable de le faire depuis longtemps.

Il existe plusieurs façons de le vérifier dans la console de recherche Google : une fois dans la zone « Crawling » sous l'élément « robots.txt-Tester » et dans la zone « Google Index » sous l'élément « Ressources bloquées ».

Méta-robots

Contrairement au fichier robots.txt, l'instruction méta-robots ne contrôle pas principalement l'exploration, mais l'indexation. Les méta-robots se trouvent dans le code source HTML dans la zone <head>. Ils ont la forme suivante :

<meta name = "robots" content = "index | noindex, follow | nofollow" />

La première partie, c'est "indice" ou. "pas d'index"indique à Google si la page en question doit être indexée ou non. La deuxième partie, c'est"suivre" ou "pas de suivi" est une instruction qui détermine si le Googlebot doit suivre ou non les liens présents sur la page.

S'il n'y a aucune raison impérieuse de garder une page hors de l'index Google, vous devez toujours définir "index, follow" comme valeur. Cependant, il peut y avoir des cas où il peut être opportun de passer au « noindex », par exemple lorsqu'il s'agit de pages qui n'offriraient aucune valeur ajoutée pour les utilisateurs des moteurs de recherche.

Lien interne

Comme déjà indiqué ci-dessus, un lien interne bien structuré peut faciliter le crawl de Google. Vous devez toujours partir d'une structure hiérarchique dans laquelle il y a peu de pages au niveau supérieur et plus de pages aux niveaux inférieurs. Exemple : un site Web a une page de démarrage à partir de laquelle vous pouvez accéder à différentes catégories. Chacune de ces catégories comporte à son tour plusieurs sous-catégories, de sorte que vous disposez déjà d'un multiple de pages à ce niveau. Chaque sous-catégorie a un certain nombre de sous-pages ou pages de destination.

La liaison cohérente des catégories, sous-catégories et pages de destination améliore les chances que Google puisse capturer et explorer toutes les pages. Un lien interne pensé de manière logique crée également une meilleure vue d'ensemble pour le lecteur de page.

Cette construction peut être complétée par des liens croisés au sein d'un niveau - par exemple entre des pages de destination liées à un sujet.

Plans de site XML

En plus d'un lien interne optimisé, les sitemaps XML peuvent être une autre aide pour le Googlebot lors de l'exploration. Ces fichiers ont toutes les URL importantes répertoriées afin que Google puisse facilement les afficher une par une.

Les sitemaps XML doivent toujours être à jour. Si des pages sont omises, modifiées ou nouvellement créées, cela devrait être reflété dans le plan du site XML.

Soit dit en passant, il existe différents types de plans de site XML qui peuvent être soumis à Google, notamment pour des images, des vidéos ou des actualités. Ces derniers sont réservés aux sites Web répertoriés dans la recherche d'actualités de Google, Google News.

La plupart des systèmes de gestion de contenu offrent la possibilité de créer des plans de site XML en tant que fonctionnalité standard ou en tant qu'extension.

Budget d’exploration

Le budget d'exploration d' un site Web sur Google est très discuté et mérite toujours une contribution . Fondamentalement, cela signifie le nombre de pages auxquelles le Googlebot peut ou veut accéder dans un certain laps de temps.

Vous ne pouvez pas influencer directement le budget de crawl, mais vous pouvez prendre des mesures pour vous assurer que Google récupère plus de pages. Un temps de réponse court du serveur est particulièrement important, car dès que Google détecte qu'un serveur rencontre des problèmes pour répondre aux requêtes, le taux d'exploration est réduit.

Autres facteurs qui affectent le budget de crawl :

  • Navigation à facettes et identifiants de session dans les URL : La navigation à facettes se trouve par exemple dans les boutiques en ligne, où il est possible d'appeler différentes variantes (taille, couleur, etc.) pour les produits. Les différences entre les pages de produits individuelles sont très faibles.
  • Erreurs logicielles : ce sont des pages qui peuvent être appelées, mais ne fournissent pas le contenu souhaité. Cependant, ils renvoient le statut HTTP 200 pour "ok".
  • Pages piratées : Les pages manipulées et piratées entraînent par conséquent une réduction des activités de crawl de Google.
  • Contenu en double : si Google détecte que le contenu apparaît plus d'une fois sur un site Web, cela peut également entraîner une réduction de l'exploration.
  • Contenu inférieur et spam : voir pages piratées.
  • Espaces infinis : S'il existe de nombreuses URL à faible valeur ajoutée sur un site Web, Google répondra sous la forme d'un crawl réduit.

Sujet spécial : crawling JavaScript, AJAX et sites web dynamiques

Des défis particuliers surviennent lorsque des sites Web dynamiques et des applications dites à page unique doivent être explorés. Contrairement aux sites Web conventionnels, ceux-ci se comportent davantage comme une application et se composent essentiellement d'une seule page qui se présente différemment en fonction de l'interaction de l'utilisateur.

Pendant longtemps, Google n'a rien pu faire avec un tel contenu. Il était donc nécessaire de fournir un "snapshot" aux moteurs de recherche - c'est-à-dire une image statique des différents états, qui pourrait ensuite être explorée dans chaque cas.

Maintenant, cependant, Google peut interpréter et exécuter JavaScript. 

Pour tester comment un site Web basé sur JavaScript se présente pour Googlebot, vous pouvez utiliser la fonction "Récupérer comme par Google" dans la console de recherche Google.

Nous recommandons également l'outil de référencement "Screaming Frog" - c'est actuellement l'un des rares outils capables d'interpréter et d'exécuter JavaScript.

Redirections

Les redirections ou redirections sont un sujet constant pour les référenceurs. Quand les redirections sont-elles nécessaires, quand est-il préférable de les laisser de côté ? Une redirection garantit que lorsqu'une URL telle que www.example.com/page1.html est appelée, il y a un saut vers une autre URL, par exemple www.example.com/page2.html.

Les redirections sont importantes afin de ne pas perdre les appels vers d'anciennes pages ou URL et de les envoyer vers la nouvelle destination. Les backlinks existants peuvent également être préservés grâce à l'utilisation de redirections.

Vous êtes totalement libre de choisir la destination de transfert : Vous pouvez également faire référence à un domaine complètement différent.

Vous trouverez ci-dessous un aperçu des types de redirections les plus importants :

  • Redirection 301 : il s'agit d'une redirection permanente
  • 302-Redirect : renvoi temporaire
  • 303-Redirect : "voir autre" - Si cette réponse intervient après un appel, le client demandeur est renvoyé vers une autre ressource ("URI").
  • 304-Redirect : "non modifié" - Un transfert n'est pas nécessaire car la ressource demandée n'a pas changé depuis le dernier appel.
  • 305-Redirect : "use proxy" - La ressource demandée n'est disponible que via un proxy.
  • 307-Redirect : "temporaire" - similaire à 302-Redirect

Pour les changements permanents, par exemple lorsqu'un site Web passe à un nouveau domaine, les redirections 301 doivent être utilisées.

Éviter les liens rompus

Les liens brisés sont des liens qui pointent vers des pages ou des URL qui n'existent plus. Il peut s'agir de liens rompus internes ou externes.

Les liens brisés ne sont pas attrayants pour les visiteurs du site Web et les robots des moteurs de recherche, car ils mènent à une impasse. Pour cette raison, vous devez vérifier régulièrement votre propre site Web pour vous assurer que tous les liens fonctionnent toujours. Si des liens rompus sont trouvés, ils doivent être modifiés ou supprimés.

Balises canoniques, contenu dupliqué

Les balises canoniques et le contenu en double sont étroitement liés. Un contenu en double se produit lorsqu'une page est disponible sous plusieurs URL, par exemple avec et sans "www". Cela peut amener Google à indexer plusieurs variantes de la page avec différentes URL. Ainsi, ces différentes variantes se concurrenceraient pour les classements sur les pages de résultats de recherche, ce qui peut avoir un effet négatif.

Les soi-disant canoniques sont une solution au problème du contenu dupliqué : ils peuvent être utilisés pour définir quelle URL Google doit utiliser lorsqu'une page peut être atteinte sous différentes URL. Pour ce faire, une balise comme celle-ci doit être incluse dans chacune des pages concernées :

<link rel = "canonical" href = "https://example.com/ page principale">

Google n'indexera alors qu'une URL à la fois.

URL

Les URL doivent être utilisées sans paramètres supplémentaires si possible, car cela crée la possibilité de contenu dupliqué (voir la section précédente). Évitez autant que possible les espaces et les traits de soulignement dans les URL. De plus, les URL ne doivent pas être trop longues, car cela rend le traitement et le partage ultérieurs des URL - par exemple dans les réseaux sociaux - plus difficiles.

Important : les mots-clés cibles pour lesquels une page doit être classée doivent apparaître dans l'URL de la page. Bien que cela n'ait qu'un effet mineur sur les classements, cela peut toujours être un avantage en cas de doute. La structure des URL doit correspondre à la hiérarchie des pages, c'est-à-dire représenter les différents niveaux du site Web.

Exemple : www.example.com/category/subcategory/landing-page.html

Paramétrage du serveur

Techniquement, la configuration la plus exigeante et la seule recommandée pour les utilisateurs techniquement avancés est la configuration manuelle du serveur sur lequel le site Web est exploité.

Selon le forfait d'hébergement que vous avez réservé, il existe différentes options. Ceux qui ont leur propre serveur sont les plus flexibles et peuvent librement décider quel logiciel installer. Le système d'exploitation utilisé sur le serveur (Windows ou Linux), la version PHP utilisée et la base de données utilisée sont importants.

Il existe d'autres options de configuration en ce qui concerne la mise en cache de contenus tels que les images, JavaScript et CSS ainsi que le choix de compresser ou non les données avant la transmission.

Les packages d'hébergement sont moins flexibles où vous devez partager un serveur avec de nombreux autres sites et ont donc moins d'influence sur la configuration. Mais l'effort de maintenance est également moindre. De tels packages sont généralement suffisants pour les petits sites Web.

Les packages "Managed Server" représentent une solution intermédiaire : l'hébergeur s'occupe ici de certaines tâches de base telles que les mises à jour des logiciels existants. Néanmoins, le client dispose de nombreuses options pour adapter le système à ses propres besoins.

Conclusion

Le référencement technique est un domaine de responsabilité qui doit garantir le fonctionnement fluide, convivial et sécurisé des sites Web. Ces activités n'ont qu'en partie à voir avec le référencement, car il s'agit principalement des utilisateurs. Cependant, les efforts tels que l'utilisation de HTTPS et les temps de chargement courts de Google sont récompensés par des classements comparativement meilleurs.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

six − 6 =