Ecologie numérique : comment le SEO peut-il apporter sa contribution ?

Ecologie numérique : comment le SEO peut-il apporter sa contribution ?
(Mis à jour le: 2 août 2021)

Savez-vous que le numérique est une source importante de pollutions diverses et de consommation massive d’énergie ? En 2019, l’Ademe a même déclaré que 4 % des émissions de gaz à effet de serre mondiales étaient imputables au numérique. Et le chiffre tend à augmenter au fur et à mesure que cet univers se développe et se complexifie. Il y va alors de chaque citoyen, dont nous les webmasters, de se montrer plus responsable afin de préserver l’écologie numérique. Si vous œuvrez, comme nous dans l’univers du SEO, voici quelques actions à adopter pour ne pas empirer la situation.

Pourquoi le numérique est si polluant ?

Pourquoi le numérique est si polluant ?La première chose qu’il faut comprendre c’est que le numérique est un vaste univers qui se compose des appareils technologiques, mais pas que. L’internet, les applications, les emails, les images et vidéos en ligne … tout cela en fait partie et chacune de ces facettes joue un rôle prépondérant dans la pollution 2.0.

Dès la conception des matériaux à leur fin de vie, chaque stade de leur cycle de vie génère une forme de pollution. Pour concevoir les ordinateurs, les téléphones, les serveurs …, on a besoin d’une grosse quantité de matières premières dont une majorité est extraite des entrailles de la terre et ce, un peu partout à travers le monde. On peut notamment citer les terres rares, l’or, le lithium, le tantale, le tungstène … Ce sont tous des minerais dont l’extraction coûte très cher à l’environnement.

Malheureusement, la pollution générée ne se limite pas là, puisqu’elle continue durant :

  • la fabrication des matériels qui nécessite une importante consommation d’énergie et le rejet de différents polluants dans l’environnement.
  • Leur transport et leur distribution qui nécessite également de l’énergie polluante.
  • Leur utilisation étant donné que même la transmission d’un mail a un impact sur l’environnement.
  • Leur fin de vie puisque la majorité des centres de recyclage n’ont pas la capacité de recycler des déchets numériques trop complexes.

Autrement dit, l’impact environnemental du numérique est énorme d’où la nécessité de faire preuve de responsabilité. Chaque secteur devrait en prendre conscience dont ceux travaillant dans l’univers du référencement naturel et du webmarketing.

Comment associer SEO et écologie numérique ?

Comment associer SEO et écologie numérique ?Si vous vous posez la question c’est que vous êtes déjà prêt pour réduire l’impact de votre travail sur l’environnement. Rassurez-vous, on ne va pas vous demander de faire une reconversion de carrière (étant donné que tous les domaines d’activités polluent à chacun sa manière), mais d’être des webmasters responsables. Voici comment vous pouvez vous y prendre.

Opter pour un hébergeur écologique

Oui, il existe désormais des hébergeurs web écologique qui font fonctionner leurs serveurs à l’énergie renouvelable. Certains ont même décroché un certificat d’électricité verte.

Notez que c’est l’une des solutions les plus radicales pour que nos activités sur le web ne polluent plus autant notre environnement.

Mettre en ligne des contenus de qualité

On vous le dit et redit, la QUA-LI-TE est primordiale en matière de référencement, mais aussi d’écologie numérique.

De nos jours, certaines personnes ouvrent un site web et le bourrent de contenus tout aussi inutiles les uns que les autres. Si vous en faites partie, merci de lire la suite, car à force d’agir ainsi, vous ne faites qu’aggraver la situation écologique pour les raisons évidentes qu’on vient de citer plus haut. Gravez également dans votre tête que sur le web, la qualité l’emporte sur la quantité. Mieux vaut avoir une dizaine de contenus pertinents et partagés à plusieurs reprises qu’une centaine de contenus qui peinent à se classer sur les trois premières pages des résultats de recherche. Rassurez-vous, ces quelques contenus suffiront à renforcer votre image d’expert puisque vous avez travaillé dur pour qu’ils soient les plus pertinents possibles, tant en fond qu’en forme.

Lorsque vous gardez cette ligne directrice en tête à chaque contenu créé, il y a très peu de chances que vous publiiez des pages inutiles. Non seulement, vous apportez des informations utiles aux internautes, mais vous facilitez également le travail des google bots qui n’auront aucun mal à vous classer. Ils ne consomment que l’énergie nécessaire pour effectuer leur tâche correctement.

Comprendre pourquoi la qualité des contenus web est si importante

Supprimer la masse noire présente sur votre site

La masse noire ce sont toutes ces données et pages totalement inutiles sur votre site. Notez que sur le web, une page équivaut à une Url. Si toutes les pages apportent du contenu pertinent et utile, tout va bien. Par contre, si certaines d’entre elles ne servent à rien, non seulement elles n’ont aucune utilité pour les internautes, mais en plus, vous demandez aux moteurs de recherche de les crawler malgré tout.

Résultats :

  • vous vous trouvez avec des pages zombies sur votre site ce qui va impacter sur votre positionnement dans les SERPs.
  • Vous demandez aux moteurs de recherche de fournir un travail totalement inutile, mais qui va pourtant consommer de l’énergie et générer des gaz à effet de serre.

Comment déterminer la masse noire ?

Pour les éradiquer, vous devez d’abord les identifier. Pour ce faire, rendez-vous dans votre Google Search Console puis dans la rubrique Couverture. Changez ensuite les paramètres du filtre en remplaçant « Toutes les pages connues » par « Toutes les pages envoyées ». Une fois que les résultats apparaissent, prêter particulièrement attention aux onglets « Erreurs » et « Exclues ». Ce sont des urls à problème encore non indexées, mais qui peuvent porter atteinte au référencement de votre site. Notez combien d’urls apparaissent dans ces onglets puis remettez le paramètre « Toutes les pages connues » pour pouvoir faire la différence entre les deux. Cela vous permettra de voir la quantité de masse noire sur votre site.

Par contre, si l’onglet « Valides » affiche un résultat de 100 %, c’est que toutes vos urls sont indexées et que vous n’avez pas de masse noire. Pour maintenir cette tendance, tâchez d’avoir un sitemap exhaustif pour connaître à tout moment combien d’urls il contient. Le sitemap facilite le suivi de vos contenus et vous permet de voir les pages que vous souhaitez voir apparaître sur la toile.

Comment traiter la masse noire ?

Après investigation, vous avez bien découvert de la masse noire sur votre site ? Voici quelques pistes pour y remédier :

  • Fusionner les contenus qui peuvent l’être de sorte à ne garder qu’une seule url à crawler au lieu de plusieurs.
  • Utiliser le fichier robots.txt pour indiquer aux spiders de Google quelles urls ils ne doivent pas crawler.
  • Désindexer les urls qui ont été crawlées par erreur.
  • Faire une redirection des urls supprimées à la suite d’une fusion, d’une refonte …
  • Corriger rapidement les problèmes de contenus dupliqués internes

En gros, sur un site, chaque url doit remplir une fonction utile et qui lui est propre.

Corriger les pages zombies

Inutile de vous rappeler que les pages zombies ont un impact négatif sur votre référencement. Non seulement, elles ne font qu’étoffer votre masse noire, mais en plus, elles ne satisfont pas les attentes des utilisateurs. Il faut donc y remédier, pour votre bien, mais aussi pour celui de l’environnement. Et les solutions sont simples puisque la plupart rejoint celles citées ci-dessus pour traiter la masse noire à savoir :

  • Fusionner les pages qui peuvent l’être pour consommer moins de données
  • Améliorer les contenus
  • Corriger le Duplicate content interne
  • Désindexer les pages que vous ne souhaitez pas voir sur la toile
  • Supprimer les pages inutiles, tant pour vous que pour les internautes

Si vous avez des doutes quant à l’existence de pages zombies sur votre site, mais que vous n’en êtes pas sûr, il faut faire un audit RM Tech. Le service est payant, mais en vaut la peine puisqu’il est l’un des rares outils à afficher clairement la présence de zombies sur le site analysé.

A lire – Pages zombies : comment les traiter efficacement ?

Améliorer la performance du site

Lorsqu’on parle de performance, on se réfère surtout à la vitesse de chargement de vos pages. Pour rappel, les internautes s’attendent à ce qu’une page s’affiche entièrement en quelques secondes. Trois secondes serait l’idéal, mais soyons réaliste, seuls quelques sites remplissent cette prouesse. On dira, dans ce cas qu’une moyenne de sept secondes serait plus qu’apprécié. Au-delà de ce délai, vous pouvez déjà être sûr de perdre quelques clients potentiels, car comprenez-le, tout le monde est pressé dans l’univers 2.0.

Et les internautes ne sont pas les seuls à être tatillons sur ce délai de chargement des pages, car les robots crawlers l’ont aussi dans leur viseur. Pour eux, une page trop lente signifie qu’elle contient des contenus trop lourds. Plus leur taille augmente, plus le site va consommer de l’énergie et en faire consommer aux lecteurs qui attendent de l’autre côté de l’écran. C’est tout sauf écologique !

Pour remédier aux problèmes de pages lentes, voici quelques tuyaux :

  • Publier des images et des vidéos dans la bonne taille et plus légères
  • Retirer toutes les ressources inutiles
  • Mettre en place un système de mise en cache côté serveur …

A lire – Images volumineuses : quels outils utiliser pour réduire leur poids ?

Et surtout, n’oubliez pas de garder un œil sur la vitesse de chargement de vos pages. Cela doit être fait régulièrement de sorte à réagir au plus vite en cas de besoin.

Tous ces points sur la performance nous emmènent à un point essentiel en matière de SEO : l’UX.

L’UX ou « User eXperience » ou expérience utilisateur est un indicateur clé pour le classement des pages dans les SERPs. Depuis que Google fait appel à l’intelligence artificielle, ses robots sont capables de comprendre l’intention qui se cache derrière chaque requête. Les pages seront ainsi affichées par ordre de pertinence, celles qui répondent exactement aux requêtes classées sur les premières lignes de la première page des SERPs.

Mais au-delà des réponses attendues par les internautes, il y a d’autres points qui contribuent à améliorer leur expérience sur votre site. Savez-vous lesquels ?

  • Une navigation plus fluide grâce aux liens internes
  • Une vitesse de chargement plus rapide
  • Des vidéos et des images de qualité et qui s’affichent entièrement et correctement
  • Des contenus agréables à lire et aérés …

En gros, en améliorant la performance de votre site, vous faites d’une pierre deux, plutôt trois coups : vous optimisez votre positionnement dans les SERPs, vous réduisez votre impact environnemental et vous améliorez l’expérience utilisateur.

Bannir certaines méthodes peu éthiques

Nous le savons tous, une concurrence féroce règne au sein du monde digital puisque les moteurs de recherche ne dispose que d’une dizaine de lignes sur la une de leur SERP. Il faut donc essayer de figurer parmi les dix premiers et malheureusement, c’est un travail de longue haleine puisqu’il faut mener des efforts constants. Pour y apparaître, certains webmasters n’hésitent pas à se lancer dans des techniques peu conseillées, tant d’un point de vue éthique, qu’environnemental. Quelles sont-elles ?

  • Publier des spams (commentaires, posts, faux profils sur les réseaux sociaux …) sur plusieurs sites pour obtenir plus de liens. On ne vous demande pas de ne rien commenter ou de ne rien publier, mais de le faire de manière responsable. Faites-le seulement quand c’est nécessaire pour ne pas faire travailler davantage les serveurs et les robots.
  • Créer un réseau de sites satellites : cela consiste à créer des sites secondaires autour d’un site principal de sorte à donner à ce dernier le maximum de backlinks Dans la majorité des cas, les sites secondaires ne sont que très peu pertinents et n’apportent rien aux internautes. Cette méthode est à proscrire pour deux raisons. La création de sites médiocres gaspille de l’énergie. Les backlinks provenant de ces sites sont de piètre qualité et ne vous rapportera rien de bon en matière de SEO.
  • Copier les contenus des autres : c’est l’une des techniques appliquées par les amateurs de Negative SEO. Non seulement, c’est malhonnête, mais vous allez faire travailler les spiders davantage puisqu’ils vont devoir crawler deux fois le même contenu. Cela rime avec plus d’énergie consommée.

Ainsi, même sur le web, vous devez vous conduire en tant que citoyen responsable, respectueux aussi bien des autres que de l’environnement.

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *