Panda, Penguin : Comment éviter les pénalités de référencement des filtres Google ?

Il est toujours bon, à tête reposée, en dehors d’une actualité « chaude » de prendre du temps sur les fondamentaux. Et si vous avez besoin de réviser votre SEO pendant les vacances d’été, ce petit billet récapitulatif à propos des filtres du moteur de recherche Google est fait pour vous!

4427745_6_cb98_le-logo-de-google-version-1_5be4a6488d6192c8fcf78b679c042142

Pourquoi Google met à jour des filtres ?

Dans le but de proposer aux internautes les résultats les plus pertinents lors de leurs recherches sur Google, le moteur de recherche a décidé de lancer des algorithmes afin d’éliminer les résultats de requêtes qui n’étaient pas adaptées.

Voici quelques exemples récents de mises à jour de filtre:

  • 19/02/2014 : Google Page Layout lutte contre les pages proposant trop de publicité et obligeant l’internaute à scroller pour atteindre le vrai contenu éditorial de la page.
  • 20/05/2014 : Google Panda 4.0 lutte contre les contenus de faible qualité
  • 12/06/2014 : Google PaydayLoan 3.0 : mise à jour visant les requêtes spammy comme les requêtes pornographiques ou concernant les casinos, le viagra ou encore les prêts sur salaire…..

seo-camp2[1]

 

 

 

[table id=2 /]

Qui est visé par Panda 4.0 ?

  1. comparateurs de prix, agrégateurs, codes de réduction
  2. annuaires de sociétés / annuaires généraliste sans ligne éditoriale
  3. sites d’avis
  4. sites de questions / réponses
  5. listing de commerçants (restaurants, hôtels, événements,..) sans ligne éditoriale
  6. sites internet utilisant le content spinning (génération de contenu automatique)

Qui a été concerné par Panda 4.0 ?

Les sites touchés par les pénalités sont essentiellement des sites aux USA.

1- Plusieurs sites ayant fortement chuté (60% de baisse) avaient entre 20% et 30% de contenus dupliqués en raison de la syndication de contenus. Ils n’avaient pas indiqué que la source du contenu était externe et n’avaient pas empêché l’indexation des pages avec le contenu dupliqué.

2- D’autres avaient inséré au milieu d’un contenu original, un ou des blocs de contenus tiers. Panda essaie justement de repérer le scraping (extraction de contenu web).

3- Enfin des sites qui n’arrivaient pas à créer un bon engagement avec l’internaute sont pénalisés : une mauvaise expérience utilisateur (UX). La question alors à se poser est « Est-ce qu’une trop grande partie des internautes arrivés sur mon site depuis Google reviennent en arrière dans les SERP, notamment au bout de peu de temps ? » Ce comportement d’aller-retour entre les SERP et les sites des résultats est appelé le pogosticking.

Cette durée est appelée Dwell Time cette notion est utilisée pour évaluer la qualité des page.

Quelques sites impactés aux US

Les principaux perdants : Prnewswire (site de BDD presse) , ask, ebay, équivalent des pagesjaunes US, ….

Quelques gagnants : medterms (dictionnaire médical), zimbio, …

En Conclusion

Bref, pour un bon référencement naturel, rien ne vaut le respect de bonnes pratiques (Guidelines) du leader des moteurs de recherches pour éviter les désillusions… Nos experts Mediaveille SEO n’ont eu aucune mauvaise surprise à noter suite à ces mises à jour jusqu’à présent. Une philosophie qu’on applique au quotidien avec nos clients depuis 15 ans.

Ces articles pourraient également vous intéresser