Référencement naturel & SEO Google déploie Panda en France en août 2011

Google déploie Panda en France le 12 août 2011

Publié le 26 Août, 2011 - 16:56 par Antoine Girault

En février 2011, Google dévoile la nouvelle version de son moteur de recherche, baptisée Panda, qui ne concerne alors que les Etats-Unis. L’annonce fait l’effet d’une bombe dans la communauté des professionnels du référencement, se faisant l’écho de pertes de positionnement, d’hypothétiques sanctions, de perte de trafic…
Le 12 août dernier, suite à une vague d’incertitude qui aura semé le doute pendant plusieurs mois, Panda est enfin déployée en langue française. Vous n’avez rien remarqué ?!

 

Qu’est-ce Google Panda ?

Mais que cache ce Panda ? Pourquoi fait-il trembler les professionnels du webmarketing et les éditeurs de sites Web ?

Avant de rentrer dans le vif du sujet, rapellons que Google procède de façon continue à des changements de son algorithme, cette formule mathématique complexe qui lui permet de classer automatiquement les sites Web qu’il parcourt dans ses résultats de recherche, sur toute expression-clé saisie par un internaute.

Panda est une de ces « mises à jour » de l’algorithme de Google, mais elle est considérée comme majeure, avec pour objectif avoué d’améliorer le classement de nombreux sites Web de qualité, comme l’explique un article du blog officiel de Google France.

Nous n’avons que très peu de recul par rapport aux éventuels changements induits par Panda sur la stratégie de référencement naturel d’un site Web, mais il convient de noter que Google renvoie l’ensemble des acteurs du Web à la notion de Qualité, en publiant les informations ci-dessous sur un de ses sites dédiés aux Webmasters :

Nos algorithmes ont pour objectif d’aider les internautes à trouver des sites de qualité en faisant descendre les sites moins utiles dans le classement. La modification Panda est une réponse à cette tâche difficile qu’est l’évaluation de la qualité d’un site Web… Bien entendu, nous ne pouvons pas divulguer les paramètres utilisés dans nos algorithmes de classement, car nous ne voulons pas que certains puissent tricher avec les résultats de recherche.

La qualité selon Google : la revanche de l’éditorial ?

Depuis Panda, il semblerait que Google (re)place le contenu éditorial d’un site Web au centre de ses préoccupations.

D’ailleurs, d’après ce que nous avons pu constater sur un échantillon de sites Web, ceux qui jouent la carte du contenu unique et pertinent pour l’internaute n’ont pas souffert de la mise à jour Panda.

Au contraire, ils ont bénéficié des pertes de positionnement de sites Web « concurrents ».

Cela fait des années que nous le clamons haut et fort : en matière de référencement naturel, le contenu est roi. Et en 2011, ce « Pandalgorithme » aurait intégré des traitements sophistiqués censés permettre aux éditeurs de sites Web de tirer partie d’une réelle stratégie de contenu.

L’éditorial n’est évidemment pas le seul levier d’optimisation du référencement naturel, mais, via Panda, Google semble vouloir mesurer davantage la qualité d’un site Web à travers son contenu éditorial.

La nouveauté pourrait se trouver derrière une courte phrase publiée par Google sur un de ses sites officiels, dans le cadre du déploiement de Panda en langue française :

Notez également que si certaines pages d’un site Web sont de mauvaise qualité, cela peut affecter le classement de l’ensemble du site.

En d’autres mots, une page d’un site Web bâtie sur du contenu dupliqué était jusqu’alors simplement filtrée des résultats de recherche. Maintenant, elle peut mettre en péril l’ensemble de la « réputation éditoriale » du site Web, toute proportion gardée bien sur, et donc sa visibilité dans les moteurs de recherche.

La notion de contenu dupliqué n’est pas nouvelle, mais nécessite ici un rappel : pour prétendre à une visibilité optimale, un site Web doit publier du contenu textuel unique, non-dupliqué depuis un autre site Web (contenu dupliqué externe) ou depuis une autre page du même site Web (contenu dupliqué interne).

La spécialité de rédacteur/rédactrice Web, arrivée en France il y a quelques années, pourrait avoir de beaux jours devant elle.

Quels sites Web ont souffert de Panda ?

Les sites qui semblent avoir le plus souffert de Panda sont en première ligne les agrégateurs de contenus, et sites « assimilables » : des sites Web qui re-publient sur leurs pages du contenu déjà présent sur des autres sites.

Par exemple ? Les comparateurs de prix, certains sites de e-commerce qui se « contentent » de publier sur les pages produit des informations disponibles auprès de leur le fournisseur, certains portails de presse en ligne qui reprennent des communiqués déjà largement diffusés sur le Web…

Pourquoi ces sites ont-ils été frappés par Panda ? Parce que Google considère que la duplication de contenu externe (entre un site Web et un autre) nuit à la pertinence de ses résultats, et que dans la mesure où ce même contenu est disponible sur plusieurs sites Web, il n’y a pas d’intérêt de présenter à l’internaute les différentes « sources » dans ses pages de résultats.

La mise à jour Panda cible aussi les sites qui génèrent, de façon plus ou moins automatisée, du contenu textuel mal orthographié, sur-optimisé (répétition abusive de mots-clés), peu pertinent ou dans des articles très courts.

Ces sites Web qualifiés de « fermes de contenu » cherchent à être visibles dans les moteurs de recherche sur un maximum d’expressions-clés populaires et donc concurrentielles, dans le but d’en tirer de la visibilité et/ou des revenus publicitaires.

Leurs pages polluent les résultats de recherche dans le sens ou elles apportent rarement l’information recherchée. Et c’est bien ce qui gêne Google, dont une des vocations est, rappelons-le, d’apporter de l’information pertinente à l’internaute.

Autres critères de qualité selon Google …

Outre l’aspect éditorial et les aspects d’optimisation technique (dont il n’est pas question dans cet article), un autre critère à prendre en compte est celui de la popularité d’un site Web au sein de la Toile : les liens qu’il obtient depuis des sites tiers.

Google avait introduit cette notion dans son algorithme en 2005, marquant à jamais le secteur du référencement naturel avec le fameux PageRank, le Saint-Graal des webmasters/webmarketers de la fin des années 2000.

Si bien que pendant ces dernières années, la préoccupation principale des référenceurs a été de trouver des liens entrants vers les sites de leurs clients, souvent au détriment de la mise en valeur du contenu, ce qui a conduit à la prolifération des « fermes de liens ».

Ces sites, qui n’ont aucune autre ambition que de tisser des liens entre différents sites Web de façon artificielle, dans le but ultime d’améliorer le référencement d’un ou plusieurs sites Web, sont dans le collimateur de Google. Panda saura-t-il les détecter autant qu’on le laisse entendre ? A suivre.

Il est un peu tôt pour tirer des conclusions sur les conséquences de Panda dans la stratégie de référencement naturel d’un site Web, mais les hypothèses sont nombreuses concernant d’éventuels nouveaux critères de qualité introduits par Google. En voici quelques unes :

  • l’analyse de la qualité, de la pertinence et de la légitimité des liens entrants,
  • l’analyse du comportement de l’internaute, entre la page de résultats et les sites qu’il visite,
  • la mesure de la place occupée par les encarts publicitaires, proportionnellement au contenu,
  • la prise en compte de l’activité sociale des pages d’un site Web (leur tendance à être partagées dans les réseaux sociaux) …

Y aura-t-il une ère post-Panda en terme de référencement dans Google ?

Nul ne doute que les moyens mis en oeuvre par le géant Google pour « nettoyer » ses résultats de recherche va marquer les esprits, d’autant plus qu’il est rare que la firme communique autant sur ses mises à jour d’algorithme, pour le plus grand bonheur de la presse (plus ou moins) spécialisée.

Tout webmarketer normalement constitué ne peut être indifférent à ce changement annoncé, et se doit d’adapter sa méthodologie de référencement naturel… à moins que celui-ci ait déjà intégré une réelle stratégie éditoriale doublée d’une stratégie raisonnée de liens entrants (netlinking), avant l’arrivée de Panda.

Ceux-ci se reconnaîtront, puisqu’ils devraient faire partie de ceux pour qui le « coup de balai » initié par Panda a été bénéfique en terme de positionnement, et donc de trafic.

De nombreux responsables de sites Web plus ou moins modestes accueillent cette mise à jour avec enthousiasme, la considérant tout simplement comme une évolution logique de Google.

Si Panda tient ses promesses, certaines « techniques » employées en référencement naturel seront remises en cause.