Google augmente sa ménagerie

Après le Panda, c’est au tour du Pingouin d’intégrer la ménagerie Google, et certains sites web, avec leurs référenceurs et webmasters, sont encore les dindons de la farce…

Google veut combattre le webspam

Avec sa mise à jour Pingouin, Google a de nouveau frappé et encore plus fort semble-t-il qu’avec sa mise à jour Panda. De nombreux webmasters ont vu leurs sites pénalisés sévèrement, perdant de bonnes positions pour se retrouver très loin dans le classement…
Les premières suppositions furent d’accuser les trop nombreux liens venant des sites de communiqués de presse, puis ce fut au tour des techniques black hat (1) d’être montrées du doigt. Sauf que les nombreuses constatations de certains étaient battues en brèche par les constatations inverses d’autres webmasters ! De mon côté aussi, malgré la diversité des sites observés ayant été plus ou moins impactés par cet algorithme, je n’arrivais pas à déterminer une tendance précise de la nature des sanctions ?

Quelles sont les causes des pénalités appliquées ?

Alors, quelles sont les causes qui ont menées à ces pénalités et déclassements de sites ? Et pourquoi certains s’en sortent mieux que d’autres alors qu’ils semblent être en infractions flagrantes des guidelines de Google ?
Tout d’abord, on peut se référer au communiqué officiel de Google, disponible ici, pour essayer de comprendre ce qu’il se passe.

Google poursuit ses efforts pour améliorer son algorithme de recherche, essayant de tendre vers plus de qualité en sanctionnant les sites qu’il considère ne respectant pas ses règles… et qui sur-optimisent leurs pages dans le but de tromper le moteur ! Il espère ainsi donner la part belle aux sites qui pensent plus à l’expérience utilisateur qu’à ses robots. Cette chasse au contenu de pauvre qualité appelé webspam semble couvrir un large champ de possible qui va du simple bourrage de mots clés (keyword stuffing) jusqu’aux différents systèmes de création de liens artificiels ou encore à l’achat de liens.

Google dans son blog ne définit finalement que quelques techniques qu’il va combattre mais laisse un flou sur la portée réelle de son nouveau filtre. Il laisse beaucoup d’interrogations sur l’ensemble des techniques d’optimisations et de netlinking (2) sanctionnées. En revanche, les techniques black hat sont clairement visées dans cet article, même si dans la réalité beaucoup de sites les employant restent en top position. Et c’est toujours là que le bât blesse, il semblerait que les dommages collatéraux soient très nombreux et touchent aussi des sites semblant respecter les guidelines de Google.

Le moteur de recherche est bien conscient de ces désagréments et annonce que cela se corrigera rapidement dans le temps en affinant son algorithme. Bien que ces changements de réévaluation de l’algorithme soient annoncés, les responsables de sites se sentant injustement sanctionnés ont la possibilité de demander une révision à Google au travers d’un formulaire dédié accessible ici.

Comment s’adapter à ces nouvelles règles ?


Il est encore trop tôt pour tirer des conclusions définitives sur les techniques qui sont à proscrire dans l’avenir. Beaucoup cependant parlent d’éviter les sites de communiqués de presse, les techniques de réseaux et blast black hat (3) qui ont été clairement visés. Mais d’autres nombreux signaux semblent dans le collimateur, et il serait trop simple de ne se focaliser que sur un point précis. Il est aussi facile de voir après une semaine d’observations que cela ne supporte pas un raisonnement manichéen de type technique white hat (1) versus black hat, et les suppositions commencent seulement à s’affiner.

Maintenant, on parle clairement de la nature, de l’environnement et de la variété des ancres qui sont à travailler différemment dans le cadre d’une bonne stratégie de link building (2). Mais ces changements d’optimisation du netlinking ont déjà été intégrés par de nombreux référenceurs, une tendance qui va donc se confirmer au fur et à mesure que Google va vouloir corriger son point faible au niveau de la prise en compte et la valorisation des liens.
Au-delà de la stratégie off site (4), la stratégie on-site (4) est aussi à re-calibrer clairement pour certains sites. Reste à savoir où placer le curseur sachant que celui-ci est tributaire des gesticulations de Google ?

(1) black hat : se dit de techniques ou de référenceurs ne respectant pas les guidelines de Google, en opposition au white hat qui sont censés respecter lesdites guidelines.
(2) netlinking ou link building : termes regroupant les stratégies de création de liens.
(3) réseaux et blast black hat : techniques de création de milliers de liens artificiels au sein de structure de réseaux spécifiquement élaborés.
(4) on-site et off-site : le terme on-site concerne les optimisations apportées au sein du site (balises, maillage, contenu, …), le terme off-site concerne essentiellement les techniques de netlinking.

Pas encore de commentaires.

Laissez un commentaire