Published On: dim, Avr 10th, 2011

GOOGLE PANDA

Share This
Tags
Google Panda renforce les consignes aux webmasters

Google PANDA renforce les consignes aux webmasters

Google Panda update est arrivé en France le 12 août 2011 : mode d’emploi des nouvelles consignes aux webmasters du moteur de recherche et ses spiders.

Sommaire :

L’algorithme du célèbre moteur de recherche Google évolue en permanence. Des actualisations (updates) extensives ont lieu tous les 6 ou 12 mois. Lors des conférences SMX West du 8 au 10 mars 2011 à San Jose en Californie, des représentants de Google ont annoncé une mise à jour importante de l’algo, nommée Panda.

De nombreuses modifications profondes sont apportées et peuvent affecter sensiblement la vie de nombreuses entreprises, dont le commerce repose sur leur visibilité Internet.

Mode d’emploi de Panda

Voici les éléments qui animent les débats des gérants de sites web et experts en référencement naturel :

Blocage des contenus à basse qualité

Une règle de base

Google cherche à mettre en avant les sites à forts contenus, qui représentent une valeur ajoutée par rapport aux concurrents. La duplication de contenus, les échanges de liens et autres manipulations visant à compenser les lacunes de fond sont perçus par le moteur comme des dégradations de ses résultats, les pages construites ainsi doivent être désindexées par vos soins avant que le moteur ne s’en occupe plus drastiquement. L’esprit de la règle n’est donc pas réellement nouveau.

La règle est fortement durcie

Ce qui change, c’est la dureté de la règle. La tolérance observée par le moteur jusqu’ici semble tomber. Les référenceurs utilisent notamment des contenus à faible valeur pour sortir de la période de latence lors du lancement de sites. Ils utilisaient aussi le principe du « web 2.0 » pour générer du contenu automatiquement, les commentaires dans les blogs et jeux de questions-réponses dans les forums, par exemple. Là où la règle devient une loi incontournable, c’est quand panda prévoit d’étendre la perception de pauvreté qualitative des pages fragiles à l’ensemble du site. Si un site bien construit inclut un forum, un blog ou des pages pauvres à réviser, il risque une pénalité globale s’il n’est pas administré de façon suffisamment dynamique. D’autant plus que les spiders du moteurs diminueront leur fréquence de visites (crawling) sur ces noms de domaine.

Désindexation manuelle de ces contenus faibles par les webmasters

Avec Panda, ces techniques d’enrichissement progressif des contenus sont punies, car elles génèrent des résultats pauvres dans les pages du moteur, beaucoup de bande passante pour de forts taux de rebond. Google préconise alors de recourir à la désindexation des contenus pauvres jusqu’à leur maturité. Pour les sites en création, il n’est donc plus recommandé de publier un contenu provisoire, mais d’utiliser scrupuleusement le fichier robots.txt avec un disallow: /.

Retour au sommaire

Une forte contrainte difficile à gérer sur les forums et CMS

Cette mise à jour représente une très forte contrainte pour les administrateurs de sites et les développeurs. De nombreux forums par exemple et CMS ne sont pas prêts à supporter d’origine cette restriction. Il est difficile pour les admins de renseigner en temps réel un fichier robots.txt pour un forum ou le balisage nofollow et index des pages.

Ratio publicité contenu

Le contenu est roi et la publicité n’en est pas. Google est le premier fournisseur de publicités pour le web et permet techniquement d’intégrer jusqu’à 6 zones de publicités par pages. Une pleine exploitation de ce système peut engendrer une désindexation. Le ratio contenu publicité est pris en compte par panda pour mesurer la « référencabilité » d’une page, voire d’un site. Le but est donc d’augmenter le niveau de pertinence des publicités par un effort d’intégration au contenu.

Ralentissement de l’exploration des sites à faible contenu

Pour éviter d’utiliser de sa bande passante inutilement, Google décide de diminuer la fréquence d’exploration des sites jugés lacunaires en terme de contenu. La réintégration dans l’index après un passage infructueux sera donc plus longue. Jusqu’ici, l’utilisation de l’interface « outils aux webmasters » de google permettait de gérer la visibilité du sitemap.xml. Avec Panda, le webmaster perd de sa capacité à « accrocher » les spiders des bots. Mieux vaut donc encore apposer un nofollow sur les liens qui ciblent les pages à faible contenu et ajouter la page en question au fichier robots.txt.

Retour au sommaire

White hat cloaking

Certaines techniques visant à améliorer la navigation des internautes dont les navigateurs sont insuffisamment adaptés aux pages sont désormais considérées comme du cloaking

Google Panda 2011 : le nouvel algorithme de google

Google Panda 2011 : le nouvel algorithme de google

(le fait de délivrer à l’utilisateur un contenu en fonction de ses caractéristiques comme le navigateur, l’activation de flash, sa géolocation), subissent le même traitement que les techniques dites black hat (le fait d’utiliser ces techniques pour manipuler les résultats de recherche). Ainsi, les sites en flash qui présentent une version alternative en html pourront être désindexés. De la même façon, la réécriture d’urls (url rewriting) pour faciliter la navigation de l’internaute « à l’url » devient dangereuse pour le référencement, car google panda vise à ce que la navigation puisse s’effectuer naturellement depuis l’url. La catégorisation par dossiers devient donc obligatoire. Les dossiers dans les urls doivent présenter à leur racine un contenu accessible.

 

Texte de masquage pour l’accessibilité

Attention aux balises « text-indent » et « display:none ». Elles servent à masquer du contenu, temporairement ou provisoirement. La display none est souvent utilisée pour afficher des calques sur demande de l’internaute avec l’appui de javascript. Comme google ne sait toujours pas lire le javascript, le recours à cette technique peut être suspecté de viser l’affichage d’un résultat pour l’internaute différent de ce que le code source présente aux spiders des moteurs. Mieux vaut donc éviter de les utiliser. Le text-indent avec des valeurs excessives, comme -9999999, dévoile clairement que le texte existe dans le code source mais n’a pas vocation à s’afficher dans le navigateur : google peut sanctionner. Attention aussi de ne pas abuser de la consigne « hidden ». Vous savez donc maintenant que google lit vos css (feuilles de style) pour repérer les infractions.

Retour au sommaire

Compte utilisateur

Pour les sites qui permettent à un accès aux « comptes » avec login, et présentent pour les non logués un contenu différent des comptes connectés, google panda peut conclure à un cloaking : une même page affiche des contenus différents selon l’identité de l’utilisateur. Mieux vaut inscrire ces pages dans le robots.txt et les pointer en nofollow.

Liens : créer de la valeur au-delà du contenu

Même si les webmasters se félicitaient de voir le pagerank perdre sa puissance au fil des actualisations d’algorithme, google n’a pas perdu sa volonté de forcer les sites à créer des liens entre eux pour que les liens servent de « vote » les uns envers les autres et permettent au moteur de mieux juger de leur pertinence. Faire entrer des liens sur une page produit d’un site de e-commerce n’est pas chose aisée, et pourtant google invite à créer des pages adaptées au link bait. Bon courage. Autant les référenceurs s’étaient habitués à proposer à leur client une valorisation intrinsèque de leur site, autant ils devront désormais reprendre avec les demandes de liens, plutôt décroisés, avec les concurrents et sites similaires. La valorisation extrinsèque d’un site est aisée sur les blogs, difficile sur les petits sites vitrine, surtout si le sujet traité aborde un thème de niche. Là encore, google vise à renforcer l’originalité des sites et mesurer la pertinence par les réactions des sites tiers.

Retweets

Dans cette optique de valorisation et mesurage depuis les sites tiers, google cherche à saisir l’écho que produit un contenu. La partie LSI (latent semantic indexing) doit aider ce processus. Lorsqu’un article génère de nombreux tweets et retweets, il renforce autour de son champs sémantique un champs tiers que google juge par une méthode comparative. Même si google n’a pas réussi à concurrencer facebook sur le domaine des réseaux sociaux, le moteur de recherche se socialise et compte de plus en plus que les internautes actifs (blogueurs, webmasters, tweetos et fb) et passifs (avis, commentaires, forums) pour savoir ce qu’il faut « penser » d’un site.

Articles sponsorisés et communiqués de presse

Grâce à Panda, le PR sculpting et autres techniques de liens pseudo-profonds deviennent obsolètes. Les articles sponsorisés doivent viser le site promu en nofollow et les communiqués de presse type AFP n’auront d’écho que si un authentique webmaster décide de pointer vers le site dans un article original. La duplication de liens entrants par la reprise d’un communiqué de presse ne renforcera plus le PR. Les achats de liens restent prohibés et la détection d’un acte de manipulation du PR par achat ou échange de liens (dans les sidebars ou footers par exemple) déclenchera une sanction.

Retour au sommaire

Parfaite adéquation des text anchors

Ceux qui ont parfaitement compris que la richesse html joue dans le référencement d’un site internet savent que les textes d’ancrage ont une importance majeure, sur les liens internes comme externes. Seulement google panda renforce la politique de différenciation des pages en détectant les trop belles adéquations des balises title, h1 et textes de liens entrants. Ainsi, la multiplication des text anchors vers une page avec un taux de ressemblance avec le titre de la page déclenchera un avertissement ou une sanction (pour l’instant, google n’a pas mis en place le système d’avertissement du non respect de ses consignes). L’inconvénient de cette partie de l’algorithme est qu’un site peut subir un google bombing et être suspecté d’acheter des liens ou de créer un réseau de pages satellites destiné à augmenter le nombre de « votes » pour une page.

Spam

Les fermes à contenus, ces multiples blogs qui agrègent des contenus tiers ou reprennent en l’état les communiqués de presse reuters ou afp sont directement visés par google Panda. Selon la politique de différenciation des sites par l’originalité des contenus, les agrégateurs d’informations entrent en conflit avec les consignes aux webmasters de google. Pour avoir un site bien visible, il faut non seulement être doué en webmastering et développement pour proposer des services toujours plus originaux, mais il faut en plus ajouter des qualités rédactionnelles.

Spam reports : plus fort que spam auto

Si google panda a su renforcer le système de détection automatique de spam, la primeur est tout de même attribuée à la délation. Google Spam Report et le formulaire de retrait de pages permettent de dénoncer ou retirer les sites qui enfreignent les règles de google ou subissent une interruption provisoire de serveur par exemple. Le nombre et la régularité des dénonciations, ainsi que la finesse technique de la délation, peuvent parfaitement permettre à un concurrent d’altérer le positionnement d’un autre.

Retour au sommaire

Violation des règles : plus de transparence

Afin que google panda ne passe pas d’emblée pour un bourreau, google prévoit aussi de renforcer son interface de communication avec les webmasters, via WMT. Une plus grande transparence est prévue par google pour signaler les violations des règles et prévenir les sanctions.

Réexamen

Il restera toujours possible d’effectuer une demande de réexamen mais il y a fort à parier que google enregistre un historique des sites internet, plus exactement un historique des défaillances, pour armer des argumentaires de désindexation.

Google Panda aux USA en Mars, en Europe mi-août 2011

Google Panda a déjà fait un carnage aux Etats-unis en Mars, plus de 10% des sites ont subi un déclassement à cause de Panda. Le nouvel algorithme de google arrive en Europe avril 2011, en France en avril-mai en France le 12 août 2011, après de nombreux correctifs. Car de l’aveu même de google, Panda n’est pas encore parfait.

Que penser de google panda ?

Rien n’est réellement nouveau avec Panda, qui ne fait que renforcer la règle et limiter la tolérance des infractions. Google représente une vitrine concurrentielle de tous les sites internet qui couvre plus de 80% des recherches des internautes. Il est donc normal qu’il édicte des règles de référencement et punisse ceux qui les enfreignent. Avec l’augmentation constante du nombre de sites, il lui faut aussi sans cesse réévaluer ses critères de sélection pour l’indexation. Google Panda n’est donc qu’une actualisation parmi d’autres, il serait surprenant et même contradictoire qu’une annonce d’assouplissement arrive.

Retour au sommaire

Sources :

Les professionnels qui peuvent vous aider

J’invite les professionnels du référencement à se déclarer ci-dessous (en commentaires) pour aider les gérants de sites internet à se mettre en conformité avec les nouvelles consignes aux webmasters du moteur de recherche et Panda. Merci !

Vous pouvez aussi m’écrire à redaction@populaires.fr « à l’attention du référenceur ».

Displaying 49 Comments
Have Your Say
  1. Panda Google France dit :

    Le nouveau panda google france est déjà arrivé à mon avis, en tout cas des changements sont visibles. Rien qu’au niveau des snippets de nombreuses balises title sont remplacées par google qui va chercher le titre de la page d’accueil ou les H1 ou h2 pour compléter les 60 caractères par exemple.

    Les redirections 301 ne semblent plus transférer le pagerank et les anciennes urls ont tendance à rester dans l’index devant les nouvelles. Les balises description et title ne sont plus automatiquement transférées non plus, on voit apparaître de plus en plus de titres composés par google, sans description.

    L’actualisation du pagerank du 20 janvier 2011 a sans doute marqué le début de l’arrivée du panda sur google.fr…

  2. webdesigner en freelance dit :

    Ne soyons pas paranoïaque : les sites qui sont propres et n’ont rien a se reprocher ne vont pas finir dans la sandbox sous mauvais pretexte…mais les autres qui tournent sous LFE ….euhh je ne sais pas trop mais on va avoir des surprises et pas que des bonnes… Je pense que les référenceurs vont passer de belles nuits blanches surrtout les BH. nova-media.fr/tarif-creation-de-site-internet-de-10-pages/vente-en-oneshot-de-votre-site-internet

  3. Be evil! dit :

    Je pense aussi que Google Panda est déjà arrivé en France. fr.paradisecovehotel.com

  4. Google Webmaster Central Officiel dit :

    Non, ce qui arrive en France, ce sont des updates permanentes de l’algorithme Caffeine. Lorsque Panda arrivera en France, on verra clairement les fermes de liens tomber, les agrégateurs en tous genres baisser significativement.

    Google émet des informations officielles lorsqu’il lance panda dans un pays et a promis d’avertir les prochains pays : http://googlewebmastercentral.blogspot.com/

  5. Référencement dit :

    Pour moi Google est Big brother

    Il impose sa loi et il favorise qui il veut et quand sa l’arrange ! il n’est pas impartial ni clément !

    De plus il peut changer son algorithme mais se sera toujours pareil, les gros sites et grosse sociétés auront toujours une longueur d’avance sur les petits webmasters mais surtout les moyens de le feinter car avec des équipes de dizaine ou de centaine de personne qui bosse au référencement de leurs sites comment lutter loyalement ?

    Car ce qu un homme a codé exemple la mise a jour PANDA un autre peut le comprendre et le contourner…

    Donc les petits webmasters qui tentent et essaye de percer seront sanctionnés pour des broutilles et les gros sites ne le seront pas alors qu’elle détourne en masse le flux d’internaute du net pour leurs publicités

  6. Le web est arbitraire et humain mais obéit à des logiques économiques et sociales dit :

    Il est vrai que Google fait peser sur les webmasters une petite dose d’arbitraire qui, si elle devait devenir plus grande, deviendrait insupportable.

    Les grands groupes médias prendront le web de demain, les petits ne peuvent jamais lutter contre les grands. C’est pour cela que les petits sont petits et les grands, grands.

    L’avantage aujourd’hui, depuis la création d’internet, est que justement ce sont les passionnés du web qui mettent des vents aux grands médias parce que les heures qu’ils passent à « dialoguer » avec les moteurs leur donnent une grande longueur d’avance sur ces usines à gaz qui n’ont pas encore intégré tous les savoir-faire du Net. Même Publicis ou Havas sont encore très à la traine en terme de SEO.

    Il y a encore des places à prendre pour les « petits » webmasters et les consignes publiques des moteurs de recherche pour les webmasters sont suffisamment claires pour ne pas subir de sanction lorsqu’elles sont respectées à la lettre. Et il ne faut pas croire que ce sont des techniques de manipulation qui donnent une avances aux gros sites, au contraire. Les techniques ne sont presque rien face au contenu.

    Aujourd’hui, un webmaster qui a lu les consignes de google et les applique sérieusement sur un site dont il soigne au quotidien le contenu peut faire beaucoup de trafic et même gagner sa vie avec google adsense. Ce n’est pas un travail technique, mais plutôt un travail de fourmi. L’innovation, le sens du service, la qualité rédactionnelle sont les premiers éléments de réussite d’un site internet. Il existe environ 250 règles fondamentales du SEO qui sont à la portée de tous en consultant les consignes officielles, les forums dédiées au SEO et pas mal de bon sens (l’algorithme reste logique). De nombreux logiciels gratuits ou peu chers permettent de réaliser des audits de sites pour mesurer la « référencabilité » de leurs pages.

    Mais il est vrai que les changements d’algorithme devraient être mieux annoncés pour ne pas mettre en panique les professionnels qui ont des salariés dépendants d’Internet et ne pas laisser craindre l’autorité arbitraire d’un géant moteur de recherche par la plupart des acteurs du web.

    Un site internet doit être géré comme une entreprise pour rester dans la course. Le plus souvent, il faut savoir réinvestir les gains dans le développement pour pouvoir proposer toujours plus de services à ses utilisateurs. Car il faut moins craindre les lois des moteurs que la concurrence technique des développeurs qui sont de plus en plus capables d’apporter des solutions originales aux internautes. Si les comparateurs et aux autres agrégateurs de contenus subissent une baisse de trafic, il ne faut pas douter de la volonté de leurs webmasters à inventer de nouvelles techniques pour attirer les internautes vers de nouveaux services.

    Enfin, tout ce monde virtuel se destine à reproduire le monde réel, le web se socialise et les moteurs de recherche comme google ont à cœur d’offrir des pages « sociales ». Et là, comme dans la vraie vie, c’est ceux qui sauront se constituer un réseau qui parviendront le mieux à tirer leur épingle du jeu, laissant au bord de la route les super-techniciens isolés. De plus en plus, la notion de web 3.0 apparaît, dévoilant l’amoindrissement des valeurs techniques et l’augmentation de la valeur « humaine ». Il faut donc savoir augmenter le nombre de services pour agréger autour de vous un réseau fidèle et croissant. Vous pourrez alors vous focaliser dans une moindre mesure sur les changements d’algorithmes.

  7. La notion de backlink dit :

    En revanche, quand je vois votre site referencement.tux-surf.com, je vous annonce que les backlinks automatisés n’ont aucune valeur. Comme son nom l’indique, le référencement naturel n’a de valeur naturelle que s’il est pratiqué naturellement. Ce que google cherche précisément à éliminer, c’est la forme de l’automatisme. L’humain n’est pas un robot, les moteurs de recherche sociaux de demain ne pourront pas s’accommoder de contenus automatisés. La soumission dans les annuaires doit intégrer l’art de l’écriture. Seuls les annuaires qui apportent une valeur ajoutée pourront tirer leur épingle du jeu. Le référencement de sites dans les annuaires doit répondre à une logique d’agrément de lecture pour l’utilisateur final. L’annuaire de demain se sera pas, en aucun cas, un répertoire-catalogue de liens avec 200 ou 300 caractères en duplicate content. La notion de backlink est désormais sociale ou n’est pas. L’esprit d’un site, annuaire ou pas, doit être : « je retourne un lien vers un site uniquement si son contenu vient compléter le mien ». L’annuaire doit viser un but hétérogène au référencement pour avoir une valeur SEO. Vous me suivez ?

    Je précise que je facture en moyenne 100k € le SEO d’un site sur 12 mois, j’obtiens des résultats sans équivoque. Je suis le référenceur de plusieurs sites du CAC et personnalités qui ont besoin d’avoir une prise sur leur e-réputation. Je n’utilise les annuaires que lorsqu’ils apportent réellement du chiffre d’affaires ou une notoriété. Et je ne crois pas qu’un autre usage des annuaires puisse s’avérer aussi efficace pour l’instant. Panda ou pas…

  8. Blog e-commerce dit :

    L’article est très long. Il va certainement plaire à Google mais sa lecture n’est pas facile. Cependant il est très complet et pertinent. Tout ce qu’aime finalement Google. Si tous les sites produisaient ce genre de contenu, panda n’existerait pas. Mais au final cette mise à jour était attendue. Elle arrive enfin. Que demander de plus.

  9. @homo-economicus dit :

    Exactement Mr homo-economicus, les webmasters sérieux se félicitent de l’arrivée du Panda. Merci d’avoir lu cet article malgré sa longueur 😉

    Et bravo pour votre site, que je ne connaissais pas encore et qui figure désormais dans mes signets.

  10. Google Panda, Importance des visuels dans les avis, Optimisation la transformation : que s’est-il passé cette semaine ? | kivoij ? Search & web marketing dit :

    […] site populaires.fr nous propose un dossier complet sur le sujet et entre dans les détails des changements qui […]

  11. location voiture marrakech dit :

    L’article est très intéressant . Il va certainement plaire à Google mais sa lecture n’est pas facile. Cependant il est très complet et pertinent. Tout ce qu’aime finalement Google. Si tous les sites produisaient ce genre de contenu, panda n’existerait pas. Mais au final cette mise à jour était attendue. Elle arrive enfin. Que demander de plus. earth-car.net

  12. La pandacée en infos : l’algo Google n’aura plus de secret pour vous | Opération Super Panda dit :

    […] dossier plutôt bien fichu qui nous parle de ratio contenu/pub, de cloaking et de référencement social […]

  13. Sites de qualité: 10 questions de réflexion, par Google | Blog | Locita dit :

    […] “Google Panda, Explication du récent changement Panda de l’algorithme. […]

  14. logicieldereferencement dit :

    On en revient toujours à une règle simple et qui ne changera jamais : site bien codé + contenu riche = bon référencement. logicielreferencement.kingeshop.com

  15. Enfin du référencement juste? dit :

    Chouette!!!! le travail de référenceur va vraiment devenir intéressant !!!

  16. Bonjour

    J’ai 2 précisions à vous demander :

    Vous écrivez « les sites en flash qui présentent une version alternative en html pourront être désindexés ».

    Vous écrivez  » la réécriture d’urls (url rewriting) pour faciliter la navigation de l’internaute « à l’url » devient dangereuse pour le référencement, car google panda vise à ce que la navigation puisse s’effectuer naturellement depuis l’url. » Quelle est votre source d’information ? (car ça me semble totalement grotesque, étant donné qu’aucun navigateur ne permet de naviguer naturellement par l’URL, ce n’est pas prévu pour ça).

    A part ça j’ai trouvé votre article sympa 😉

    Stéphanie
    PS: j’ai trouvé intéressant également le dossier spécial de WebRankInfo (voir mon lien)

  17. Breadcrumb | Flash dit :

    C’est une question de logique d’architecture, de navigation et d’exploration : toutes les techniques doivent servir à faciliter la navigation, l’exploration, jamais uniquement le référencement.

    Vous aurez sans doute remarqué que l’url est un élément important en référencement. Google prendra parfois autant appui sur votre url que sur votre balise title pour indexer une page.

    Si vous créez un fichier dont l’adresse est, par exemple : consultantseo.fr/nouvelles-techniques/absorption-semantique

    Google présente votre url dans son snippet, sous la description. Vous pourrez remarquer qu’il lui arrive d’utiliser directement le breadcrumb à la place de l’url.

    C’est qu’il y a équivalence de fonction pour google entre le fil d’ariane et l’url. Cette dernière ne doit donc pas être corrompue par un url rewriting, qui empêcherait de remonter d’un dossier comme le fait le breadcrumb.

    Tous les sites ne sont par ailleurs pas pourvus de breadcrumb, ce n’est pas obligatoire. De nombreux utilisateurs avertis utiliseront ainsi, selon mon exemple, la suppression du nom du fichier dans l’url pour accéder directement au dossier parent : consultantseo.fr/nouvelles-techniques/

    Si vous utilisez l’url rewriting sans prêter attention à la réalité de l’architecture de votre plan de site avec la place de ses dossiers et fichiers, il y a des chances pour que ce dossier qui figure comme parent dans l’url génère en réalité par accès direct sur url une erreur 404, si aucun index n’y est placé (et il ne l’est pas puisque par url rewriting, le dossier n’a pas à être créé réellement).

    L’url rewriting reste bien-sûr un atout en SEO, mais il faut juste permettre aux urls d’être utilisées comme des fils d’ariane, afin que les urls soient construites de façon légitime.

    Entre parenthèses, si vous utilisez pleinement la méthode du silo pour construire votre site par catégorisation entre expressions clés et expressions de la longue traîne, l’url rewriting a tout intérêt à correspondre précisément à votre entrées, chaque dossier contenant l’accès aux pages profondes qu’il « contient ».

    Concernant le flash, il est notamment connu que même si Google prétend depuis 2008 savoir le lire en ses parties fixes, il admet ne pas savoir lire le javascript. Or, le contenu alternatif au flash est appelé par ce type de code. Il peut bien y avoir, à juste titre, suspicions par les spiders de présence de cloaking. Si les webmasters étaient réellement capables de reproduire à l’identique au format html ce qu’ils publient en flash, ils n’utiliseraient pas flash. Il y a donc nécessairement incohérence de contenus entre le code source en html et la version flash. Ce qui va à l’encontre des règles élémentaires du moteur, dont celle notamment qui énonce que le contenu accessible par les moteurs doit être strictement identique au contenu accessible via un navigateur côté utilisateur.

    Mes sources sont les consignes aux webmasters de google et mon expérience, car je suis moi-même un panda 😉

    Salut !

  18. Re. Breadcrumb - flash dit :

    Ah au fait, merci Stéphanie pour le « totalement grotesque » 🙂

    A charge de revanche 😉

  19. +1 : Microdatas schema.org dit :

    Maintenant, vous allez aussi pouvoir ajouter la finesse sémantique à vos enrichissements html divers, grâce aux microdatas de la norme commune à google, yahoo et bing : schema.org 😉

    Beaucoup de div et span en plus dans le code source, une externalisation de vos données vers les SERPs, mais un taux de relevance top niveau.

  20. Recherche dit :

    Panda est le déclin de google
    recherche moteur de recherche efficace.

    Un chercheur parmi tant d’autres.

  21. Text-indent dit :

    Merci pour cet article complet et très instructif.

    Je me questionne quand même sur quelques règles, comme celle concernant l’utilisation de text-indent qui au delà de présenter du texte pour les robots est aussi une façon d’avoir un contenu textuel affiché lorsque le css n’est pas chargé ou désactivé ou pour les impressions de page simple.
    guillaumevoisin.fr

  22. Cloaking dit :

    Ce n’est pas le text-indent qui pose problème, c’est sa valeur.

    La réponse est dans votre question :
    « affiché lorsque le css n’est pas chargé ou désactivé » = cloaking

  23. Panda arrive, google bouge dit :

    Ca bouge en ce moment dans les SERPs. Les résultats Google semblent valoriser les noms de domaine comportant des expressions clés et les anciennes techniques d’enrichissement html. Bizarre non juste avant l’arrivée de panda ?

  24. Recrutement maroc dit :

    Je suis webmaster, j’ai remarqué une baisse d’un peut prêt 20% de visiteurs provenant des moteurs de recherche alors que je passe un temps fou à mettre en place u contenu unique. Panda me fait peur !
    staff.ma

  25. Donner du contenu à votre blog - Trouver du contenu pour mon blog dit :

    […] Je ne suis pas une spécialiste de ce nouvel algorithme loin de là je n’ai fait ici qu’un simple très simple résumé, ce qui m’intéresse c’est le contenu ! Je vous laisse donc découvrir les explications détaillées ici : Article publié sur populaires.fr : Google panda . […]

  26. Création de sites internet Nord Pas de Calais dit :

    Article très intéressant, mais tout n’a pas l’air nouveau, c’est pas un site grand tremblement sur le web.
    assistance-informatique-enligne.net

  27. Je Buzz dit :

    Je crois que pas mal de sites web vont dégringoler. A contrario je trouve étonnant que des sites web tels que Wikio (bien qu’il ait perdu des positions), aient encore un max de contenu dupliqué avec leurs systèmes de textes tronqués (cf Code promo de Wikio). Et pourtant il commence à remonter dans les résultats … étrange …
    je-buzz.com

  28. Wikio dit :

    Wikio, il lui faudrait réécrire les titres et les 200 premiers caractères des articles pour qu’il ne soit pas considéré comme une ferme de contenus tiers. Mais là, avec le peu de valeur ajoutée qu’on trouve sur le site, surtout sur la page d’accueil qui comporte un grand nombre de liens sortants (normal, c’est le principe, mais bon, il y a moyen pour éviter la sanction de faire un effort de présentation par du texte), il est impossible que google ne finisse pas par sanctionner. Le contenu est presque entièrement hétérogène au domaine. Sans compter le name dropping massif (qui consiste à utiliser les noms des autres avec leur nom de domaine dans l’url + le nom du site en title), wikio a du souci à se faire…

  29. Re. Wikio dit :

    Et que dire du fait d’utiliser du contenu tiers pour booster un e-commerce, quand Google parviendra à établir des critères « moraux », ouch. Les redirections 302 du début ne sont pas non plus oubliées par tout le monde…

  30. E t D i e u C r é a L e W e b dit :

    Et Dieu Créa Le Web pendant que Google créait la visibilité…

    A l’évidence tout le monde n’est pas obligé de se conformer aux règles de Monsieur G…

    Et c’est avec humour que je regarde des sites de groupes influents être toujours en première page de Google sur des requêtes concurrentielles alors que leur ferme de liens crèvent les liens et que le texte blanc sur fond blanc ne cesse de me faire rire !

    Ce genre de méthodes ubuesques ne pénalisera finalement que les moins influents de la toile. J’en fais le pari !

    Les plus gros continueront de siroter des pêches à l’eau en regardant les autres frémir devant Panda !
    C’est pourtant si sympa et inoffensif un Panda… hum hum…

    Bref, un peu transparence et de méthodes appliquées avec justesse ne feraient pas de mal…

    Promouvoir la délation est une honte !!!
    A force de ne pas exercer sa position avec justesse, G. oblige les utilisateurs à des procédés immoraux !

    Plus Internet progresse plus les enjeux économiques sont importants alors que sera l’internet de demain ?

    Un G. tout payant ? Pourquoi pas finalement…
    Au moins les règles seront claires pour tout le monde ! Quoique…

    etdieucrealeweb.com

  31. Edoocpro dit :

    Google met encore plus l’accent sur le contenu et surtout le soi disant contenu de qualité. Cependant cela pénalise des sites de qualité (notamment site d’ecommerce) mais qui structurellement sont obligé de posséder un peu de contenu dupliquer, c’est vraiment dommage.

    A voir dans quelle mesure en France les sites vont être impactés.

    Merci pour cet article de grande qualité.
    edoocpro.com

  32. Duplicate content => canonical + retrait xml dit :

    Pour le duplicate content sur les sites de e-commerce, la balise canonique (canonical) joue très bien son rôle. Vous pouvez mettre l’url canonique de votre entrée de silo sur les pages produits et retirer du sitemap.xml les pages à contenus dupliqués. Ça permet à google d’afficher l’entrée principale contenant le lien vers les produits et d’afficher une url de page produit si la requête contient son nom. Google supporte alors très bien le contenu dupliqué.

    (et merci pour le compliment ;))

  33. L'Etendard dit :

    A mon avis sur les sites mineurs tels que le mien, l’arrivée de Panda n’aura guère d’impact.
    letendard.net

  34. site penalisé par panda dit :

    Bonjour,
    Petite penalité mais penalité quand meme etant passé de la 3 ieme a la 9 ieme place le jour ou panda est arrivé en France , je penses quil y as eu legere sanction. annoncesemploi.org

  35. Pénalité dit :

    Bonjour AnnoncesEmploi.org. Votre site pourrait remonter la pente facilement, il y a des erreurs de premier niveau qu’il est facile de corriger.
    Sanction pour manque d'architecture

    Il en vaut la peine à mon avis, il a une très bonne base pour faire du traf. (reunissonsensemble.fr et centraltest génèrent beaucoup d’erreurs, un peu d’url rewriting sur les urls de type moteur.php3?secteur= serait bienvenu, attention à vos liens vers des urls périmées qui redirigent en 302 et nombreuses 301 et où est le sitemap ? il y a tout de même près de 20000 urls à crawler !).

  36. Google Panda est arrivé ! | Laurent Santucci, web consultant dit :

    […] Pour savoir quelles sont les nouveautés de Google Panda et les nouvelles règles à suivre, je vous invite à consulter le trés bon guide d’utilisation publié sur le site populaires.fr. […]

  37. Google Panda : Du changement dans l’air | SlapAndThink dit :

    […] pour la petite liste qui est bien sure non exhaustive. Je vous recommande d’aller ici et là pour avoir plus de détails sur ces sujets. Et enfin, vous aurez encore plus […]

  38. Google Panda est enfin arrivé en France - Blog de MedInWebBlog Med In Web dit :

    […] qu’il faut se poser pour savoir si son site est de qualité… ou encore le site Populaires.fr qui comprends un dossier très détaillé sur Google […]

  39. FASH.FR dit :

    Bonjour à tous,
    je possède un site qui a été fortement déclassé (-40%) alors que j’ai un contenu important, et que mon site respecte l’ensemble des normes énoncés plus haut. Simplement je pense que les liens externes ont repris de l’importance, et mon site étant assez récent, ne peux suivre face à des mastodontes qui ont de très forts backlinks. Ainsi, je considère que ce nouveau algorithme n’est pas du tout pertinent pour tous !! Et finallement valorise les gros sites et non les petits sites thématiques. A bon entendeur.

  40. Sites e-commerce "loués" dit :

    Bonjour,
    Je ne suis pas pro du référencement, mais plutôt une personne avec une bonne culture du web (dev+ref).
    J’ai « loué » une plateforme e-commerce simple mais limitée qui correspond au peu de temps que j’y consacre.
    Malgré cela, je suis soucieux du bon référencement du site : ineko-bardage.fr et de son trafic
    J’ai essayé d’intervenir dans les champs accessibles, mais j’ai parfois l’impression de faire plus d’erreur qu’autre chose.
    Avez-vous des pistes pour y remédier ?
    Merci
    F.B.
    INEKO

  41. Re. Plateforme e-commerce dit :

    Bonjour,

    Dès les premières lignes du code source, on voit bien que la plateforme ne peut pas produire des miracles SEO. Alors si vous ajoutez plus d’un millier d’erreurs de liens, une redirection dès la page d’accueil, plus de 50 fois le terme « bardage », plus de 40 fois le terme « bois », un code qui mélange de multiples css, des table et div, etc. le résultat ne peut pas être formidable.

    Certaines pages sont légères en contenus (/fibre-bois-isolant,fr,3,23.cfm).

    La meilleure piste : changer de plateforme et bien lire les consignes aux webmasters de Google…

    Une petite prise de conscience et c’est bon 😉

    Cordialement,

    Un consultant SEO

  42. […] référencement qui passe désormais par ces mêmes échos concernant les auteurs. Dévoilez-vous !Relisez aussi notre analyse lors de l’arrivée de google panda Participez Donnez votre avis sur "Consignes Google Panda" Sujet E-Mail (ne sera pas publié) […]

  43. Johana dit :

    google panda 2.5 base sur google analytics,
    si vous voulez utiliser l’ancienne algorithme supprimer google analitics de vos page

  44. Utilisation de analytics dit :

    Évidemment que non, l’algo ne Google ne prend pas en compte analytics… Il n’en a pas besoin d’ailleurs, il connaît déjà le taux de rebond des pages et les referers.

  45. Merci beaucoup pour ces informations. Je suis en train d’optimiser le référencement de mon site de graphisme. Ça m’aide à me faire une idée

  46. winspiral dit :

    google essaie de nous mettre dans un moule et peine à y arriver.
    C’est pas un robot qui va me dire ce que j’ai à faire.

  47. Pandas 3.3 > 3.4 dit :

    La douce transition de 3.3 de panda vers la v.3.4 m’a l’air de rétablir une certaine justice. L’algo semble moins tranché que celui du mois d’août…

  48. Claire01 dit :

    Salutations =) ! J’aimerais trouver un graphiste…en revanche c’est dur de me decidé. C’est quoi la différence entre un freelance et non freelance, en cherchant j’ai trouvé ce site beaulys-studio.com mais il me semble vraiment non qualitatif et n’a pas specialement répondu a mes attentes.
    Car un graphiste reste un graphiste, freelance ou non c’est pour ça que je ne capte pas vraiment et qu’il m’est impossible de me decider, et pour ne pas m’aider dans mes connaissances c’est divisé, ça va du avec un freelance tu va avoir des problemes ou encore avec un freelance tu te fera pas entubé sur le prix jusqu’a avec une agence ça sera plus rapide donc bon… quelle est vraiment la difference alors svp =) ?

Leave a comment

XHTML: You can use these html tags: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>