Accueil Fil arianne Référencement

Google devrait-il refuser d’indexer le contenu dupliqué ?

Google devrait-il refuser d’indexer le contenu dupliqué ?

Pensez-vous que les liens des réseaux sociaux aient un impact dans les SERPs ?

Loading ... Loading ...

Je donne mon avis !

 
Roger Benedict COLY 3 janvier 2012 6 Commentaires

Ce n’est qu’une idée pour l’instant. Une sorte de fantasme qui traverse les pensées de certains d’entre nous. Oui, comme vous, je me suis posé la question : et si Google refusait simplement d’indexer le contenu dupliqué ? Pénaliser temporairement un contenu est une chose. Le refus d’indexation en est une autre. Et entre les deux, Il y a un cap.

Et si Google refusait le passeport de son Index aux contenus dupliqués ? Mais sur quels critères se ferait ce choix drastique et radical me direz-vous ? Jusqu’à quel niveau de duplication un contenu peut-il être considéré comme hors d’usage ?

Deux articles pour comprendre

Content spinning et duplicate content

Non les pandas ne sont pas des critiques littéraires

Google aime le contenu. C’est son fond de commerce. Les pages vues valent de l’or. L’expression “sites de mauvaise qualité” n’est qu’un malentendu de plus. Un non sens. Parce qu’au fond, là n’est pas la question.

La re-publication de contenu, les MFA, la sur-optimisation de contenu dupliqué… autant de questions sans réponses. Yahoo est à la traîne et Bing veut sa part du gâteau. Et Google, obligé de faire taire les critiques. Il fallait bien que cela s’arrête un jour. Mais faut-il aller plus loin ? C’est une question que beaucoup se posent et qui mérite des réponses.

Moins de résultats, mais plus de contenu utile

Dans la course au contenu, Google est tout seul. Alors pourquoi continuer à concourir avec une Bugatti Veyron alors que les outsiders se présentent tous les ans avec une Twingo customisée ?

La pertinences des résultats de recherche est un facteur clé de succès. Ce n’est pas seulement la taille de la base de données qui compte, mais bien la valeur des informations stockées. A moins que la firme de la Silicon Valley ne soit prise à son propre jeu : plus de contenu – plus de résultats – plus d’annonceurs – plus de CA.

Au final, c’est sur un paradoxe qu’est né le SEO. A celui qui réussira mieux à optimiser son contenu, séduit les moteurs de recherche à coup sûre. Larry Page et Sergey Brin ont très vite compris la recette magique.

Google a ainsi pris la première place des outils de recherche et ne l’a jamais quitté. Mais jusqu’à quand ? Il sera difficile pour Google de se maintenir à cette position à mesure que les internautes auront gagné en maturité. Ce n’est donc qu’une question de temps. Et quand Google fait le ménage, ça ne déménage pas plus que cela.

Et Google panda dans l’histoire ?

En réalité, en pénalisant le contenu dupliqué Google envoie un signal aux utilisateurs et pas aux webmasters. Une affaire de COM. Une question d’image.

La mise à jour Google Panda, est une très bonne chose d’abord pour Google. La fin d’une politique de l’autruche qui risquait de lui coûter cher. Ne pas perdre de vue son Business Model, dont le coeur est bien la recherche est un défi de taille pour Google.

La pertinence pour les robots et la qualité pour l’internaute. Multiplier par 10.000 les capacités d’indexation c’est bien. Mais proposer des résultats utiles, c’est mieux !

A votre avis, quels peuvent être les critères à retenir pour justifier un refus d’indexation d’un contenu ?

 

 

Ces Articles pourraient vous intéresser :

Article publié dans la catégorie : Categorie du billet Référencement

Recevez les prochains articles dans votre boîte mail

ChargementChargement


 

Aucun Rétrolien

6 commentaires pour le billet : “Google devrait-il refuser d’indexer le contenu dupliqué ?”

  1.  

    Une simple question comment Google pourrait-il connaitre le site qui a référencé un article le 1er ?

    Pour info, j’ai constaté certain pb de mon coté, un site web pompé tout mon contenu, le plus dramatique c’est que durant un moment Google placé son contenu avant le miens.

    Il considérait donc que c’est moi qui dupliqué le contenu…

    Un tel système pourrait se reveler par conséquent très dangereux pour les honnêtes gens ;-)

  2.  

    Ce qui m’a toujours intrigué avec cette histoire de content spinning, c’est de savoir comment Google arrive à connaître l’origine de l’information. Si un site qui fait autorité reprend le contenu d’un petit site (genre paperblog pour ne pas le citer), alors le petit site est automatiquement pénalisé dans les SERP ? Alors il suffirait d’avoir un site faisant autorité pour faire tomber tous les sites plus petits ?

  3.  

    Très bonnes questions. C’est très facile pour Google de savoir qui a publié le contenu en premier puisque c’est lui qui index le contenu. Le problème qui se pose, c’est la rapidité d’indexation du contenu. Il est clair que pour des sites comme Paperblog, réputé et avec plus d’autorité que le site Lambda, c’est presque instantané. Le contenu soumis sur ces plateformes est pris en compte à la minute ou dans l’heure qui suit. C’est pour cette raison que je suis pas trop fan de ces plateformes. Je préfère celles qui ne prennent en compte qu’un partie du contenu. Le reste étant disponible sur le site d’origine.

    Aussi, les moteurs de recherche, qui savent que ces plateformes ré-utilisent du contenu, doivent systématiquement pénaliser leur contenu ans les SERPS si jamais le contenu existe ailleurs à condition qu’un lien vers la page d’origine figure sur celui de la plateforme de publication. Ainsi les choses sont claires.

  4.  

    Je connais pas mal de gens qui ont utilisé Paperblog, et qui m’ont dit que les articles que les articles republiés sur Paperblog apparaissaient systématiquement au-dessus des leurs dans les résultats de Google. Utiliser un site comme Paperblog est une très mauvaise stratégie…

  5.  

    Dès lors la seule bonne manière d’utiliser Paperblog c’est en l’utilisant comme un moyen de promotion. Écrire un article exprès pour Paperblog, y placer les liens qui nous intéressent et le supprimer de son blog ensuite en s’assurant que Paperblog.fr va bien citer sa source.

    Pour ce qui est de proposer des résultats utiles, il y a de quoi s’inquiéter des nouvelles ambitions de Google de proposer aux gens uniquement le contenu qui est jugé pertinent par rapport à leur habitudes et centre d’intérets présumés

  6.  

    Pour moi, le DC reste la plaie éternelle du SEO. Et cette pratique provoque beaucoup de dégât. Ex: Si Google fait une mise à jour contre les sites contenant du contenu dupliqué, des sites innocents vont aussi être victime car le moteur a aussi ses limite. Donc, je pense que si tout le monde faisait de la qualité,les SERP seront propres avec des résultats objectifs…mais…