Plus les webmasters sont des sites Web avec contenu accessible au public (flux de données, flux d'actualités, articles). Cela se traduit dans les sites Web avec un contenu en double sur l'Internet. Dans le cas des sites Web construire sur les échanges de news ou de flux de données, vous pouvez même trouver des sites qui correspondent à l'autre 100 % (à l'exception de la conception). Plusieurs copies du même contenu dans un moteur de recherche ne fait pas vraiment tout Google bonne et donc apparemment décidé d'écarter certains de ces contenus en double pour être en mesure de livrer plus propre et mieux les résultats de recherche.
Plaine copie de sites Web ont été durement touchés. Si un webmaster publiait l'exact même contenu sur plusieurs domaines, tous les domaines en question ont été finalement supprimés de l'index Google. Beaucoup de sites Web basés sur les programmes d'affiliation tout à coup a eu un grand succès en perte de trafic de Google.com. Peu de temps après cela repris certaines scies de forums webmaster les mêmes plaintes et histoires, si 1 + 1 a été mis en place une image claire de la situation était disponible : un filtre de contenu en double a été appliqué.
Duplicate content n'est pas toujours mauvais et existera toujours dans un sens ou l'autre. Les sites d'informations sont le meilleur exemple de duplicate content. Personne ne s'attend à ceux à supprimer de l'index Google.
Alors, comment les webmasters peuvent éviter le filtre de contenu en double ? Il y a des choses tout à fait quelques webmasters peuvent faire lors de l'utilisation de duplicate content d'aucune sorte et toujours créer des pages uniques et le contenu de celui-ci. Voyons certaines de ces options expliquées ici.
1) Contenu unique sur des pages avec du contenu dupliqué.
Sur les pages où duplicate content est utilisé, un contenu unique doit être ajouté. Je ne veux pas comme quelques autres mots ou un menu de navigation/lien. Si vous (le webmaster) pouvez ajouter 15 % - 30 % unique contenu vers des pages où vous affichez le contenu en double du rapport global du contenu en double par rapport à l'ensemble du contenu de cette page tombe en panne. Ceci réduira le risque d'avoir une page marquée comme duplicate content.
2) Randomisation du contenu
Jamais vu ces thingies « Quote of the Day » sur certains sites Web ? Il ajoute une citation aléatoire du jour d'une page à un moment donné. Chaque fois que vous revenez la page sera différent. Ces scripts peuvent être utilisés pour beaucoup de choses plus que simplement afficher une citation du jour avec quelques modifications du code. Avec une certaine créativité qu'un webmaster peut utiliser un script pour créer les pages d'impression sont toujours mis à jour et toujours différentes. Cela peut être un excellent outil pour empêcher Google pour appliquer le filtre de contenu en double.
3) Contenu unique
Oui, un contenu unique est toujours roi. Mais parfois vous juste ne peut pas contourner à l'aide de duplicate content du tout. C'est très bien. Mais que diriez-vous d'ajouter un contenu unique pour votre site Web, trop. Si le ratio global de contenu unique et duplicate content est bien équilibré, les chances que le filtre de contenu en double s'applique à votre site Web sont beaucoup plus faibles. Personnellement, je recommande qu'un site Web a au moins 30 % de contenu unique à offrir (je l'avoue - J'ai parfois des difficultés moi-même à atteindre ce niveau, mais j'ai essayer).
Cela garantira que votre site reste dans l'index Google ? Je ne sais pas. Pour être plus efficaces, un site Web devrait être tout à fait unique. Un contenu unique est ce qui attire les visiteurs vers un site Web. Tout le reste se trouve ailleurs, trop et les visiteurs n'ont aucune raison juste visiter un site Web particulier, si elles peuvent obtenir la même chose ailleurs.
No comments:
Post a Comment