Duplicate Content kennen die meisten als doppelten oder kopierten Inhalt, welcher von Google als solchen erkannt und rigoros abgelehnt wird. Das sind also meist Inhalte, welche auf der gleichen Domain oder auch mehreren unterschiedlichen Domains mehrmals in ein und der gleichen Form enthalten sind. Ganz nach dem Motto: Der Schwächere verliert - verhält es sich auch bei Duplicate Content, denn die stärkste Domain (gemessen an den Backlinks) wird im Ranking bevorzugt bei Google angezeigt.
Während früher Google nicht so verschärfte Maßnahmen gegen Duplicate Content getroffen hatte, werden heutzutage ganz andere Geschütze aufgefahren. Einerseits wäre da die Einführung des rel=canonical Attributes zu erwähnen. Andererseits wären da die Session IDs, die in den Webmastertools unter der Parameterbehandlung gänzlich entfernt werden können. Einmal Duplicate Content in einer Webseite erkannt stuft Google diese Seite im Ranking erbarmungslos herab. Eine Ausnahme scheinen da reine Preisvergleichsseiten darzustellen.
Es gibt auch jene unter uns, die es sich einfach machen und Duplicate Content durch automatisches Erstellen produzieren. Das ist nicht nur rechtlich falsch, sondern bringt ebenfalls ein schlechtes Ranking bei Google. Wichtig wäre hier, dass auch andere – externe User – die Betroffenen darauf hinweisen.
Das Duplicate Content ein wichtiger Parameter für das Ranking geworden ist, sieht man auch an den Bemühungen seitens Goolge im Webmaster Tools. Nach wie vor gilt: Saubere und schlanke Programmierung sowie klare robots.txt-Dateien und Indexierungsregeln. Man sollte das Thema also nicht unterschätzen. Es gilt also immer noch: Unique Content is King!
