Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Die "Duplicate Content-Penalty" - entmystifiziert!
Freitag, 12. September 2008
Duplicate Content. Ein andauerndes Thema.
Wir
schreiben
ständig
darüber
, und
User
fragen
ständig
danach
. Vor allem höre ich noch immer, dass viele Webmasters besorgt darüber sind ob ihre Site möglicherweise die "Duplicate Content-Penalty" hat.
Lasst uns also eines ein für alle Mal klarstellen: Es gibt keine "Duplicate Content-Penalty".
Zumindest nicht in der Art und Weise, wie es die meisten User beschreiben, wenn sie darüber sprechen.
Es gibt einige Penalties, die mit dem Konzept zusammenhängen, dass eine Site den gleichen Content hat wie eine andere Site. Wenn ihr beispielsweise Content von anderen Sites unerlaubt übernehmt und diesen wieder veröffentlicht, oder falls ihr Content wiederveröffentlicht ohne Mehrwert hinzuzufügen. Diese Techniken sind in folgendem Auszug aus unseren
Richtlinien für Webmaster
klar (und als nicht empfehlenswert) beschrieben:
Erstellen Sie keine doppelten Seiten, Sub-Domains oder Domains, die im Grunde
denselben Inhalt
haben.
Vermeiden Sie [...] die Verwendung anderer vorgefertigter Techniken wie z. B. Partnerprogrammen
ohne oder mit nur geringem eigenem Inhalt.
Falls Sie mit Ihrer Website an einem
Partnerprogramm
teilnehmen, prüfen Sie, ob Ihre Website einen wirklichen Wertgewinn darstellt. Stellen Sie speziellen und relevanten Content bereit, der Nutzer zum Besuch Ihrer Website veranlasst.
Die meisten Webmaster, die sich über Duplicate Content sorgen, reden jedoch nicht von Scraping oder Domainfarms; sie beziehen sich eher auf mehrfache URLs auf derselben Domain, die denselben Content aufweisen, wie beispielsweise
www.example.com/skates/black/riedell/
und
www.example.com/riedell/skates/black/
. Diese Art von Duplicate Content kann möglicherweise Einfluss darauf haben, wie eure Site in den Suchergebnissen erscheint - sie verursacht jedoch keine Penalties. Ein Auszug aus unseren Richtlinien für Webmaster zum Thema
Duplizierter Content
:
Duplizierter Content auf einer Website ist kein Grund für Maßnahmen gegen diese Website, außer es scheint, dass mit diesem duplizierten Content Nutzer getäuscht bzw. Suchmaschinenergebnisse manipuliert werden sollen. Falls Ihre Website duplizierten Content enthält und Sie nicht den oben beschriebenen Tipps folgen, tun wir unser Bestes, eine Version des Contents in unseren Suchergebnissen anzuzeigen.
Diese Art von Duplizierung ohne bösen Hintergedanken ist recht häufig, insbesondere da viele CMS damit oft nicht gut umgehen können. Wenn Leute also sagen, dass diese Art von Duplicate Content einen Einfluss auf ihre Site haben kann, dann nicht etwa deshalb, weil gezielte Maßnahmen dagegen ergriffen werden, sondern schlicht aufgrund der Tatsache, dass Websites und Suchmaschinen in einer bestimmten Art und Weise funktionieren.
Die meisten Suchmaschinen streben ein gewisses Maß an Vielfalt an; sie möchten euch zehn verschiedene Ergebnisse auf einer Ergebnisseite zeigen anstelle von zehn verschiedenen URLs, die alle denselben Content haben. Aus diesem Grund versucht Google Duplikate herauszufiltern, damit Usern so wenig wie möglich redundante Ergebnisse angezeigt werden. Mehr dazu könnt ihr in
diesem Blogpost
erfahren, der u. a. sagt:
Wenn wir feststellen, dass Duplicate Content vorliegt, der beispielsweise durch Variationen von URL-Parametern hervorgerufen wird, dann fassen wir diese duplizierten URLs zu einer Gruppe zusammen.
Wir wählen dann jene URL aus, die als am besten geeignet erscheint, die jeweilige Gruppe in den Suchergebnissen zu vertreten.
Schließlich werden bestimmte Eigenschaften der URLs aus der Gruppe, wie z. B. die Link-Popularität, vereinigt und auf die im vorigen Schritt ermittelte URL übertragen.
Mögliche Konsequenzen für euch als Webmaster sind:
Bezüglich Schritt 2: Googles Auffassung davon, was die "am besten geeignetste" URL ist, stimmt eventuell nicht mit eurer Auffassung überein. Wenn ihr mehr Kontrolle darüber haben möchtet, ob www.example.com/skates/black/riedell/ oder www.example.com/riedell/skates/black/ in unseren Suchergebnissen angezeigt wird, dann lohnt es sich für euch darüber nachzudenken, wie ihr diese Duplizierung vermindern könnt. Ein Weg uns wissen zu lassen, welche URL ihr bevorzugt, besteht darin, diese in eurer
Sitemap
anzugeben.
Bezüglich Schritt 3: Wenn wir nicht in der Lage sind, alle Duplikate einer bestimmten Seite zu identifizieren, dann können wir diese nicht entsprechend zusammenfassen. Dies könnte die St
ä
rke der einzelnen Rankingsignale dieses Contents mindern, da sie über verschiedene URLs aufgeteilt sind.
In den meisten Fällen handhabt Google diese Art von Duplizierung sehr gut. Es lohnt sich für euch jedoch auch auf Duplicate Content zu achten, der eventuell über verschiedene Domains verteilt ist. Insbesondere wenn ihr euch dafür entscheidet, eine Site zu erstellen, die in erster Linie auf Contentduplizierung basiert, dann solltet ihr dies überdenken, falls euer Geschäftsmodell auf Suchtraffic abzielt. Wir hören beispielsweise mitunter von Amazon.com-Affiliates, die es schwer haben für ihren Amazon-Content zu ranken. Will Google sie dafür bestrafen, dass sie versuchen
Everyone Poops
zu verkaufen? Nein - nur, weshalb sollten sie besser ranken als Amazon selbst, wenn sie genau die gleichen Einträge bieten? Amazon besitzt eine sehr große Autorität als Onlinebusiness (die sehr wahrscheinlich wesentlich größer ist, als die einer typischen Amazonaffiliate-Site) - üblicherweise werden User der Google-Suche daher wohl die Originalinformationen auf Amazon bevorzugen, zumindest solange die Affiliate-Site nicht einen erheblichen
Mehrwert
bietet.
Es lohnt sich nicht zuletzt auch, die Auswirkungen zu beachten, die Duplizierung auf die Bandbreite eurer Site haben kann. Duplicate Content kann zu ineffizientem Crawling führen: Wenn Googlebot zehn URLs auf eurer Site entdeckt, dann muss er jede dieser URLs crawlen, um herauszufinden, ob sie denselben Content beinhalten (und sie entsprechend, wie oben beschrieben, zusammenzufassen). Je mehr Zeit und Ressourcen Googlebot darauf verwenden muss um duplizierten Content auf mehrfachen URLs zu crawlen, desto weniger Zeit hat er, den Rest eures Contents zu erfassen.
Zusammenfassend: Duplicate Content kann eure Site auf verschiedene Arten beeinflussen; solange ihr jedoch nicht absichtlich Duplizierungen erzeugt, ist es unwahrscheinlich, dass eventuelle unerwünschte Auswirkungen aufgrund einer Penalty entstehen. Dies bedeutet, dass:
ihr keinen Antrag auf erneute
Überprüfung einreichen m
ü
sst, wenn ihr unbeabsichtigte Duplikate entfernt habt.
ihr, falls ihr Webmaster im Anfangsstadium seid,
wohl nicht zu viel Energie darauf verwenden m
ü
sst,
ü
ber
Duplicate Content besorgt zu sein, da die meisten Suchmaschinen damit umgehen k
ö
nnen.
ihr anderen Webmastern helfen könnt, indem ihr den Mythos der Duplicate Content-Penalties nicht weiter verbreitet! Ihr habt alle Mittel zur Hand, um gegen Duplicate Content vorzugehen. Hier sind einige
gute
Hinweise
um
anzufangen
.
Demystifying the "duplicate content penalty" (English version)
Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Claudia, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster