Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Neues Tool zur Parameterbehandlung bei Duplicate Content
Dienstag, 13. Oktober 2009
Duplicate Content beschäftigt Webmaster und folglich unseren Blog schon seit Jahren. Einer unserer
ersten Posts
erschien im Webmaster-Blog im März 2007 zu genau diesem Thema und auch kürzlich haben wir
uns wieder damit auseinandergesetzt
. Über die letzten Jahre haben wir Tools und Tipps zur Verfügung gestellt, damit Webmastern Kontrolle darüber haben können, welche URLs wir crawlen und indexieren. So haben wir beispielsweise folgende Maßnahmen vorgestellt:
Die Verwendung von 301-Weiterleitungen
Das Festlegen der
bevorzugten Domain (mit oder ohne "www")
Die Möglichkeit
Google über Domainänderungen zu informieren
rel="canonical"
Wir freuen uns ein weiteres Feature ankündigen zu können, das den Umgang mit Duplicate Content erleichtern sollte: Parameterbehandlung. "Parameter Handling", wie es auf Englisch genannt wird, bietet euch die Möglichkeit zu sehen, bei welchen Parametern Google davon ausgeht sie ignorieren oder eben nicht ignorieren zu können. Jetzt könnt ihr unsere Annahmen - wenn notwendig - überschreiben.
Schauen wir uns nochmal das
alte Beispiel
von der
Website, die Fruchtgummi in Fischform verkauft
, an. Stellt euch vor, dass die von euch bevorzugte Fassung der URL und ihres Contents so aussieht:
http://www.example.com/product.php?item=swedish-fish
Ihr macht aber vielleicht denselben Content auch auf anderen URLs verfügbar, abhängig davon, wie User sich auf eurer Website bewegt haben. Es könnte auch sein, dass euer Content-Managment-System Parameter wie beispielsweise Session-IDs vergibt:
http://www.example.com/product.php?item=swedish-fish&category=gummy-candy
http://www.example.com/product.php?item=swedish-fish&trackingid=1234&sessionid=5678
In den Einstellungen zur Parameterbehandlung könnt ihr nun unserem Crawler mitteilen, dass die Parameter /category/, /trackingid/ und /sessionid/ ignoriert werden sollen. Die Umsetzung dieser Vorschläge kann zu einem effektiveren Crawling eure Site beitragen - und zu weniger Duplicate URLs.
Seit dem Launch des Features wurden die folgenden Fragen oft gestellt:
Sind die Vorschläge ein Hinweis oder bindend?
Die Vorschläge sind Hinweise. Wir bemühen uns, sie zu berücksichtigen, aber es kann vorkommen, dass die Vorschläge einer Website eher schaden als nutzen würden.
Wann sollte Parameterbehandlung statt rel="canonical" verwendet werden?
rel="canonical" ist hilfreich, um Dupicate Content-Probleme in den Griff zu kriegen, und wurde auf breiter Basis angenommen. Es gibt die folgenden Unterschiede:
rel="canonical" muss auf jeder Seite vorhanden sein. Parameterbehandlung geschieht auf Host-Ebene.
rel="canonical" wird von vielen Suchmaschinen verwendet.
Parameterbehandlungsvorschläge gelten nur für Google.
Verwendet also die Option, die für euch am meisten Sinn macht. Es ist auch kein Problem auf beides zu setzen, wenn ihr besonders gründlich sein wollt.
Werft doch auch einen Blick auf die
Parameterbehandlung in der Hilfe für Webmaster
.
Wie immer freuen wir uns über
Feedback
zum neuen Feature!
New parameter handling tool helps with duplicate content issues (English version)
Post von Tanya Gupta und Ningning Zhu, Software Engineers (Übersetzung von Jörg, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster