Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Neues Tool zur Parameterbehandlung bei Duplicate Content
Dienstag, 13. Oktober 2009
Duplicate Content beschäftigt Webmaster und folglich unseren Blog schon seit Jahren. Einer unserer
ersten Posts
erschien im Webmaster-Blog im März 2007 zu genau diesem Thema und auch kürzlich haben wir
uns wieder damit auseinandergesetzt
. Über die letzten Jahre haben wir Tools und Tipps zur Verfügung gestellt, damit Webmastern Kontrolle darüber haben können, welche URLs wir crawlen und indexieren. So haben wir beispielsweise folgende Maßnahmen vorgestellt:
Die Verwendung von 301-Weiterleitungen
Das Festlegen der
bevorzugten Domain (mit oder ohne "www")
Die Möglichkeit
Google über Domainänderungen zu informieren
rel="canonical"
Wir freuen uns ein weiteres Feature ankündigen zu können, das den Umgang mit Duplicate Content erleichtern sollte: Parameterbehandlung. "Parameter Handling", wie es auf Englisch genannt wird, bietet euch die Möglichkeit zu sehen, bei welchen Parametern Google davon ausgeht sie ignorieren oder eben nicht ignorieren zu können. Jetzt könnt ihr unsere Annahmen - wenn notwendig - überschreiben.
Schauen wir uns nochmal das
alte Beispiel
von der
Website, die Fruchtgummi in Fischform verkauft
, an. Stellt euch vor, dass die von euch bevorzugte Fassung der URL und ihres Contents so aussieht:
http://www.example.com/product.php?item=swedish-fish
Ihr macht aber vielleicht denselben Content auch auf anderen URLs verfügbar, abhängig davon, wie User sich auf eurer Website bewegt haben. Es könnte auch sein, dass euer Content-Managment-System Parameter wie beispielsweise Session-IDs vergibt:
http://www.example.com/product.php?item=swedish-fish&category=gummy-candy
http://www.example.com/product.php?item=swedish-fish&trackingid=1234&sessionid=5678
In den Einstellungen zur Parameterbehandlung könnt ihr nun unserem Crawler mitteilen, dass die Parameter /category/, /trackingid/ und /sessionid/ ignoriert werden sollen. Die Umsetzung dieser Vorschläge kann zu einem effektiveren Crawling eure Site beitragen - und zu weniger Duplicate URLs.
Seit dem Launch des Features wurden die folgenden Fragen oft gestellt:
Sind die Vorschläge ein Hinweis oder bindend?
Die Vorschläge sind Hinweise. Wir bemühen uns, sie zu berücksichtigen, aber es kann vorkommen, dass die Vorschläge einer Website eher schaden als nutzen würden.
Wann sollte Parameterbehandlung statt rel="canonical" verwendet werden?
rel="canonical" ist hilfreich, um Dupicate Content-Probleme in den Griff zu kriegen, und wurde auf breiter Basis angenommen. Es gibt die folgenden Unterschiede:
rel="canonical" muss auf jeder Seite vorhanden sein. Parameterbehandlung geschieht auf Host-Ebene.
rel="canonical" wird von vielen Suchmaschinen verwendet.
Parameterbehandlungsvorschläge gelten nur für Google.
Verwendet also die Option, die für euch am meisten Sinn macht. Es ist auch kein Problem auf beides zu setzen, wenn ihr besonders gründlich sein wollt.
Werft doch auch einen Blick auf die
Parameterbehandlung in der Hilfe für Webmaster
.
Wie immer freuen wir uns über
Feedback
zum neuen Feature!
New parameter handling tool helps with duplicate content issues (English version)
Post von Tanya Gupta und Ningning Zhu, Software Engineers (Übersetzung von Jörg, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
2019
Dez
Nov
Okt
Sep
Jun
Mai
Feb
Jan
2018
Dez
Nov
Okt
Sep
Jul
Jun
Mai
Apr
Feb
Jan
2017
Dez
Nov
Jun
Apr
Mär
Jan
2016
Nov
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Jan
2015
Dez
Nov
Okt
Sep
Aug
Jul
Mai
Apr
Mär
Feb
Jan
2014
Nov
Okt
Sep
Aug
Jun
Mai
Apr
Mär
Feb
Jan
2013
Dez
Nov
Okt
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2012
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2011
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2010
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2009
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2008
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2007
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster