Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Domainübergreifende Auswahl von URLs steuern
Freitag, 4. November 2011
Auf Inhalte kann oft über verschiedene URLs zugegriffen werden, die sich nicht immer in der gleichen Domain befinden müssen. Ein von uns in den letzten Jahren oft zitiertes Beispiel dafür ist die Bereitstellung von identischen Inhalten unter mehr als einer URL, man spricht auch von
dupliziertem Content
. Wenn wir bei Google eine Gruppe von Seiten mit doppelten Inhalten entdecken, wählen wir mittels Algorithmen eine repräsentative URL für diese Inhalte aus. Eine Gruppe von Seiten kann URLs von der gleichen oder von verschiedenen Websites enthalten. Wenn die repräsentative URL aus einer Gruppe mit verschiedenen Websites ausgewählt wird, bezeichnet man das als domainübergreifende Auswahl von URLs. Ein einfaches Beispiel: Angenommen, die Gruppe enthält eine URL von a.com und eine URL von b.com. Wenn unsere Algorithmen die URL von b.com auswählen, wird die URL von a.com eventuell nicht mehr in unseren Suchergebnissen angezeigt und verzeichnet daraufhin möglicherweise geringe Zugriffszahlen über die Suche.
Als Webmaster habt ihr großen Einfluss darauf, welche URL von unseren Algorithmen ausgewählt wird. Euch stehen aktuell unterstützte Methoden zur Kennzeichnung der bevorzugten URL wie
das Element rel="canonical"
oder
301-Weiterleitungen
zur Verfügung. Die Auswahl durch unsere Algorithmen stimmt in den meisten Fällen mit der der Webmaster überein. Trotzdem kam es auch schon vor, dass Webmaster nicht wussten, warum die jeweilige Auswahl getroffen wurde, und wissen wollten, was sie in einer solchen Situation tun können.
Weil wir bei der domainübergreifenden Auswahl von URLs Transparenz schaffen möchten, führen wir zurzeit neue Webmaster-Tools-Nachrichten ein, mit denen ihr als Webmaster darüber informiert werdet, wenn unsere Algorithmen eine externe URL statt eine URL von eurer Website auswählen. Nähere Informationen über diese Nachrichten findet ihr im
Artikel zu diesem Thema in unserer Hilfe
. In diesem Blog-Beitrag stellen wir euch verschiedene Szenarien vor, in denen es zu einer domainübergreifenden Auswahl von URLs kommen kann, und sagen euch, was ihr tun könnt, um eine möglicherweise falsche Auswahl zu korrigieren.
Häufige Ursachen für eine domainübergreifende Auswahl von URLs
Eine domainübergreifende Auswahl von URLs durch unsere Algorithmen kann auf viele Ursachen zurückgeführt werden.
Meistens wird eine URL von unseren Algorithmen aufgrund von Signalen ausgewählt, die Webmaster zur Kennzeichnung der gewünschten URL gesetzt haben. Wenn ihr als Webmaster beispielsweise unsere
Richtlinien
und
Best Practices
beim Umzug eurer Website befolgt, signalisiert ihr damit, dass die URLs auf eurer neuen Website ausgewählt werden sollen. Wenn beim Umzug eurer Website diese Nachrichten angezeigt werden, wurde eure Kennzeichnung von unseren Algorithmen verarbeitet.
Es gibt allerdings immer wieder Beschwerden von Webmastern, wenn unsere Algorithmen die falsche URL auswählen. Wenn bei eurer Website eine domainübergreifende Auswahl getroffen wird, die eurer Ansicht nach falsch ist, weil sie nicht euren Vorstellungen entspricht, gibt es je nach Ausgangslage verschiedene Methoden, um dieses Problem zu beheben. Nachfolgend sind einige der häufigsten uns bekannten Gründe für eine falsche domainübergreifende Auswahl von URLs sowie dazugehörige Lösungen aufgeführt:
1. Doppelte Inhalte einschließlich internationaler Websites:
Oft verwenden Webmaster mehr oder weniger die gleichen Inhalte in einer Sprache auf mehreren Domains. Manchmal geschieht das unabsichtlich, manchmal aber auch, um die Inhalte geografisch auszurichten. Häufig richten Webmaster für example.com und example.net die gleiche Website auf Englisch ein, oder eine deutschsprachige Website wird auf .de, .at und .ch gehostet.
Je nach Website und Zielgruppe könnt ihr eine der aktuell unterstützten Methoden zur Kanonisierung verwenden, um unseren Algorithmen zu signalisieren, welche URLs ausgewählt werden sollen. Zu diesem Thema findet ihr folgende Artikel:
Bevorzugung von Versionen
, speziell das
Element rel="canonical"
und
301-Weiterleitungen
Internationale und mehrsprachige Websites
und mehr über den Umgang mit
internationalen Websites
Über das
Element rel="alternate" hreflang="x"
2. Konfigurationsfehler:
Bestimmte Konfigurationsfehler können zu einer falschen Auswahl durch unsere Algorithmen führen. Mögliche Konfigurationsfehler:
a. Falsche Kanonisierung:
Falsche
Methoden zur Bevorzugung von Versionen
, mit denen auf URLs auf einer externen Website verwiesen wird, können dazu führen, dass die externe URL von unseren Algorithmen ausgewählt und in unseren Suchergebnissen angezeigt wird. Das haben wir beispielsweise bei falsch konfigurierten Content-Managment-Systemen oder bei von Webmastern installierten CMS-Plug-ins beobachtet.
Findet zur Lösung dieses Problems heraus, wie genau auf eurer Website die bevorzugte kanonische URL falsch gekennzeichnet wird. Das kann beispielsweise auf eine falsche Verwendung des Elements rel="canonical" oder eine 301-Weiterleitung zurückzuführen sein. Dieser Fehler muss dann behoben werden.
b. Falsch konfigurierte Server:
Manchmal wird beim Hosting falsch konfiguriert und für URLs der Website b.com werden Inhalte der Website a.com zurückgegeben. Ähnlich verhält es sich, wenn zwei voneinander unabhängige Webserver identische
Soft 404-Fehlerseiten
zurückgeben, die von uns möglicherweise nicht als solche erkannt werden. In diesem Fall nehmen wir an, dass der gleiche Inhalt von zwei verschiedenen Websites zurückgegeben wird, weshalb von unseren Algorithmen die URL von a.com fälschlicherweise als die kanonische URL für b.com ausgewählt wird.
Findet heraus, in welchem Bereich der Server-Infrastruktur eurer Website eine falsche Konfiguration vorliegt. Vielleicht gibt euer Server den HTTP-Statuscode 200 (erfolgreich) für Fehlerseiten aus oder er ordnet Anfragen von verschiedenen auf ihm gehosteten Domains falsch zu. Sobald ihr die Ursache für das Problem gefunden habt, korrigiert zusammen mit euren Serveradministratoren die Konfiguration.
3. Schädliche Angriffe auf Websites:
Bei einigen Angriffen auf Websites kann ein Code eingefügt werden, der eine unerwünschte Bevorzugung von Versionen verursacht. Dieser schädliche Code kann beispielsweise bewirken, dass die Website eine
HTTP-301-Weiterleitung
zurückgibt oder dass im HTML-Tag bzw. dem HTTP-Header ein
domainübergreifendes rel="canonical"-Linkelement
eingefügt wird, das auf eine URL mit schädlichen Inhalten verweist. In diesem Fall wird von unseren Algorithmen möglicherweise die schädliche URL bzw. die Spam-URL statt der URL auf der manipulierten Website ausgewählt.
Befolgt in solchen Fällen am besten unsere
Anleitung zum Bereinigen eurer Website
und sendet anschließend einen Antrag auf erneute Überprüfung.
Cloaking-Angriffe
könnt ihr mit der Funktion "
Abruf wie durch Googlebot
" der Webmaster-Tools aufdecken. Eure Seiteninhalte werden euch damit so ausgegeben, wie sie dem Googlebot angezeigt werden.
In Ausnahmefällen kann es vorkommen, dass von unseren Algorithmen eine URL von einer externen Website ausgewählt wird, die eure Inhalte ohne eure Erlaubnis hostet. Wenn ihr denkt, dass eine andere Website eure Inhalte kopiert und dabei gegen das Urheberrechtsgesetz verstößt, könnt ihr vom Host der Website verlangen, dass eure Inhalte entfernt werden. Außerdem könnt ihr beantragen, dass Google die rechtsverletzenden Seiten aus den Suchergebnissen entfernt. Füllt dazu einen
Antrag gemäß dem US-amerikanischen Urheberrechtsgesetz (Digital Millennium Copyright Act)
aus.
Wenn ihr Unterstützung bei der Suche nach der Ursache für die falsche Auswahl oder bei der Fehlerbehebung braucht, findet ihr weitere Informationen wie immer in unserer Hilfe im Artikel zu diesem Thema oder im
Webmaster-Hilfeforum
.
Autor: Pierre Far, Webmaster Trends Analyst (Veröffentlicht von
Dominik Zins
, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster