Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Seiten mit "Abruf wie durch Google" rendern
Dienstag, 27. Mai 2014
Über die
Funktion "Abruf wie durch Google" in den Webmaster-Tools
können Webmaster nachvollziehen, wie der Googlebot ihre Seiten abruft. Die Serverheader und der HTML-Code, die angezeigt werden, helfen bei der Diagnose von technischen Problemen und Nebeneffekten von Hackerangriffen. Manchmal erschweren sie aber auch das Überprüfen der Antwort:
Hilfe!
Was bedeutet all dieser Code?
Ist das wirklich dieselbe Seite, die ich in meinem Browser sehe?
Wo wollen wir Mittag essen?
Bei der letzten Frage können wir zwar nicht helfen, aber für die übrigen haben wir dieses Tool kürzlich so erweitert, dass ihr sehen könnt, wie der Googlebot die Seite rendern würde.
Gerenderte Seite ansehen
Zum Rendern der Seite sucht der Googlebot nach allen zugehörigen externen Dateien und versucht, sie ebenfalls abzurufen. Bei diesen Dateien handelt es sich oft um Bilder, CSS- und JavaScript-Dateien sowie sonstige Dateien, die indirekt über den CSS- oder JavaScript-Code eingebettet sein können. Anschließend wird mit ihrer Hilfe ein Vorschaubild gerendert, das die Sicht des Googlebots auf die Seite wiedergibt.
Ihr findet die
Funktion "Abruf wie durch Google"
im Abschnitt "Crawling" der
Google Webmaster-Tools
. Wartet nach dem Senden einer URL mittels "Abrufen und rendern" auf deren Verarbeitung. Dies kann bei manchen Seiten einen Moment dauern. Sobald die Seite verarbeitet wurde, klickt ihr auf die Antwortzeile, um euch die Ergebnisse anzusehen.
Umgang mit von robots.txt blockierten Ressourcen
Der Googlebot richtet sich bei allen Dateien, die er abruft, nach den
Anweisungen in der robots.txt-Datei
. Wenn ihr das Crawling einiger dieser Dateien nicht gestattet oder wenn sie über einen Server eines Drittanbieters eingebettet werden, der das Crawling durch den Googlebot unterbindet, können wir euch die Dateien nicht in der gerenderten Ansicht zeigen. Wir können sie ebenfalls nicht verwenden, wenn der Server nicht antwortet oder Fehler zurückgibt. Solche Probleme sind in den Webmaster-Tools im Abschnitt
Crawling-Fehler
aufgeführt. Wenn wir auf eines dieser Probleme stoßen, weisen wir unterhalb des Vorschaubilds darauf hin.
Wir empfehlen euch daher, dafür zu sorgen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die für die sichtbaren Inhalte oder das Layout eurer Website wichtig sind. Zum einen erleichtert euch das die Verwendung von "Abruf wie durch Google", zum anderen kann der Googlebot dann diese Inhalte finden und indexieren. Einige Inhaltstypen – z. B. Schaltflächen sozialer Medien, Schriftarten oder Skripts zur Websiteanalyse – sind für die sichtbaren Inhalte oder das Layout oft weniger bedeutsam und ihr Crawling kann daher weiterhin untersagt bleiben. Weitere Informationen findet ihr im vorherigen Blogpost zum
neuen Verfahren von Google zur besseren Analyse des Webs
.
Wir hoffen, dass euch dieses Update die Diagnose solcher Probleme erleichtert und bei der Erkennung von Inhalten hilft, deren Crawling versehentlich blockiert wurde. Wenn ihr Kommentare oder Fragen habt, könnt ihr diese hier oder im
Forum für Webmaster
posten.
Post von Shimi Salant, Webmaster Tools team
(Veröffentlicht von
Johannes Mehlem
, Search Quality Team)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
2019
Dez
Nov
Okt
Sep
Jun
Mai
Feb
Jan
2018
Dez
Nov
Okt
Sep
Jul
Jun
Mai
Apr
Feb
Jan
2017
Dez
Nov
Jun
Apr
Mär
Jan
2016
Nov
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Jan
2015
Dez
Nov
Okt
Sep
Aug
Jul
Mai
Apr
Mär
Feb
Jan
2014
Nov
Okt
Sep
Aug
Jun
Mai
Apr
Mär
Feb
Jan
2013
Dez
Nov
Okt
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2012
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2011
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2010
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2009
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2008
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2007
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster