Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Cloaking zur Beschleunigung der eigenen Website?
Dienstag, 20. Juli 2010
Heute spricht Matt Cutts darüber, ob es ratsam ist, dem Googlebot andere Inhalte als den Usern anzubieten.
Die heutige Frage kommt von Remiz Rahnas in Kerala in Indien. Remiz fragt:
"Laut Google wirkt sich die Ladezeit der Seiten auf das Ranking aus. Sollen wir Nur-Content-Seiten für die Googlebots erstellen, indem wir Bilder und CSS- und JavaScript-Ladevorgänge entfernen?"
Die Antwort auf diese Frage lautet "Neeeeeeeiiiiiiin". Am liebsten würde ich durch den Bildschirm greifen und die ESC-Taste, Strg+C und Pause drücken, denn das ist Cloaking. Ihr solltet niemals etwas für den Googlebot anders machen als für normale Nutzer. Das ist die Definition von Cloaking. Euer Code darf keine Anweisung enthalten wie "Wenn der Nutzeragent der Googlebot ist oder wenn die IP-Adresse Google ist, mach etwas anderes". Das ist die Grunddefinition von Cloaking.
Ihr könntet also glauben, da die Ladezeit der Seiten eine wichtige Rolle spielt, müsst ihr den Vorgang für den Googlebot beschleunigen. Aber dieser Ansatz ist falsch. Erstens ermitteln wir die Ladezeit einer bestimmten Seite oder Website nicht nur anhand des Googlebot. Das würde also gar nicht funktionieren. Zweitens, wenn ihr den Content ändert, der angezeigt werden kann, können die Nutzer die Cache-Seite sehen und denken: "Oh, nur eine Textseite". Das wäre sehr seltsam und ihr erhieltet Beschwerden wegen Website-Cloaking.
Denkt daran: Wenn ihr CSS- und JavaScript-Bilder einfügt, sind diese meistens extern und werden gar nicht zu diesem Zeitpunkt von Google geladen. Auch wenn wir wissen, dass dieser externe Content existiert, rufen wir ihn nicht notwendigerweise vollständig ab und integrieren ihn in die Seite. Ihr solltet aber unbedingt den Nutzern dieselbe Seite zeigen wie dem Googlebot. Tut nichts, um den Vorgang für den Googlebot zu beschleunigen, denn das ist Cloaking und somit viel riskanter als zu versuchen, den Vorgang nur wegen des Googlebot zu beschleunigen.
Post von Daniela Loesser, Search Quality Team
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
2019
Dez
Nov
Okt
Sep
Jun
Mai
Feb
Jan
2018
Dez
Nov
Okt
Sep
Jul
Jun
Mai
Apr
Feb
Jan
2017
Dez
Nov
Jun
Apr
Mär
Jan
2016
Nov
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Jan
2015
Dez
Nov
Okt
Sep
Aug
Jul
Mai
Apr
Mär
Feb
Jan
2014
Nov
Okt
Sep
Aug
Jun
Mai
Apr
Mär
Feb
Jan
2013
Dez
Nov
Okt
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2012
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2011
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2010
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2009
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2008
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feb
Jan
2007
Dez
Nov
Okt
Sep
Aug
Jul
Jun
Mai
Apr
Mär
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster