Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
SMX Advanced: Q&A für Fortgeschrittene
Freitag, 7. August 2009
Letzten Monat fand wieder die
SMX Advanced
in Seattle statt - und sie war wirklich "advanced". Zur Beantwortung einer Reihe von Fragen vom Q&A-Panel musste ich erst ein wenig Recherche anstellen. Hier sind nun aber wie versprochen die Antworten:
Q.
Wir haben gehört, dass sich Google inzwischen
leichter damit tut
, Flash zu indexieren. Falls ich eine Flash-Datei habe, die Content aus einer externen Datei bezieht und die externe Datei durch
robots.txt
geblockt wird, wird dann der Flash-Inhalt (der nicht durch robots.txt geblockt wird) indexiert? Oder ist es Google unmöglich diesen Inhalt zu indexieren?
A.
Wir haben keine Möglichkeit, Zugang zum Content zu erhalten, wenn er in einer Datei ist, die durch robots.txt geblockt wird. Selbst wenn der Inhalt für Menschen sichtbar wäre (via Flash), können die Crawler von Suchmaschinen nicht auf ihn zugreifen. Für detailliertere Auskunft werft einen Blick auf unseren Blogpost zur "
Indexierung von Flash-Content mit externen Ressourcen
"!
Q.
Websites, die Content an Userverhalten oder Clickstream anpassen, werden immer populärer. Falls ein User über Suchergebnisse auf meine Site kommt, kann ich den Inhalt der Webseite anpassen oder den User weiterleiten - abhängig vom Suchbegriff? Oder wird dies als
Cloaking
betrachtet? Wenn jemand beispielsweise nach [alte Schmuckanhänger] sucht, aber auf meine allgemeinere Seite zu altem Schmuck kommt, kann ich ihn dann zu meiner Seite für alte Schmuckanhänger weiterleiten, weil ich ja weiß, was er sucht?
A.
Falls ihr Redirects verwendet oder dem User anderen Content für eine URL zeigt als dem Googlebot (zum Beispiel über den google.com-Referrer oder den Suchstring), verstehen wir das als Cloaking. Wenn ein suchender User sich entschließt, auf den Link zu 'alter Schmuck' zu klicken, solltet ihr ihm die Seite zeigen, die er angeklickt hat, selbst wenn ihr denkt, dass eine andere Seite besser wäre. Ihr könnt immer zwischen den verwandten Seiten eurer Website verlinken. (Verlinkt zum Beispiel von eurer 'alter Schmuck'- zu eurer 'alte Schmuckanhänger'-Seite und umgekehrt. Auf diese Weise kann jeder, der auf einer der beiden Seiten landet, zur anderen navigieren.) Wir glauben nicht, dass ihr diese Entscheidung für die User treffen solltet.
Q.
Obwohl Website-Testing (wie A/B- oder Multivarianten-Tests) unterschiedlichen Usern unterschiedlichen Content zeigt, betrachtet Google dies als legitime Praktik, die nicht gegen die
Richtlinien für Webmaster
verstößt. Einer der Gründe dafür ist, dass Suchmaschinen zwar die originale Fassung der Seite zu sehen bekommen und nicht die Variationen, es aber trotzdem eine gewisse Prozentzahl User gibt, die denselben Content geliefert bekommen. Diese Technik ziehlt also nicht speziell auf Suchmaschinen ab.
Einige Testing-Services empfehlen aber den gesamten Traffic einer Website für eine Weile durch die erfolgreichste Kombination laufen zu lassen, nachdem das Experiment abgeschlossen wurde - um sicherzustellen, dass die Conversion-Rate hoch bleibt. Wie passt das mit Googles Standpunkt zu Cloaking zusammen?
A.
Den gesamten Traffic für eine kurze Zeit durch eine Variation laufen zu lassen ist in Ordnung. Wie aber unser
Artikel zu diesem Thema
besagt: "Wir entfernen unter Umständen eine Website von unserem Index, falls auf der Website z. B. eine einzelne nicht ursprüngliche Kombination über mehrere Monate hinweg ausschließlich angezeigt wird." Falls ihr die Resultate eures Experiments bestätigen wollt, euch aber Sorgen macht, "wie lange zu lange ist", führt doch ein weiteres Experiment durch, in welchem ihr den Großteil eures Traffics durch die erfolgreiche Variation laufen lässt, während eine kleine Anzahl der User noch die ursprüngliche Seite sieht.
Genau das empfiehlt Google
mit dem Website-Optimierungstool, unserem eigenen Testing-Tool.
Q.
Wenn das Schriftzeichen-Encoding im HTTP-Header einer Seite anders ist als jene im Tag <meta http-equiv="Content-Type">, was verwendet Google?
A.
Wir schauen uns beide an, berücksichtigen aber unter Umständen auch den Content der Seite als zusätzlichen Faktor. Die meisten gängigen Browser geben dem Encoding im HTTP-Header den Vorzug gegenüber jenem im HTML-Code, wenn beide gültig aber unterschiedlich sind. Wenn euch bewusst ist, dass sie sich unterscheiden, ist es aber am sinnvollsten, einen der beiden zu ändern!
Q.
Wie geht Google in internationalen UTF-8-verschlüsselten Drei-Byte-Schriftzeichen (wie beispielsweise chinesischen und japanischen Schriftzeichen) in einer URL um? Solche URLs funktionieren nicht in allen Anwendungen. Ist Google in der Lage sie korrekt zu verarbeiten? Versteht Google Keywords, die so codiert sind? Wird also erkannt, dass www.example.com/%E9%9D%B4 genauso relevant wie www.example.com/shoes ist?
A.
Wir sind in der Lage mittels %-Zeichen maskierte UTF8-Schriftzeichen im URL-Pfad und in Suchparametern korrekt zu interpretieren, und wir verstehen Keywords, die auf diese Art und Weise codiert sind. Für internationale Schriftzeichen in Domainnamen empfehlen wir die Verwendung von
Punycode
statt %-Encoding, weil einige ältere Browser (wie IE6) Nicht-ASCII-Domain-Namen nicht unterstützen.
Habt ihr selbst Fragen? Schaut doch in unser
Webmaster-Dikussionsforum
.
Advanced Q&A from (the appropriately-named) SMX Advanced (English version)
Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Jörg, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster