Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Recap von der SMX München
Dienstag, 22. April 2008
Wir (Stefanie, Jan, Kaspar, John und Uli) sind wohlbehalten aus der Hauptstadt Bayerns, dem schönen München, zurückgekehrt, wo wir an der Search Marketing Expo 2008 teilgenommen haben. Es war eine interessante Sache, den Panels zuzuhören. Worüber wir uns allerdings am meisten gefreut haben, war die Gelegenheit, mit euch, den Webmastern, sprechen zu können. Uns wurden viele Fragen gestellt in Sachen Suche, Crawlen, Indexieren, Ranking und bezüglich des berüchtigten irischen Wetters. ;-)
Falls ihr keine Gelegenheit hattet, uns auf der SMX kennen zu lernen, möchten wir uns vorstellen (von links nach rechts): Kaspar, Stefanie, Jan und John.
Dies sind einige der Fragen, die uns Konferenzteilnehmer gestellt haben. Auch allen anderen Webmastern wollen wir unsere Antworten nicht vorenthalten.
F: Wann empfiehlt sich die Option zur geografischen Ausrichtung einer Site in den Webmaster-Tools?
Stefanie: Die Option zur
geografischen Ausrichtung
in den
Webmaster-Tools
ist für Inhaber einer Site mit einer generischen (d. h. länderunspezifischen) Top-Level-Domain wie .com oder .eu nützlich, wenn ihr mit eurer Site User ansprechen möchtet, die speziell nach Suchergebnissen aus einem bestimmten Land suchen (z. B. User, die ihre Suchanfrage auf Seiten aus Österreich einschränken). Unterscheidet sich der geografische Standort eures Webservers von demjenigen eurer Zielgruppe, dann dient das sogenannte Geo-Targeting als eines der Signale für die Bestimmung der geografischen Zielregion einer Website. Trifft das auf eure Site zu, dann macht von dieser Option in den Webmaster-Tools Gebrauch. Beachtet bitte, dass es einige Zeit dauern kann, bis diese geografische Verknüpfung tatsächlich in unseren Suchergebnissen sichtbar ist.
Derzeit besteht für Websites mit einer länderspezifischen Top-Level-Domain wie etwa .de oder .at keine Möglichkeit, die geografische Präferenz zu ändern, da in diesem Fall die in der Länderkennung der Domain enthaltene Information automatisch als Indikator für die geografische Zielregion verwendet wird.
Zur Verdeutlichung des Effekts von Geo-Targeting nehmen wir einmal an, dass ihr eine Shopping-Website mit einer .com Top-Level-Domain habt, aber eure Produkte ausschließlich innerhalb Deutschlands vertreibt. Hier empfiehlt es sich, Deutschland als geografisches Ziel festzulegen. Dies ist ein Hinweis für Google, dass die Website besonders für User relevant ist, die nach Content aus Deutschland suchen.
Wollt ihr dagegen User ansprechen, die einem bestimmten Sprachraum angehören (z. B. die gesamte deutschsprachige Bevölkerung), dann habt ihr zwei Möglichkeiten: Entweder belasst ihr einfach die Voreinstellung und verzichtet auf eine Verknüpfung eurer Website mit einem geografischen Standort. Oder ihr fügt für jedes deutschsprachige Land einzeln eine Subdomain oder ein Unterverzeichnis in den Webmaster-Tools hinzu und legt für jede URL gesondert das Geo-Targeting fest. Letztere Option ist allerdings nur dann zu empfehlen, wenn ihr tatsächlich in einem bestimmten Land vertreten seid.
F: Wie kann ich meinen Content aus dem Google-Index entfernen?
Stefanie: Es gibt verschiedene alternative Möglichkeiten zur
Entfernung von Content
aus dem Google-Index:
Stellt sicher, dass euer Server mit einer 404 oder 410 Statusmeldung antwortet, wenn auf die Seite zugegriffen wird.
Fügt den Meta-Tag
noindex
auf der Seite ein.
Verhindert das Crawlen der Seite mit Hilfe einer
robots.txt-Datei
. Für derartig geblockte Seiten wird Google umgehend das Crawlen einstellen. Bitte beachtet jedoch, dass es etwas länger dauern kann, bis ein Update des Index erfolgt und somit die URL aus dem Index entfernt wird.
Falls ihr eine schnelle Lösung sucht, dann könnt ihr das Tool zum Entfernen von URLs in den
Webmaster-Tools
verwenden. Im Allgemeinen führt dies zu einer Entfernung der URL innerhalb einiger Tage; allerdings kann die Löschung eines großen Umfangs von URLs etwas länger dauern.
Damit die Entfernung von Content erfolgreich ist, müsst ihr mit Hilfe einer der drei oben genannten Methoden sicherstellen, dass Google nicht mehr auf Seiten oder Bilder zugreifen kann. Sonst crawlt Googlebot beim nächsten Zugriff auf eure Site den Content erneut.
Es gibt Fälle, die eine
bestimmte Methode
erfordern:
Wenn ihr eure gesamte Site oder ein ganzes Verzeichnis entfernen wollt, dann müsst ihr diesen Content in eurer robots.txt-Datei blockieren.
Für die Entfernung der Cache-Version eurer Seite verwendet den Meta-Tag noarchive.
Innerhalb von 90 Tagen nach Beantragung auf Entfernung von Content könnt ihr den Content jederzeit in den Index
wiederaufnehmen
lassen. Falls ihr Content entfernt sehen möchtet, aber nicht Inhaber der entsprechenden Site seid, dann müsst ihr entweder Kontakt mit dem entsprechenden Webmaster aufnehmen oder unser
Tool zum Entfernen
von Webseiten verwenden.
F: Was kann ich tun, damit Google meine Webseite häufiger crawlt?
Uli: Es gibt Millionen von Internetseiten, alleine über 12 Millionen registrierte .de Domains. Deshalb können wir nicht alle mit maximaler Geschwindigkeit crawlen. Seid darum bitte nicht enttäuscht, wenn eure Seite nicht so häufig gecrawlt wird, wie ihr es gerne hättet.
Häufiges Crawlen hilft eurer Site auch gar nicht unbedingt. Vielleicht haben wir festgestellt, das die jetzige Crawl-Rate ausreichend ist, und häufigeres Crawlen nur unnötig Bandbreite eurer Seite beanspruchen würde.
Manchmal crawlen wir eine Seite mit geringerer Geschwindigkeit, um den Hostload in Grenzen zu halten. In diesem Fall geben wir euch in den Webmaster-Tools (Tools -> Crawling-Geschwindigkeit festlegen) die Möglichkeit, die Crawling-Geschwindigkeit auf "schneller" zu setzen.
Dadurch wird die Seite zwar nicht häufiger gecrawlt, aber bei jedem Crawlvorgang werden mehr Seiten gecrawlt und dadurch neue Seiten eventuell schneller indexiert.
F: Ist es in Ordnung, Links auszutauschen? Und ist es schlecht für mein Ranking, wenn ich über 100 Links auf einer Seite habe?
Uli: Dass Sites zueinander linken, ist eine der Grundlagen des Internets. Wenn man eine tolle Site sieht und meint, sie könnte auch für die Besucher der eigenen Site interessant sein, linkt man zu ihr. Aber es gibt auch Linktauschprogramme, bei denen Links nicht deshalb gesetzt werden, weil man die Site für gut und relevant hält, sondern um PageRank weiterzuleiten und so unsere Suchresultate zu manipulieren. Von derartigen Linktauschprogrammen raten wir dringend ab.
Das gleiche Prinzip gilt für den zweiten Teil der Frage. Es beeinflusst nicht zwingend das Ranking einer Seite, wenn sie zu so vielen Seiten verlinkt. Aber man sollte sich fragen, ob derart viele Links für den User nützlich sind oder ob es nicht zu einer "Informationsüberfrachtung" kommt. Vielleicht erhöht es die Benutzerfreundlichkeit, den Inhalt auf mehrere Seiten zu verteilen.
F: Der Toolbar PageRank meiner Site ist 0. Wurde meine Site abgestraft?
Jan: PageRank 0 an sich ist kein Zeichen einer Abstrafung. Vielleicht ist eure Site oder eine einzelne Webseite neu und hat noch keinen PageRank akkumuliert. Denkt daran, dass sich PageRank auf einzelne Webseiten bezieht und dass Änderungen der internen Seitenstruktur den angezeigten PageRank beeinträchtigen können. Falls der PageRank eurer Site jedoch plötzlich abgefallen ist und ihr Links kauft oder verkauft, dann könnte der Verlust des PageRanks ein erstes Signal sein, dass Google den Trust in eure Domain verliert. Bitte lest mehr über dieses Thema in Matt Cutts' Post über
Kauf und Verkauf von Links, die PageRank vererben
.
F: Bekomme ich eine Nachricht von Google, falls meine Site abgestraft wurde?
Jan: Das Erstellen eines Webmaster-Tools-Kontos und die Verifizierung eurer Site gibt euch Zugang zu Nachrichten von Google, die auf Verstöße gegen die Richtlinien für Webmaster hinweisen. Mehr Informationen und Details finden sich in unserem Post über das
Webmaster-Tools Nachrichten-Center
.
F: Die Anzahl der indexierten Seiten variiert, wenn ich die Site-Suche aufrufe. Ist das ein Fehler?
Kaspar: Das ist eine verbreitete Fehlannahme. Der Grund dafür, dass die Anzahl der angezeigten Seiten abweichen kann, liegt in der Infrastruktur, die Google verwendet, um Ergebnisse so schnell wie möglich darzustellen. Dafür werden die Suchresultate für jede einzelne Anfrage von dem zum gegebenen Zeitpunkt am nächsten gelegenen Data Center geliefert. Die Datenbanken der zahlreichen Data Center von Google können allerdings nicht gleichzeitig aktualisiert werden, weshalb leicht abweichende Suchergebnisse vorkommen können.
F: Kann ich etwas tun, damit Sitelinks zu meiner Site angezeigt werden?
Kaspar: Sitelinks werden algorithmisch generiert. Die zugrunde liegende Idee ist es, den Besuchern von großen Webauftritten die Navigation durch direkte Links zu erleichtern. Es gibt derzeit keine Möglichkeit, Sitelinks anzufordern, allerdings könnten eine übersichtliche Seitenstruktur und qualitativ hochwertige Inhalte dazu beitragen, dass Sitelinks generiert werden. Weitere Informationen zu diesem Thema gibt es
hier
.
F: Wenn ich nicht möchte, dass eine Suchanfrage bei der personalisierten Suche berücksichtigt wird, muss ich mich dann von meinem Google-Konto abmelden?
Kaspar: Nein, das ist nicht notwendig. Die personalisierte Suche kann mit Hilfe der Einstellungen im Google-Konto gestoppt werden. Es besteht auch die Möglichkeit, durch das Hinzufügen des &pws=0 Parameters am Ende der URL eine einzelne Suchanfrage von der personalisierten Suche auszuschließen. Beispielsweise würde
diese Anfrage
in die Webhistory eines eingeloggten Benutzers eingehen, während es bei
dieser
nicht der Fall wäre.
Wir sind gespannt, was eure Eindrücke von der Veranstaltung sind und freuen uns auf eure Kommentare! :-) Und natürlich würden wir uns freuen, neue Mitglieder in unserem
Forum für Webmaster
begrüßen zu dürfen.
Post von Stefanie Dürr, Kaspar Szymanski, Jan Backes und Uli Lutz
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster