Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Eindrücke von der PubCon
Mittwoch, 23. Januar 2008
Letzten Monat hatten einige Mitarbeiter der Google Webmaster-Zentrale das Glück, die PubCon Vegas 2007 zu besuchen. Da wir wissen, dass viele von euch nicht dabei sein konnten, haben wir anstelle von irgendwelchem Nippes lieber ein paar
Notizen von der Konferenz
als Souvenir mitgebracht.
In den Q&A-Sessions war es angenehm zu hören, dass sich die größten Suchmaschinen auf Best Practices bei Webmasterangelegenheiten verständigt haben. Es war sogar so, dass die verschiedenen Präsentationen zum Thema Duplicate Content tatsächlich meistens Duplikate waren. ;) Wenn ich nicht gerade in einer der vielen hilfreichen Sessions war, hatte ich die Gelegenheit, mit vielen Webmastern zu sprechen, die den Stand von Google besuchten oder bei dem Google-Event "Meet the Engineers" vorbeischauten. Es war spannend, die Meinungen so vieler Webmaster zu hören und ihnen bei Fragen zu Google weiterzuhelfen. Nachfolgend findet ihr einige der häufigen Fragen von Webmastern, zusammen mit unseren Antworten:
Überprüfen der Site mittels HTML-Dateien und Meta-Tags
Viele Webmaster hatten die Frage: "Ist es notwendig, den Meta-Tag oder die HTML-Datei für die Überprüfung weiterhin beizubehalten, wenn eine Site bereits verifiziert wurde?"
Die Antwort lautet ja, ihr solltet die Kontrolldatei oder den Meta-Tag beibehalten, um den Status als verifizierter Besitzer einer Site aufrechtzuerhalten. Die Überprüfung dient dazu, festzulegen, welche Personen Zugang zu den Daten einer Site haben, die nur dem Besitzer zugänglich sein sollten. Um sicherzustellen, dass nur die aktuellen Besitzer einer Site Zugriff auf diese Informationen haben, führen wir regelmäßig eine erneute Überprüfung durch, und wenn dabei die Kontrolldatei oder der Meta-Tag fehlen, wird die Site erneut als "nicht verifiziert" eingestuft. Wo wir gerade beim Thema sind:
Best Practices für die Verifizierung einer Site
Falls an eurer Site mehrere Leute mit den Webmaster-Tools arbeiten, ist es von Vorteil, wenn alle Personen die Site über ihr eigenes Konto verifizieren, anstatt dass ein gemeinsam genutztes Konto verwendet wird. Auf diese Art und Weise könnt ihr den Zugriff entsprechend verwalten, indem ihr einfach die Kontrolldateien bzw. Meta-Tags hinzufügt oder entfernt.
Es bietet sich an, eine Liste mit allen Überprüfungscodes und den dazugehörigen Personen zu erstellen, so dass sich der Zugriff leicht überblicken lässt. Sollte einmal die Übersicht verloren gehen, könnt ihr jederzeit über die Option "Website-Überprüfung verwalten" veranlassen, dass sich alle Besitzer der Site erneut verifizieren müssen.
Subdomains vs. Unterverzeichnisse
Macht es einen Unterschied, ob man Subdomains oder Unterverzeichnisse verwendet? Wenn es um Google geht, gibt es dabei keine wesentlichen Unterschiede. Ihr könnt euch bei der Entscheidung für das eine oder andere also ganz danach richten, was für euch und die Besucher eurer Site am besten funktioniert. Im Anschluss an die PubCon hat Googles Matt Cutts
viele wichtige Punkte
zu diesem Thema auf seinem privaten Blog erläutert. Falls ihr die Webmaster-Tools verwendet (was wir hoffen!), solltet ihr bedenken, dass Unterverzeichnisse automatisch mit der Site verifiziert werden, Subdomains jedoch separat verifiziert werden müssen.
Unterstrich vs. Bindestrich
Viele Webmaster wollten auch wissen, ob es einen Unterschied gibt, wie Google Unterstriche und Bindestriche in URLs interpretiert. Generell kann man sagen, dass wir Worte aufgrund der Zeichensetzung unterteilen, d. h. wenn ihr mittels Zeichensetzung eure Worte trennt, liefert ihr bereits genügend Informationen, damit Google eure URLs parsen kann. Gegenwärtig werden Bindestriche immer als Trennungszeichen interpretiert, bei Unterstrichen ist dies jedoch nicht der Fall. Beachtet hierbei, dass sich unsere Techniken permanent verbessern und deshalb der Unterschied zwischen Unterstrichen und Bindestrichen im Laufe der Zeit geringer werden kann. Selbst wenn ihr keine Zeichensetzung verwendet, stehen die Chancen gut, dass wir z. B. grosserleopard.html als "grosser leopard" und nicht "grosserle opard" erkennen. Auch wenn die Verwendung von Trennzeichen wie dem Bindestrich vorteilhaft ist, bedeutet das nicht, dass ihr notwendigerweise besondere Energie darauf verwenden müsst, für bereits bestehende URLs vorhandene Unterstriche in Bindestriche umzuwandeln.
Keywords in URLs
Wir wurden auch gefragt, ob es hilfreich ist, relevante Keywords in der URL zu verwenden. Prinzipiell ist es immer von Vorteil, wenn ihr in allen Bereichen eurer Site gute Beschreibungen liefert, also z. B. im Titel, mit
ALT-Attributen
, und ja, auch in den URLs, da dies hilfreiche Signale für die User und auch die Suchmaschinen sein können. Dies trifft vor allem auch für Bild-Dateien zu, die ohne zusätzliche Beschreibungen keinerlei Text bereitstellen, der von einer Suchmaschine ausgewertet werden könnte. Angenommen, ihr macht ein Foto von eurer Katze, wie sie auf dem Sofa liegt. Eure Digitalkamera liefert eine Datei, die wahrscheinlich so ähnlich wie "IMG_2937.jpg" heißt, was nicht gerade ein besonders aussagekräftiger Name ist. Falls eure Katze nicht wie ein IMG_2937 aussieht, wäre es vielleicht besser, wenn ihr den Dateinamen in einen eindeutigeren Titel ändert, wie z. B. niedliche-katze.jpg. Solltet ihr einmal einen Post über eure Lieblingsnamen von Katzen veröffentlichen, dann wird eine URL, die etwas ähnliches wie "meine-lieblings-katzen-namen" beinhaltet, viel eher als relevante Seite zu diesem Thema betrachtet als beispielsweise eine URL mit "postid=8652" am Ende. Weitere Informationen darüber, wie Google euren Content interpretiert, könnt ihr im neuen
Content-Analyse Feature
in den Webmaster-Tools finden.
Auf eine neue IP-Adresse umziehen
Da wir auch gefragt wurden, was beim Wechseln der IP-Adresse einer Site wichtig ist, haben wie hier einige Schritte aufgelistet, die ihr beachten könnt, um Probleme zu vermeiden. Das könnt ihr tun:
Ändert den TTL-Wert (Time To Live) eurer DNS Konfiguration auf einen kurzen Wert wie z. B. 5 Minuten (300 Sekunden). Das veranlasst die Web-Browser, alle 5 Minuten die IP-Adresse eurer Site zu prüfen.
Kopiert euren Content auf die neue Hosting-Umgebung und stellt sicher, dass der Content über die neue IP-Adresse erreichbar ist.
Ändert eure DNS-Einstellungen, so dass der Hostname auf die neue IP-Adresse verweist.
Überprüft eure Log-Files, um zu erkennen, wann Googlebot damit beginnt, eure Site über die neue IP-Adresse zu crawlen. Um festzustellen, dass es sich tatsächlich um Googlebot handelt, könnt ihr zur Erkennung des Googlebots
folgende Methode
anwenden. Ihr könnt euch dann in den Webmaster-Tools anmelden, um auftretende Crawling-Fehler zu erkennen. Sobald Googlebot problemlos den Content über eure neue IP-Adresse crawlt, war der Umzug in Bezug auf Google erfolgreich.
Um sicherzustellen, dass eure Besucher nur noch auf die neue IP-Adresse zugreifen, ist es sinnvoll, eine Zeit lang noch die Zugriffe auf die alte IP-Adresse im Auge zu behalten, bevor ihr diese Adresse abschaltet.
Proxies
Es gab einige Webmaster, die beunruhigt waren, dass verschiedene Proxy-Dienste mit Kopien ihres Contents indexiert wurden. Auch wenn es oft möglich sein kann, dass ihr Kopien eures Contents in unseren Suchergebnissen findet, ist es sehr wahrscheinlich, dass in den meisten Fällen das Original höher gerankt wird als die Kopie auf einem Proxy-Server. Falls ihr jedoch Beispiele findet, wo dies nicht der Fall ist, freuen wir uns, wenn ihr uns solche URLs im Diskussionsforum für Webmaster mitteilt. Zahlreiche Googler lesen regelmäßig die Beiträge im Forum und leiten Probleme und Fehlermeldungen an die entsprechenden Stellen weiter.
Es war toll, mit den Webmastern auf der Konferenz zu sprechen und wir hoffen, dass alle, die nicht dabeisein konnten, diesen Post nützlich finden. Wenn ihr weiter über die angesprochenen Themen mit anderen Googlern und euren Webmaster-Kollegen diskutieren wollt, seit ihr dazu im
Forum für Webmaster
herzlich eingeladen.
Feeling lucky at PubCon (English version)
Post von Michael Wyszomierski, Search Quality (Übersetzung von Sven, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster