Wir möchten euch aufregende Neuerungen bei unseren Suchergebnissen vorstellen. Mit der universellen Suche (universal search) haben wir damit begonnen, weitere Suchergebnisse zu integrieren, um die besten und nützlichsten Suchergebnisse darzustellen. Zusätzlich zu Webseiten können die Suchergebnisse nun z.B. Videos, Nachrichten, Bilder, Landkarten oder Bücher enthalten. Im Laufe der Zeit werden wir die Verschmelzung unterschiedlicher Informationsquellen in den Suchergebnissen fortsetzen, so dass genau die gewünschten Informationen direkt von der Ergebnisseite aus erreichbar sind.
Dies sind ausgezeichnete Neuigkeiten für die Nutzer der Google-Suche, aber was bedeutet das für euch, die Webmaster? Ebenfalls gute Nachrichten! Viele Nutzer der Google-Suche führen ausschließlich eine reine Suche nach Webseiten durch, weil sie unsere weiteren Such-Werkzeuge z.B. für Bilder, Nachrichten, Videos, Landkarten oder Bücher noch nicht kennen. Da mit der universellen Suche nun mehr Ergebnisse aus diesen Bereichen bei einer Suche nach Webseiten erscheinen, kann dies bedeuten, dass mehr Besucher eure Seite finden, falls ihr Inhalte aus diesen Bereichen bereitstellt.
Ihr wollt alle Vorteile der universellen Suche nuzten? Hier sind einige Tipps:
Ergebnisse von Google News
Wenn eure Webseite Nachrichten enthält, könnt ihr die Seite in Google News aufnehmen lassen. Sobald eure Seite aufgenommen wurde, könnt ihr uns über die neuesten Artikel auf eurer Seite mittels einer „News Sitemap“ informieren. (Hinweis: News Sitemaps werden aktuell nur für englischsprachige Webseiten unterstützt.)
Ergebnisse aus archivierten Nachrichten
Wenn ihr ältere Nachrichten in Form eines Archivs anbietet (kostenlos oder gegen Gebühr), könnt ihr diese für die Aufnahme in die Suche in Nachrichten-Archiven bereitstellen.
Ergebnisse der Bildersuche
Wenn eure Seite Bilder enthält, könnt ihr euch in den Webmaster-Tools für die erweiterte Bildersuche anmelden, was es uns ermöglicht, zusätzliche Informationen über eure Bilder zu erhalten, indem ihr unser „Image Labeler“-Tool verwendet. Dies ermöglicht es, eure Bilder bei passenden Suchanfragen anzuzeigen. Ihr solltet sicherstellen, dass ihr alle Vorteile der Bilder auf eurer Seite nutzt.
Suchergebnisse mit lokalem Bezug
Wenn eure Seite einen bestimmten geografischen Bezug hat, könnt ihr uns dies mittels des lokalen Branchencenters mitteilen. Dadurch ermöglicht ihr es, die besten Suchergebnisse mit Bezug zu bestimmten geografischen Regionen zu liefern, die in der Web-Suche und in Google-Maps erscheinen.
Ergebnisse der Videosuche
Falls ihr Video-Inhalte zeigen möchtet, könnt ihr diese auf Google Video, Youtube und einer Vielzahl weiterer Anbieter hosten. Wenn eines eurer Videos ein sinnvolles Ergebnis auf eine Suchanfrage ist, können die Nutzer der Google-Suche das Video direkt von der Ergebnisseite aus aufrufen (falls das Video auf Google Video oder Youtube liegt) oder sie können ein Vorschaubild sehen und dann zur Seite des jeweiligen Videohosting-Anbieters wechseln. Ihr könnt eure Videos ganz einfach bei Google Video oder Youtube hochladen.
Unser Ziel mit der universellen Suche ist es, die besten und nützlichsten Suchergebnisse zu liefern. Deshalb lautet unser Ratschlag an alle, die über die Web-Suche gefunden werden möchten: Erstellt nützlichen und einzigartigen Content, denn das ist es, wonach gesucht wird.
Post von Vanessa Fox (Übersetzung von Sven, Search Quality)
Seit Juni 2005 gibt es die deutsche Sitemaps User to User (u2u) Group, das Google Diskussionsforum Webmaster. Über 1400 Webmaster haben sich schon registriert und tauschen sich über Webmaster-Themen wie Crawling, Indexierung und Ranking von Sites aus. Die u2u Gruppe ist so gut bei euch angekommen, dass wir sie nun weiterentwickeln wollen. Da sich der Fokus nicht mehr nur auf Sitemaps beschränkt, könnt ihr sie nun unter der neuen url http://groups.google.com/group/Google_Webmaster_Help-de finden. Falls ihr die alte url gebookmarked habt, werdet ihr automatisch auf die neue url weitergeleitet.Ähnlich wie bei der englischen Webmaster Gruppe könnt ihr eure Posts jetzt in bestimmten Kategorien veröffentlichen:
Außerdem werden wir die alte Sitemaps Gruppe zu den o.g. Untergruppen als eine weitere Untergruppe hinzufügen. In 2 Wochen werden wir die vorherige Sitemaps Gruppe archivieren, wodurch diese Gruppe nur noch als read-only verfügbar sein wird. Ihr habt also noch 2 Wochen Zeit, um in einem der alten threads zu posten! Für neue threads könnt ihr ab sofort die entsprechenden Untergruppen benutzen.Was ändert sich noch mit dem Relaunch?Neben dem neuen Look-and-Feel und den thematischen Kategorien für eure Posts werden wir unsere Präsenz in der u2u Gruppe erhöhen und uns in manche Diskussionen einschalten. Das heißt wir werden nur auf einige Posts bzw. Threads antworten, denn die Grundidee einer u2u Gruppe ist ja schließlich, euch eine Plattform zu geben, in der ihr euch untereinander austauschen und bei euren Fragen unterstützen könnt. Aber wir werden alle eure Posts lesen! Denn ihr könnt uns dabei helfen, die Webmaster Tools auf eure Bedürfnisse hin zu optimieren und das Crawling und die Indexierung weiter zu verbessern. Also haltet die Augen offen für Posts von Google Mitarbeitern (erkennbar an dem blauen Google-Zeichen)!Wir hoffen, dass ihr viel von euren Webmaster Kollegen lernen könnt (und natürlich auch von unseren Posts :-). Wir freuen uns auf euer Feedback zu allen Themen, die euch unter den Nägeln brennen!Viel Spass beim Posten!
Eine der Fragen, die wir regelmäßig gestellt bekommen, lautet: Sollten wir als Webmaster, SEOs, SEMs oder User Bedenken gegenüber der personalisierten Suche haben?
Unsere Antwort: Ein definitives NEIN! Die personalisierte Suche analysiert das Suchverhalten eines Users und stimmt mit der Zeit die Suchergebnisse auf dessen Interessen ab. Für den User bedeutet das Folgendes: Wenn er/sie beispielsweise ein Insektenkundler unter Sportfans ist und gerade nach dem Begriff „Kricket“ sucht, dann wird er/sie immer die Suchergebnisse bekommen, die jeweils am relevantesten sind.
Aus Sicht des Webmasters ermöglicht dies, dass Themennischen, in denen identische Suchbegriffe vorkommen, nun anhand des Userprofils differenziert werden können. Und das stellt wirklich eine große Möglichkeit für Präsenz dar. Wenn man sich die Zusammenhänge betrachtet, dann stellt man fest, dass sich Suchmaschinen schon seit Jahren in Richtung einer gewissen Personalisierung bewegen. Die Tatsache, dass Suchmaschinen landes- und sprachbezogene Suchergebnisse liefern, stellt bereits eine Art von Personalisierung dar. Der nächste logische Schritt ist in diesem Fall die Verfeinerung einer solchen Personalisierung. Kleinere Marktnischen haben somit die Chance, in der Trefferliste besser in Erscheinung zu treten, um von Usern besser gefunden zu werden.
Eine weitere Frage, die häufig gestellt wird, ist die Folgende: Wie stelle ich bei einer Migration meiner Website von Domain X auf Domain Y sicher, dass meine schwerverdiente Reputation nicht verloren geht?
Hier eine Reihe von wichtigen Ansatzpunkten:
Original
Gekürzte Version des ursprünglichen Posts von Aaron D'Souza (Übersetzung von Caroline, Search Quality)
Als Besitzer einer Website bestimmt ihr, welche Inhalte eurer Site von den Suchmaschinen indexiert werden. Der einfachste Weg, Suchmaschinen darüber zu informieren, was ihr nicht indexiert haben möchtet, ist eine robots.txt-Datei oder ein robots Meta-Tag. Aber manchmal möchtet ihr vielleicht Inhalte entfernen, die bereits im Index vorhanden sind. Wie läßt sich dies am besten erreichen?
Wie immer gilt: Es hängt davon ab, welche Art von Inhalten ihr entfernen wollt. In den Webmaster-Tools könnt ihr eine genaue Beschreibung der verschiedenen Möglichkeiten finden. Beim erneuten Crawlen der jeweiligen Seite wird der Inhalt dann automatisch aus dem Index entfernt. Wenn es jedoch etwas schneller gehen soll und ihr nicht auf den nächsten Crawl warten möchtet, gibt es jetzt eine einfache Lösung.
Für Websites, bei denen ihr in den Webmaster-Tools als Besizter verifiziert seid, findet ihr jetzt eine neue Option im Diagnose-Tab „URL-Löschungen“. Um loszulegen, klickt einfach auf URL-Löschungen und dann auf Neuer Antrag auf Entfernung. Wählt dann die Option, die am besten beschreibt, was ihr entfernen möchtet.
Einzelne URLs: Webseiten, Bilder oder andere Dateien
Wählt diese Option, wenn ihr eine einzelne URL oder z.B. einzelne Bilder entfernen möchtet. Damit eine URL entfernt werden kann, muss eine der folgenden Bedingungen zutreffen:
Sobald ihr wisst, welche URL entfernt werden soll, fügt ihr diese in das Eingabefeld ein und wählt aus, ob die URL in der Google-Websuche oder in der Google-Bildersuche auftaucht. Dann einfach auf Hinzufügen klicken. Innerhalb eines Antrags könnt ihr bis zu 100 URLs auflisten. Sobald ihr alle URLs, die entfernt werden sollen, hinzugefügt habt, genügt ein Klick auf Antrag auf Entfernung einreichen.
http://www.beispiel.de/meinVerzeichnis
wird diese Angabe alle URLs entfernen, die mit diesem Pfad beginnen, also z.B.:
Damit ein Verzeichnis entfernt werden kann, müsst ihr es mittels der robots.txt-Datei sperren. Für das obige Beispiel würde die Datei http://www.beispiel.de/robots.txt z.B. folgendes beinhalten:
User-agent: GooglebotDisallow: /meinVerzeichnis
Eure gesamte Website
Wählt diese Option nur dann, wenn ihr eure gesamte Website aus dem Google-Index entfernen möchtet. Diese Option dient dazu, alle Unterverzeichnisse und Dateien zu entfernen. Ihr solltet diese Option nicht wählen, um die von euch nicht bevorzugte Domain (mit oder ohne www) aus dem Index zu entfernen. Wenn ihr also z.B. alle eure URLs mit dem „www“-Präfix indexiert haben möchtet, solltet ihr dieses Tool nicht dazu verwenden um die Löschung der Version ohne „www“ zu beantragen. Um dies zu erreichen solltet ihr über das Bevorzugte Domain-Tool einstellen, welche Version ihr im Index haben möchtet (und möglichst auch eine 301 Weiterleitung zur bevorzugten Version einrichten).
Um die Option „Ihre gesamte Website“ zu nutzen, müsst ihr die Site in der robots.txt-Datei sperren.
Cache-Kopie eines Google-Suchergebnisses
Wählt diese Option, um Seiten aus dem Google-Cache zu entfernen. Es gibt 2 Möglichkeiten, um Seiten für die Entfernung aus dem Cache vorzubereiten.
Verwenden des Meta-Tags „noarchive“ und die sofortige Entfernung beantragen
Den Inhalt einer Seite verändern
Wenn ihr die gecachte Version einer Seite entfernt haben wollt, weil sie Dinge enthält, die auf der Live-Seite nicht mehr vorhanden sind und ihr diese Inhalte nicht indexiert haben möchtet, könnt ihr an dieser Stelle die Entfernung der entsprechenden Seite aus dem Cache anfordern. Wir prüfen dann, ob sich der Inhalt der Live-Seite vom Inhalt der gecachten Version unterscheidet und entfernen in diesem Fall dann die gecachte Version. Nach 6 Monaten stellen wir automatisch wieder eine gecachte Version der jeweiligen Seite zur Verfügung (bis zu diesem Zeitpunkt wurde eure Seite mit großer Wahrscheinlichkeit erneut gecrawlt, so das die Cache-Version dann den aktuellen Stand der Seite wiederspiegelt). Falls ihr feststellt, dass wir die Seite bereits früher gecrawlt haben, könnt ihr mit diesem Tool anfordern, dass wir die neue gecachte Version bereits früher zur Verfügung stellen.
Den aktuellen Stand eines Antrags auf Entfernung abfragen
Die Anträge auf Entfernung werden als „Ausstehend“ angezeigt, bis sie bearbeitet wurden. Dann wechselt der Status entweder auf „Abgelehnt“ oder „Entfernt“. Im Allgemeinen wird ein Antrag abgelehnt, wenn er nicht den beschriebenen Anforderungen für die Entfernung entspricht.
Inhalte wieder hinzufügen
Wenn ein Antrag auf Entfernung erfolgreich war, seht ihr einen entsprechenden Eintrag im „Entfernter Inhalt“ – Tab. Die jeweiligen Inhalte können jederzeit wieder unserem Index hinzugefügt werden, indem ihr die Sperre in der robots.txt oder im robots Meta-Tag entfernt und auf wieder hinzufügen klickt. Ansonsten bleibt der Inhalt zunächst für 6 Monate entfernt. Falls nach den 6 Monaten der betreffende Inhalt immer noch gesperrt ist (robots.txt oder robots Meta-Tag) oder eine 404 oder 410 Status-Meldung zeigt, wird der Inhalt beim nächsten Crawl nicht dem Index hinzugefügt. Wenn der Inhalt nach den 6 Monaten jedoch für unsere Crawler sichtbar ist, wird der Inhalt erneut indexiert.
Antrag auf Entfernung von fremden Inhalten
Aber was ist, wenn ihr Inhalte auf einer Website, die nicht eure ist, entfernt haben wollt? Es ist jetzt auch einfacher geworden, dies zu erreichen. Unser neues Tool zum Entfernen von Webseiten führt euch Schritt für Schritt zum passenden Antrag auf Entfernung.
Da Google das Web nur indexiert, aber keinen Einfluss auf die Inhalte von Webseiten hat, können wir Einträge in unserem Index nur entfernen, wenn der jeweilige Webmaster die Inhalte gesperrt, verändert oder ganz entfernt hat. Wenn ihr bestimmte Inhalte entfernt haben wollt, solltet ihr euch an den jeweiligen Besitzer der Website wenden und anschliessend könnt ihr dieses Tool nutzen, um die Entfernung der Inhalte zu beschleunigen.
Falls ihr Suchergebnisse bekommt, die bestimmte Arten von persönlichen Daten enthalten, könnt ihr sogar einen Antrag auf Entfernung stellen, wenn es euch nicht möglich ist, den Fall mit dem Eigentümer der Webseite zu klären. Bei dieser Art von Antrag auf Entfernung müsst ihr nur eure Email-Adresse angeben, so dass wir euch direkt kontaktieren können.
Wenn ihr Suchergebnisse erhalten habt, die bei eingeschaltetem SafeSearch-Filter nicht erscheinen sollten, könnt ihr uns mit diesem Tool ebenfalls darüber informieren.
Ihr könnt den aktuellen Status von ausstehenden Anträgen prüfen und - wie bei der Version in den Webmaster-Tools - wird der Status automatisch auf „Entfernt“ oder „Abgelehnt“ gesetzt, sobald der Antrag bearbeitet wurde. Falls ein Antrag abgelehnt wurde, bedeutet dies, dass der Antrag nicht den Anforderungen für die Entfernung entsprochen hat. Bei Anträgen, bei denen es um persönliche Daten geht, wird der aktuelle Status nicht an dieser Stelle angezeigt, vielmehr erhaltet ihr von uns eine Email, die euch über die weiteren Schritte informiert.Was passiert mit dem bisherigen Tool zum Entfernen von URLs?
Falls ihr in der Vergangenheit bereits Anträge über dieses Tool gestellt habt, könnt ihr euch immer noch dort einloggen und den Status dieser Anträge prüfen. Verwendet für neue Anträge aber bitte nur noch die neue, verbesserte Version des Tools.
Wir haben außerdem unser robots.txt-Analyse-Tool aktualisiert, um den neuen Sitemaps-Befehl, für den wir letzte Woche unseren Support angekündigt haben, richtig zu interpretieren.
Wir hoffen, diese zusätzlichen Informationen helfen euch dabei einzuschätzen, wie andere eure Site sehen. Mehr Feedback ist jederzeit willkommen! Wir sind immer offen für eure Vorschläge.