Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Layout - CSS oder Tabellen?
Freitag, 30. Oktober 2009
Im heutigen Video spricht Matt Cutts darüber, ob es aus SEO-Sicht Unterschiede zwischen CSS- oder tabellenbasierten Layouts gibt.
Transkript:
Thomas aus Cincinnati (USA) fragt: "Ist eine Website mit einem CSS-basierten Layout SEO-freundlicher als eine Site mit einem tabellenbasierten Layout?"
Ich würde mir, ehrlich gesagt, nicht so viele Gedanken darüber machen.
Wir erkennen Tabellen, wir erkennen CSS - wir können mit beidem umgehen.
Wir versuchen beides zu bewerten, egal welche Art von Layout ihr nun verwendet.
Ich würde das nehmen, was für euch am besten funktioniert.
Heutzutage mögen viele Leute CSS, weil es Änderungen an einer Site sehr einfach macht. Man kann leicht das Layout anpassen, es ist sehr modular.
Wohingegen Tabellen gewissermaßen ein Web 1.0-Image anhaftet. Wenn ihr eine gute Site habt, dann versuchen wir, sie zu finden und gut zu ranken - egal ob ihr nun ein Tabellen- oder ein CSS-basiertes Layout verwendet.
Übersetzung von Sven, Search Quality Team
Update zu Rich Snippets
Donnerstag, 29. Oktober 2009
Diesen Mai haben wir euch
Rich Snippets vorgestellt
. Sie machen es möglich, Daten von einer Website strukturiert in den Google-Suchergebnissen darzustellen.
Wir sind überzeugt davon, dass strukturierte Daten das Web verbessern und wir arbeiten mit Feuereifer daran, Rich Snippets für mehr Suchergebnisse anzubieten. Gleichzeitig sind wir an eurem Feedback interessiert. Für Sites mit
Reviews und Rezensionen
oder
personenbezogenen Inhalten bzw. Social-Networking-Content
ist es jetzt noch einfacher, den Content über Mikroformate oder RDFa kenntlich zu machen, damit Google den Content besser verstehen und gute Rich Snippets erstellen kann. Hier möchten wir euch einige Neuerungen unsererseits vorstellen, die euch das Arbeiten mit Markups (Auszeichnungen) hoffentlich erleichtern.
Test-Tool.
Werft einen Blick darauf, welche Daten Google extrahieren kann und wie mit Mikroformaten oder RDFa ausgezeichnete Seiten in den Google Suchresultaten aussehen würden.
Testet eure URLs mit dem "
Rich Snippets Testing Tool
".
User der benutzerdefinierten Suche von Google können das Tool auch dazu verwenden, um Markups in ihrer
benutzerdefinierten Suchmaschine
auszuprobieren. (Hier findet ihr einen englischsprachigen Post zu
Markups in benutzerdefinierten Suchmaschinen
.)
Bessere Dokumentation.
Wir haben unsere (englischsprachige) Dokumentation um eine neue Sektion mit
Tipps&Tricks
sowie um einen
FAQ-Bereich
erweitert. Dort gehen wir auf häufig gestellte Fragen ein und geben Hinweise, wie ihr die Verwendung von Rich Snippets in den Suchergebnissen für eure Website wahrscheinlicher macht.
Erweiterter RDFa-Support.
Zusätzlich zum
RDFa-Format für personenbezogene Informationen
haben wir auch Support für die entsprechenden Felder bei
FOAF
und
vCard
zur Verfügung gestellt.
Videos.
Falls ihr Videos auf eurer Website habt, könnt ihr euren Content jetzt mit Markups versehen, um Google das
Finden dieser Videos zu erleichtern
.
Wie bisher garantiert die Verwendung von Markups nicht, dass Rich Snippets für eure Website angezeigt werden. Wir werden dieses Feature aber ständig ausbauen, um die Benutzerfreundlichkeit zu erhöhen.
Help us make the web better: An update on Rich Snippets (English version)
Post von Kavi Goel, Pravir Gupta und Othar Hansson (Übersetzung von Jörg, Search Quality)
Überprüfung von Blogger-Blogs in den Webmaster-Tools
Mittwoch, 28. Oktober 2009
Ihr habt vielleicht gesehen, dass wir kürzlich Änderungen im Überprüfungssystem in den Webmaster-Tools angekündigt haben. Eine Folge dieser Änderungen ist, dass für Blogs, die auf Blogger gehostet werden und noch nicht überprüft worden sind, von nun an die Verwendung der Meta-Tag-Überprüfungsmethode anstelle der "One-Click"-Integration im Blogger-Dashboard erforderlich ist. Der Link zur automatischen Überprüfung im Blogger-Dashboard funktioniert nicht mehr und wird bald entfernt. Wir arbeiten daran, den automatischen Überprüfungssprozess für Blogger-Blogs wieder herzustellen - für die Zwischenzeit möchten wir euch jedoch auf die notwendigen Schritte zur Überprüfung von Blogger-Blogs in den Webmaster-Tools aufmerksam machen.
Schritt-für-Schritt-Anleitung
In den Webmaster-Tools:
1. Klickt auf der Homepage der Webmaster-Tools auf die Schaltfläche "Website hinzufügen".
2. Gebt die URL eures Blogs ein (zum Beispiel googlewebmastercentral-de.blogspot.com) und klickt auf "Weiter", um zu der Seite zu gelangen, auf der ihr die Überprüfungen verwalten könnt.
3. Wählt "Meta-Tag" als Überprüfungsmethode und kopiert das angezeigte Meta-Tag.
In Blogger:
4. Geht zu eurem Blog und loggt euch ein.
5. Klickt im Blogger-Dashboard auf den "Layout"-Link für den Blog, den ihr überprüfen wollt.
6. Klickt den "HTML bearbeiten"-Link auf dem Tab "Layout", über den ihr den HTML-Code für das Template eures Blogs editieren könnt.
7. Fügt das Meta-Tag (das ihr in Schritt 3 kopiert habt) gleich hinter dem <head>-Element in das HTML-Template ein und klickt auf die Schaltfläche "VORLAGE SPEICHERN".
In den Webmaster-Tools:
8. Stellt sicher, dass auf der Seite, auf der ihr die Überprüfungen verwaltet, "Meta-Tag" als Überprüfungsmethode ausgewählt ist und klickt auf die Schaltfläche "Bestätigen".
Euer Blog sollte jetzt verifiziert sein. Ihr könnt nun damit anfangen, die Webmaster-Tools zu benutzen!
Post von Jonathan Simon, Webmaster Trends Analyst (Übersetzung von Claudia, Search Quality)
Suchanfragen verdienen Aktualität. Tatsache oder Gerücht?
Dienstag, 27. Oktober 2009
Das heutige Video handelt von der Aktualität bei Suchergebnissen. Matt Cutts fasst sich kurz. :)
Transkript:
Tom aus Seattle fragt:
"Suchanfragen verlangen aktuelle Ergebnisse. Tatsache oder Gerücht?"
Es ist eine Tatsache: Amit Singhal hat in der
New York Times darüber gesprochen
, dass wir der Meinung sind, Ergebnisse zu manchen Suchanfragen sollten aktuell sein. Deshalb meinte er: "Query deserves freshness". Das ist eine Tatsache, kein Gerücht.
Übersetzung von Jörg, Search Quality Team
Eine Million YouTube-Aufrufe
Freitag, 23. Oktober 2009
Zu Beginn dieses Jahres haben wir unseren eigenen
Webmaster Central-Kanal
auf YouTube gelauncht. Die Zahl der Videoaufrufe hat jetzt die Millionen-Marke überschritten! Auf dem Weg zu diesem Meilenstein haben wir 154 Videos hochgeladen, was einer Summe von fast 11 Stunden an Webmaster-Content entspricht. In den Videos geht es es um
Präsentationen von Konferenzen
,
Updates zu unseren Webmaster-Tools
,
allgemeine Tipps
und natürlich um die Antworten zu euren Fragen in den
Videos mit Matt Cutts
.
Zur Feier des millionsten Aufrufs zeigen wir heute ein lustiges Video, in dem ihr sehen könnt, was mit Matt Cutts passierte, als er neulich eine Wette mit seinem Team verlor:
Außerdem verfügen jetzt alle Videos über Untertitel (zunächst nur Englisch - die deutschen Untertitel folgen nach und nach) und wir wollen diese Funktion auch bei zukünftigen Videos bereitstellen. Danke an alle, die unsere Videos angeschaut, weitergeleitet oder kommentiert haben. Wir freuen uns auf die nächste Million Aufrufe!
Post von Michael Wyszomierski, Search Quality Team (Übersetzung von Sven, Search Quality Team)
Reputationsmanagement in den Suchergebnissen
Donnerstag, 22. Oktober 2009
Vor einigen Jahren konnte ich es nicht erwarten, endlich zu heiraten. Natürlich auch deshalb, weil ich verliebt war, vor allem aber, um den Namen meines Ehemanns anzunehmen. So würden die Leute, die in Google nach mir suchten, nicht mehr als Erstes die lächerlichen Fotos aus meiner Zeit an der Uni finden.
Ich arbeite jetzt schon seit einigen Jahren für Google und habe gelernt, dass es nicht notwendig ist, den Namen zu ändern, nur weil er peinliche Suchresultate zu Tage fördert. In diesem Blogpost findet ihr einige Tipps zum "Reputationsmanagment", also dazu, wie man seine Online-Präsenz sowie die Informationen, die über einen selbst online verfügbar sind, beeinflussen kann.
Zweimal überlegen
Der erste Schritt in Sachen Reputationsmanagment ist Vorsorge:
Überlegt zweimal, welche persönlichen Informationen ihr online stellt
. Denkt daran, dass etwas, das in dem Kontext, in dem ihr es veröffentlicht, angemessen ist, später durch Suchmaschinen sehr leicht zugänglich wird. Es kann sein, dass dieser Content dann außerhalb des Kontexts von Leuten gefunden wird, die die ursprüngliche Website eigentlich nicht besuchen. Geht beispielsweise nicht davon aus, dass eure Mutter, nur weil sie nicht euren Blog liest, niemals den Post über das neue Tattoo finden wird.
Das Problem an der Wurzel packen
Wenn etwas, das euch nicht gefällt, bereits veröffentlicht wurde, besteht der nächste Schritt in dem
Versuch, den betreffenden Content von der Website zu entfernen
, auf der er veröffentlicht wurde. Es ist wichtig, zuerst die Entfernung des Contents von der Website anzugehen, anstatt sich gleich an Google zu wenden. Das Internet gehört nicht Google; unsere Suchergebnisse stellen einfach dar, was es im Web gibt. Egal ob Content in den Google-Suchergebnissen auftaucht oder nicht: dieser Content ist immer noch auf der tatsächlichen Website erreichbar. Ihr solltet das Problem also an der Wurzel anpacken.
Falls sich der Content auf einer Website befindet, die ihr besitzt, habt ihr es leicht und könnt ihn einfach entfernen.
Es ist oft einfach, Content von Seiten zu entfernen, die euch nicht gehören, wenn ihr ihn selbst hochgeladen habt, etwa Fotos oder Content aus eurem Profil auf einer Social-Media-Website.
Wenn ihr etwas nicht selbst entfernen könnt, versucht
mit dem Webmaster der Site Kontakt aufzunehmen
und bittet ihn, den Content von der Site zu nehmen.
Nachdem die entsprechende Seite von euch oder von dem Webmaster entfernt oder angepasst wurde, könnt ihr die Entfernung des Contents aus den Google-Suchergebnissen mithilfe des
Tools zum Entfernen von Webseiten
beschleunigen.
Aktiv Informationen anbieten
Manchmal ist es nicht möglich, mit dem Webmaster in Kontakt zu treten, oder der Webmaster weigert sich, den entsprechenden Content offline zu nehmen. Wenn jemand beispielsweise eine negative Rezension über euer Unternehmen auf einer Bewertungs-Website für Verbraucher postet, will diese Website den Content wahrscheinlich beibehalten. Wenn euch die Entfernung des Contents von der Original-Website nicht möglich ist, könnt ihr ihn diesen Content wahrscheinlich auch nicht vollkommen aus den Google-Suchergebnissen verbannen. Stattdessen könnt ihr versuchen, die Sichtbarkeit des Contents in den Suchergebnissen zu vermindern, indem ihr aktiv nützliche und positive Informationen über eure Person oder euer Unternehmen anbietet. Falls ihr in der Lage seid, mit dem Content, den ihr Leuten gerne zeigen möchtet, die ungeliebten Inhalte zu übertreffen, könnt ihr den Schaden, den negativer oder peinlicher Content eurer Reputation zufügt, reduzieren.
Ihr könnt positiven Content auf verschiedene Arten veröffentlichen oder fördern:
Erstellt ein
Google-Profil
. Wenn jemand nach eurem Namen sucht, kann Google einen
Link zu eurem Google-Profil in den Suchergebnissen
anzeigen. User können dann diesem Link folgen und die Informationen, die ihr in eurem Profil bereitgestellt habt, abrufen.
Wenn ein Kunde eine negative Bewertung eures Unternehmens verfasst, könnt ihr einige andere Kunden, die mit dem Unternehmen zufrieden sind, bitten, ausgeglichenere Bewertungen online zu stellen.
Wenn ein Blogger unschmeichelhafte Fotos von euch veröffentlicht, nehmt einige Fotos, die euch lieber sind, und veröffentlicht sie in ein oder zwei Blogposts.
Wenn eine Zeitung einen Artikel über ein Gerichtsverfahren veröffentlicht, der euch in schlechtes Licht rückt, das Verfahren aber schlussendlich zu eurem Vorteil ausgeht, könnt ihr um ein Update des Artikels oder um einen Nachfolgeartikel zur Entlastung bitten. Letzteres mag weit hergeholt klingen, aber wir haben tatsächlich mehrere Anfragen von Leuten in genau dieser Situation erhalten.
Wir hoffen, dass diese Tipps hilfreich sind! Schaut doch im
Hilfeforum für Websuche
vorbei und teilt eure Erfahrungen oder Tipps zum Reputationsmanagement mit uns und anderen Usern!
Anmerkung: Falls ihr mehr zum Thema wissen wollt, startet doch beim Beginn einer Serie von ausführlichen Posts, die sich mit dem Thema "
Wie man unerwünschte Inhalte los wird
" beschäftigt!
Managing your reputation through search results (English version)
Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Jörg, Search Quality)
Tipps zum Umgang mit ungewollten Links
Montag, 19. Oktober 2009
Webmaster, die in den Google Webmaster-Tools ein wachsames Auge auf eingehende Links haben, fragen uns häufig, was sie mit ungewollten Links machen können. Manche Webmaster sind um den guten Ruf ihrer Websites besorgt, da sie befürchten, dass ihre Sites als Teil von so genannter schlechter Nachbarschaft betrachtet werden könnten.
Falls eure Site von ähnlich dubiosen Quellen angelinkt wird, besteht kein Grund zur Panik... lest einfach weiter!
Es trifft zu, dass Verlinkung für den Google-Algorithmus eine sehr wichtige Rolle spielt, allerdings ist es nur einer von vielen Faktoren. Hochwertige Inhalte - wir sagen das sehr oft und gern - und nützliche Tools oder Services spielen eine große Rolle. Die Struktur der Website, zum Beispiel das Vorkommen von Keywords im Seitentitel oder die Keyword-Dichte einer Seite, ist ein weiterer Faktor. Wenn ihr also seht, dass eine Website von schlechter Qualität zu eurer Site linkt, dann denkt auch daran, dass es neben Links noch viele andere Kriterien gibt, die dazu beiträgen, wie Google eine Website bewertet. Aus der Perspektive der User sind regelmäßige Aktualisierungen und guter Contet die ausschlaggebenden Dinge.
In einer perfekten Welt würde eine qualitativ hochwertige Webseite ausschließlich von anderen guten Seiten verlinkt. Verständlicherweise ist man als Webmaster auch besorgt darüber, was sich wohl Besucher einer Website denken, die diese Site über fragwürdige Links finden. Bei einer überschaubaren Anzahl an Links und anzunehmender Kooperationsbereitschaft kann es sinnvoll sein, den verantwortlichen Webmaster zu kontaktieren und um eine Entfernung der Links zu bitten. Dies ist eine Maßnahme, die Google nicht für Webmaster übernehmen kann. Google indexiert zwar den online verfügbaren Content, hat jedoch keine Kontrolle über diese Inhalte oder die Art und Weise wie eine Website auf eine andere verlinkt.
Sollte sich ein Webmaster wenig kooperationsbereit zeigen, ist es wahrscheinlich ratsam, sich nicht zu lange mit der Angelegenheit zu beschäftigen. Als Webmaster hat man meistens wenig Einfluss darauf, wer einen verlinkt. Webmaster haben allerdings volle Kontrolle über andere Faktoren, die für die Indexierung und das Ranking wichtig sind, wie zum Beispiel die oben angesprochene Seitenstruktur und der Content. Wie wäre es z. B. mit einer kleinen Usability-Studie unter Freunden und Verwandten? Es könnte sich ebenfalls lohnen, einfach auf Foren andere User nach ihrer Meinung zu der Website zu fragen. Es gibt auch Testtools die dabei helfen festzustellen, was Besucher anzieht oder was zu den meisten Transaktionen führt. Es kann ebenfalls nicht schaden, mal darüber nachzudenken, weshalb man bestimmte Seiten zu unseren Favoriten hinzufügt? Was gibt es auf diesen Seiten, was uns dazu verleitet sie nicht nur regelmäßig zu besuchen, sondern vielleicht sogar unseren Freunden zu empfehlen? Was ist die Schlussfolgerung daraus? Man kann davon ausgehen, dass dieser Aufwand für Webmaster lohnender ist, als wenn sie versuchen würden, auch den letzten fragwürdigen Link entfernen zu lassen.
Man sollte nicht vergessen, dass qualitativ minderwertige Links selten lange Bestand haben und meist recht schnell aus unseren Link-Graphen verschwinden. Es ist möglich, dass sie von unseren Algorithmen gar nicht mehr eingerechnet werden, selbst wenn sie noch bestehen. Wenn ihr sichergehen wollt, dass wir über derartige Links und die dazugehörigen Sites Bescheid wissen und sie entsprechend bewerten, könnt ihr auch einen Spam-Report oder einen Meldung über bezahlte Links einreichen.
Post von
Kaspar Szymanski
, Search Quality Strategist, Dublin & Susan Moskwa, Webmaster Trends Analyst, Kirkland
Duplicate Content zusammenführen
Freitag, 16. Oktober 2009
Duplicate Content auf der eigenen Website in den Griff zu kriegen kann eine ganz schöne Herausforderung sein. Websites wachsen; Funktionen werden hinzugefügt, verändert oder wieder entfernt - Inhalte kommen und gehen. Im Laufe der Zeit sammelt sich auf vielen Websites überflüssiger Müll in Form verschiedener URLs, die alle den gleichen Content liefern. Prinzipiell stellt Duplicate Content an sich kein Problem für eure Website dar, er kann jedoch dazu führen, dass es Suchmaschinen schwerer haben, den Content zu crawlen und zu indexieren. Außerdem kann es passieren, dass PageRank und ähnliche auf eingehenden Links basierende Informationen durch Seiten, die wir noch nicht als Duplikate identifiziert haben, verwässert werden, so dass eure bevorzugte Version einer Seite womöglich in der Google-Suche schlechter rankt.
Wie ihr mit Duplicate Content auf eurer Site umgehen könnt
Erkennt den Duplicate Content auf eurer Site
Der erste und gleichzeitig wichtigste Schritt ist, den Duplicate Content auf eurer Site zu erkennen. Eine einfache Methode dafür ist z. B. einen eindeutigen Textabschnitt von einer Seite zu nehmen und dann danach zu suchen (indem ihr die Suchergebnisse mittels des
site:-Operators
auf eure eigene Website beschränkt). Wenn ihr dabei mehrere Ergebnisse für den gleichen Content erhaltet, ist dies ein Zeichen von Duplizierung, die ihr euch dann näher anschauen könnt.
Bestimmt eure bevorzugten URLs
Noch bevor ihr an die Beseitigung der Duplicate Content-Probleme geht, solltet ihr die Struktur eurer bevorzugten URLs bestimmen. Welche URL würdet ihr für einen bestimmten Teil eures Contents bevorzugen?
Bleibt innerhalb eurer Site einheitlich
Sobald ihr die bevorzugten URLs bestimmt habt, solltet ihr sicherstellen, dass ihr diese Versionen an allen denkbaren Stellen eurer Site verwendet (auch in eurer
Sitemap-Datei
).
Verwendet 301-Weiterleitungen, wo es nötig und möglich ist
Leitet, falls möglich, duplizierte URLs mithilfe einer 301-Statusmeldung auf eure bevorzugten URLs weiter. Dies hilft Usern und Suchmaschinen dabei, eure bevorzugten URLs zu finden, falls sie auf den duplizierten URLs gelandet sind. Wenn eure Site über mehrere Domain-Namen erreichbar ist, wählt einen davon aus und verweist von den anderen mit einer passenden 301-Weiterleitung darauf - dabei solltet ihr direkt zur spezifischen Seite weiterleiten und nicht bloß auf die Root der Domain. Wenn ihr den Host-Namen sowohl mit www als auch ohne www unterstützt, wählt eine Version aus, gebt dies in den
Einstellungen zur bevorzugten Domain in den Webmaster-Tools
an und setzt eine entsprechende Weiterleitung.
Verwendet das
Link-Element rel="canonical
"
Wo 301-Weiterleitungen nicht möglich sind, kann uns das Link-Element rel="canonical" ein besseres Verständnis eurer Site und eurer bevorzugten URLs bieten. Die Verwendung dieses Link-Elements wird auch von den meisten anderen Suchmaschinen wie etwa
Ask.com
,
Bing
und
Yahoo!
unterstützt.
Verwendet das
Tool zur Parameterbehandlung
in den Webmaster-Tools
Bei Duplicate Content, der ganz oder zum Teil auf URLs mit Parametern basiert oder von URLs mit Parametern stammt, kann euch dieses Tool dabei helfen, uns über die wichtigen und unwichtigen Parameter eurer URLs aufzuklären. Weitere Informationen über dieses Tool findet ihr in
unserem Blogpost dazu
.
Und was ist mit der robots.txt-Datei?
Ein Punkt, der in dieser Auflistung fehlt, ist das Blockieren des Crawlings von Duplicate Content mithilfe der robots.txt-Datei.
Wir empfehlen mittlerweile, den Zugriff auf Duplicate Content auf eurer Site nicht zu blockieren - egal ob mittels robots.txt oder anderer Methoden.
Verwendet stattdessen das
rel="canonical" Link-Element
, unser
Tool zur Parameterbehandlung
oder 301-Weiterleitungen. Wenn der Zugang zu Duplicate Content gänzlich blockiert wird, betrachten Suchmaschinen diese URLs als separate, einzigartige Seiten, da sie nicht wissen können, dass es sich hierbei nur um verschiedene URLs für den gleichen Content handelt. Die bessere Methode ist es, diese Seiten crawlen zu lassen, sie aber mithilfe einer unserer empfohlenen Methoden klar als Duplikat zu kennzeichnen. Wenn ihr uns diese URLs crawlen lasst, wird Googlebot lernen, Duplikate direkt an der URL zu erkennen und sollte daraufhin in der Regel ein überflüssiges erneutes Crawling vermeiden. In den Fällen, wo Duplicate Content trotzdem noch dazu führt, dass wir zu viel von eurer Website crawlen, könnt ihr auch die
Crawling-Frequenz in den Webmaster-Tools
anpassen.
Wir hoffen, dass diese Methoden euch dabei helfen, den Duplicate Content auf eurer Website in den Griff zu kriegen! Weitere Informationen über Duplicate Content im Allgemeinen könnt ihr auch in unserer Hilfe für Webmaster finden. Falls ihr weitere Fragen habt, besucht doch einfach unser
Forum für Webmaster
.
Reunifying duplicate content on your website (English version)
Post von John Mueller, Webmaster Trends Analyst, Google Zürich (Übersetzung von Sven, Search Quality)
Abruf wie beim Googlebot und Malware-Details - jetzt in den Webmaster-Tools-Labs!
Mittwoch, 14. Oktober 2009
Wir sind froh darüber, begeisterte User zu haben, die uns sehr viele ausgezeichnete Verbesserungsvorschläge machen. Ab jetzt werden wir einige Features mit der Kennzeichnung "Labs" launchen, so dass wir schnellstmöglich von der Idee zum Produktiveinsatz gelangen und dabei sofort
Feedback
erhalten können. Die neuen Labs-Veröffentlichungen bieten die Möglichkeit, neue Funktionen auszuprobieren und viel früher im Entwicklungszyklus Feedback zu geben. Dies bedeutet aber auch, dass diese Funktionen, da sie nun in früheren Entwicklungsstadien verfügbar sind, nicht so robust sind und vielleicht manchmal Fehler aufweisen können.
Heute starten wir zwei coole Features:
Malware-Details
Abruf wie beim Googlebot
Malware-Details (entwickelt von Lucas Ballard)
In der Vergangenheit habt ihr euch vielleicht auf manuelle Tests,
unsere Safe Browsing API
und unsere
Malware-Hinweise
verlassen, um zu bestimmen, welche Seiten auf eurer Website möglicherweise Malware verbreiten. Manchmal kann das Auffinden von Schadcode sehr schwierig sein - selbst wenn bekannt ist, um welche Seiten es sich handelt. Wir freuen uns, nun ankündigen zu können, dass wir zukünftig Codesnippets von den Seiten anzeigen, die wir als schädlich einstufen. Wir hoffen, dass diese zusätzlichen Informationen dabei behilflich sein werden, Malware noch schneller zu entfernen und die Zahl der Durchgänge zu reduzieren, die manche Webmaster während des Review-Prozesses durchlaufen.
Weitere Informationen zu diesem coolen Feature sind auf unserem
Online Security Blog
zu finden.
Abruf wie beim Googlebot (entwickelt von Javier Tordable)
"Was sieht Googlebot, wenn er meine Seite aufruft?" ist eine Frage, die in unseren Foren oder auf Konferenzen von vielen Webmastern gestellt wird. Unsere Funktionen zur Anzeige der Keywords und die HTML-Vorschläge sind dabei behilflich zu verstehen, welchen Content wir aus einer Site extrahieren und ob wir dabei auf Probleme beim Crawling und der Indexierung stoßen. Wir haben aber festgestellt, dass es für User auch wichtig ist, eine Seite direkt angeben zu können und unmittelbar ein Feedback dazu zu erhalten, was Googlebot sieht. Diese Funktion sollte Usern eine Hilfe sein, die eine Site neu implementieren und dabei neue Techniken verwenden. Sie ist auch nützlich zum Entdecken von gehackten Seiten oder um festzustellen, weshalb eine Seite für bestimmte Keywords schlecht rankt.
Wir freuen uns riesig über diesen Launch und hoffen, dass ihr auch begeistert seid. :) Teilt uns doch mit,
was ihr davon haltet
!
Fetch as Googlebot and Malware details -- now in Webmaster Tools Labs! (English version)
Post von Sagar Kamdar, Product Manager, Webmaster Tools (Übersetzung von Sven, Search Quality)
Ein Vorschlag, AJAX crawlbar zu machen
Mittwoch, 14. Oktober 2009
Wir möchten heute gerne einen neuen Standard vorschlagen, um AJAX-basierte Websites crawlbar zu machen. Sowohl Webmaster als auch User können davon profitieren, auf AJAX basierende dynamische und interaktive Websites in den Suchergebnisse jeder Suchmaschine, die dies unterstützt, zugänglich zu machen. Es würde unserer Ansicht nach das Web entscheidend verbessern, diesen Content crawl-und indexierbar zu machen.
AJAX-basierte Websites sind zwar bei Usern beliebt, Suchmaschinen ist es jedoch traditionell nicht möglich, auf diesen Content zuzugreifen. Unsere letzte Untersuchung hat ergeben, dass fast 70 % der uns bekannten Websites in irgendeiner Form JavaScript verwenden. Natürlich handelt es sich bei der Mehrheit dieses JavaScript nicht um AJAX, aber je mehr Suchmaschinen AJAX crawlen und indexieren könnten, desto mehr Entwickler könnten so genannte "rich" Features zu ihren Websites hinzufügen und immer noch in Suchmaschinen auftauchen.
Einige der Ziele unseres Vorschlags sind:
Geringe Anpassungen bei einer wachsenden Website
User und Suchmaschinen sehen denselben Content (kein Cloaking)
Suchmaschinen können User direkt auf die AJAX-URL verweisen (keine statische Kopie)
Sitebesitzer können ueberpruefen, ob ihre AJAX-Website richtig erscheint und somit, ob der Crawler Zugriff auf den gesamten Content hat
Hier ist unser Vorschlag, wie Suchmaschinen AJAX crawlen und indexieren könnten:
Leichte Veränderung der URL-Teile für statusabhängige AJAX-Seiten
Statusabhängige AJAX-Seiten zeigen denselben Content, sofern direkt auf sie zugegriffen wird. Diese Seiten könnten in Suchergebnissen auftauchen. Anstelle einer URL wie
http://example.com/page?query#state
, schlagen wir vor, einen Token hinzufügen, der es ermöglicht, diese URLs zu erkennen:
http://example.com/page?query#[FRAGMENTTOKEN]state
. Basierend auf einer Untersuchung der URLs, die es zur Zeit im Web gibt, schlagen vor, "!" (ein Ausrufungszeichen) als den Token hierfür zu verwenden. Die URL, die in Suchergebnissen gezeigt werden könnte, wäre dann:
http://example.com/page?query#!state
.
Verwendung eines Browsers ohne GUI, der einen HTML-Snapshot an euren Webserver ausgibt
Der GUI-freie Browser wird dazu verwendet, auf AJAX-Seiten zuzugreifen und HTML-Code basierend auf dem Endzustand im Browser zu generieren. Nur speziell getaggte URLs werden an den GUI-freien Browser zur Verarbeitung weitergegeben. Da dies auf der Serverseite passiert, hat der Websitebesitzer Kontrolle über den generierten HTML-Code, und er kann leicht verifizieren, dass der gesamte JavaScript ordnungsgemäß ausgeführt wird. Ein Beispiel für einen solchen Browser ist
HtmlUnit
, ein Open-Source Browser ohne GUI für Java-Programme.
Escapen von Statusinformationen, damit Suchmaschinen-Crawler auf diese URLs zugreifen können
Da URL-Fragmente nie ohne Anfrage zu Servern geschickt werden, ist es notwendig, die URL, die zum Seitenaufruf verwendet wird, leicht zu modifizieren. Gleichzeitig wird dadurch dem Server mitgeteilt, mit dem GUI-freien Browser HTML-Code zu generieren, anstelle die Seite mit JavaScript widerzugeben. Andere existierende URLs - wie etwa die, die von Usern verwendet werden - würden außerhalb des GUI-freien Browsers normal verarbeitet werden. Wir schlagen vor, die Statusinformation mit einem Escape-Zeichen zu versehen und sie zu den Query-Parametern mittels eines Token hinzuzufügen. Um auf das vorherige Beispiel zurückzugreifen, eine derartige URL könnte
http://example.com/page?query&[QUERYTOKEN]=state
sein. Basierend auf unserer Analyse der URLs im Web schlagen wir vor, "_escaped_fragment_" als Token zu verwenden. Die vorgeschlagene URL wäre dann
http://example.com/page?query&_escaped_fragment_=state
.
Anzeige von Original-URLs in den Suchergebnissen
User sollten direkt auf die AJAX-basierten Seiten zu verwiesen werden, um eine bessere User-Erfahrung zu bieten. Dies kann erreicht werden, indem die Original-URL (wie etwa
http://example.com/page?query#!state
aus unserem vorherigen Beispiel) in den Suchergebnissen gezeigt wird. Suchmaschinen können überprüfen, dass der indexierbare Text, der an Googlebot zurückgegeben wird, derselbe oder zumindest ein Auszug des Textes ist, der an die User ausgegeben wird.
(Grafik von Katharina Probst)
Zusammenfassend: Wenn wir von einer statusabhängigen URL wie z. B.
http://example.com/dictionary.html#AJAX
ausgehen, so könnte diese für Crawler und User als
http://example.com/dictionary.html#!AJAX
aufrufbar sein, und sie könnte als
http://example.com/dictionary.html?_escaped_fragment_=AJAX
gecrawlt werden. Die URL würde Usern dann wie folgt gezeigt und als solche aufrufbar sein:
http://example.com/dictionary.html#!AJAX
Hier findet ihr die Original-Präsentation
.
Wir arbeiten zur Zeit an der Implementierung eines Prototypen. Euer Feedback ist jederzeit willkommen - bitte postet eure Kommentare hier oder in unserem
englischsprachigen Diskussionsforum für Webmaster
. Danke für euer Interesse daran, AJAX-basierte Websites für Suchmaschinen erreichbar zu machen!
A proposal for making AJAX crawlable (English version)
Vorschlag von Katharina Probst, Bruce Johnson, Arup Mukherjee, Erik van der Poel und Li Xiao, Google
Post von John Mueller, Webmaster Trends Analyst, Google Zürich (Übersetzung von Claudia, Search Quality)
Neues Tool zur Parameterbehandlung bei Duplicate Content
Dienstag, 13. Oktober 2009
Duplicate Content beschäftigt Webmaster und folglich unseren Blog schon seit Jahren. Einer unserer
ersten Posts
erschien im Webmaster-Blog im März 2007 zu genau diesem Thema und auch kürzlich haben wir
uns wieder damit auseinandergesetzt
. Über die letzten Jahre haben wir Tools und Tipps zur Verfügung gestellt, damit Webmastern Kontrolle darüber haben können, welche URLs wir crawlen und indexieren. So haben wir beispielsweise folgende Maßnahmen vorgestellt:
Die Verwendung von 301-Weiterleitungen
Das Festlegen der
bevorzugten Domain (mit oder ohne "www")
Die Möglichkeit
Google über Domainänderungen zu informieren
rel="canonical"
Wir freuen uns ein weiteres Feature ankündigen zu können, das den Umgang mit Duplicate Content erleichtern sollte: Parameterbehandlung. "Parameter Handling", wie es auf Englisch genannt wird, bietet euch die Möglichkeit zu sehen, bei welchen Parametern Google davon ausgeht sie ignorieren oder eben nicht ignorieren zu können. Jetzt könnt ihr unsere Annahmen - wenn notwendig - überschreiben.
Schauen wir uns nochmal das
alte Beispiel
von der
Website, die Fruchtgummi in Fischform verkauft
, an. Stellt euch vor, dass die von euch bevorzugte Fassung der URL und ihres Contents so aussieht:
http://www.example.com/product.php?item=swedish-fish
Ihr macht aber vielleicht denselben Content auch auf anderen URLs verfügbar, abhängig davon, wie User sich auf eurer Website bewegt haben. Es könnte auch sein, dass euer Content-Managment-System Parameter wie beispielsweise Session-IDs vergibt:
http://www.example.com/product.php?item=swedish-fish&category=gummy-candy
http://www.example.com/product.php?item=swedish-fish&trackingid=1234&sessionid=5678
In den Einstellungen zur Parameterbehandlung könnt ihr nun unserem Crawler mitteilen, dass die Parameter /category/, /trackingid/ und /sessionid/ ignoriert werden sollen. Die Umsetzung dieser Vorschläge kann zu einem effektiveren Crawling eure Site beitragen - und zu weniger Duplicate URLs.
Seit dem Launch des Features wurden die folgenden Fragen oft gestellt:
Sind die Vorschläge ein Hinweis oder bindend?
Die Vorschläge sind Hinweise. Wir bemühen uns, sie zu berücksichtigen, aber es kann vorkommen, dass die Vorschläge einer Website eher schaden als nutzen würden.
Wann sollte Parameterbehandlung statt rel="canonical" verwendet werden?
rel="canonical" ist hilfreich, um Dupicate Content-Probleme in den Griff zu kriegen, und wurde auf breiter Basis angenommen. Es gibt die folgenden Unterschiede:
rel="canonical" muss auf jeder Seite vorhanden sein. Parameterbehandlung geschieht auf Host-Ebene.
rel="canonical" wird von vielen Suchmaschinen verwendet.
Parameterbehandlungsvorschläge gelten nur für Google.
Verwendet also die Option, die für euch am meisten Sinn macht. Es ist auch kein Problem auf beides zu setzen, wenn ihr besonders gründlich sein wollt.
Werft doch auch einen Blick auf die
Parameterbehandlung in der Hilfe für Webmaster
.
Wie immer freuen wir uns über
Feedback
zum neuen Feature!
New parameter handling tool helps with duplicate content issues (English version)
Post von Tanya Gupta und Ningning Zhu, Software Engineers (Übersetzung von Jörg, Search Quality)
Webmaster-Tools: Änderungen bei der Bestätigung von Websites
Donnerstag, 8. Oktober 2009
Falls ihr die
Webmaster-Tools
verwendet, seid ihr sicher damit vertraut, wie ihr bestätigen könnt, Besitzer einer Website zu sein. Ihr könnt einfach ein bestimmtes Meta-Tag oder eine Datei auf euren Server laden und auf einen Button klicken, dann seid ihr als Besitzer verifiziert. Wir haben neulich ein paar kleine Verbesserungen daran vorgenommen und glauben, dass der Prozess jetzt noch einfacher und verlässlicher für euch ist.
Die erste Änderung ist eine Verbesserung der Überprüfung mittels eines Meta-Tags. Früher war dieses Meta-Tag teilweise an die E-Mail-Adresse des Google-Kontos gebunden. Das bedeutete, dass mit der Änderung der E-Mail-Adresse in eurem Konto, eure Meta-Tags ebenfalls angepasst wurden (und damit alle Sites mit dem alten Meta-Tag wieder unbestätigt waren). Wir haben eine neue Version des Meta-Tags zur Überprüfung der Inhaberschaft einer Site erstellt, die jetzt nicht mehr an eine E-Mail-Adresse gebunden ist. Sobald ihr mittels eines neuen Meta-Tags eine Site bestätigt, wird diese nicht mehr "unbestätigt", falls ihr eure E-Mail-Adresse ändert.
Wir haben auch die Bestätigung mittels einer HTML-Datei überarbeitet. Früher konntet ihr die Bestätigung mittels einer HTML-Datei nicht nutzen, falls eure Site für nicht existierende Seiten einen anderen Statuscode als 404 lieferte. Ein richtig konfigurierter Webserver gibt für nicht vorhandene URLs eine 404-Meldung zurück - es stellte sich aber heraus, dass viele Sites diese Bedingung nicht erfüllen. Wir haben deshalb die dateibasierte Bestätigung vereinfacht und die Prüfung auf nicht-vorhandene URLs entfernt. Ihr könnt jetzt einfach die HTML-Datei, die wir bereitstellen, herunterladen und unverändert auf eure Site hochladen. Wir überprüfen dann den Inhalt dieser Datei und das war's auch schon, falls die enthaltenen Daten korrekt sind.
Wir hoffen, dass diese Änderungen den Bestätigungsprozess etwas angenehmer machen. Falls ihr eure Site bereits mit den alten Methoden bestätigt habt: Kein Problem! Eure bisherige Verifizierung bleibt bestehen. Diese Neuerungen betreffen ausschließlich neue Bestätigungen.
Einige Websites und Softwarelösungen bieten Funktionen, die euch bei der Bestätigung behilflich sind, indem sie das Meta-Tag für euch einbinden. Es ist eventuell erforderlich, diese Lösungen zu aktualisieren, damit sie mit unseren neuen Methoden funktionieren. So kann z. B.
Google Sites
gegenwärtig nicht mit der neuen Meta-Tag-Bestätigung arbeiten. Uns ist das Problem bekannt und wir arbeiten an einer möglichst schnellen Lösung. Falls ihr andere Dienste entdeckt, die ähnliche Probleme haben, wendet euch bitte an den Anbieter, um das Problem zu lösen. Wir möchten uns entschuldigen, falls dies zu Unannehmlichkeiten führt.
Das ist nur der Anfang einer Reihe an Verbesserungen, an denen wir im Rahmen der Bestätigung von Websites arbeiten. Als kleiner Vorgeschmack auf ein zukünftiges Update: Wir werden die E-Mail-Adressen aller bestätigten Besitzer einer Site für alle bestätigten Besitzer dieser Site sichtbar machen. Wir glauben, dass es so einfacher wird, Sites mit mehreren bestätigten Besitzern zu verwalten.
Falls ihr eine E-Mail-Adresse verwendet, die die anderen Besitzer eurer Site lieber nicht sehen sollten: Jetzt wäre ein guter Zeitpunkt, sie zu ändern! ;)
Changes to website verification in Webmaster Tools (English version)
Post von Sean Harding, Software Engineer (Übersetzung von Sven, Search Quality)
Übersetzt eure Website mit Google: Schafft euch ein weltweites Publikum
Mittwoch, 7. Oktober 2009
Wie lange würde es dauern, den gesamten Content des weltweiten Webs in 50 Sprachen zu übersetzen? Selbst wenn alle Übersetzer der Welt rund um die Uhr arbeiten würden - angesichts der Rate, mit der im Moment Online-Content erstellt wird, und der unglaublichen Masse an Daten im Netz würde es Hunderte von Jahren dauern, nur einen Bruchteil dessen zu übersetzen.
Wir freuen uns daher, euch heute das neue
Website-Übersetzer-Gadget
von Google vorzustellen, womit ihr den Content eurer Site in 51 Sprachen zur Verfügung stellen könnt. Wenn User eure Seite besuchen, dann werden sie, sofern sich ihre Sprache (bestimmt durch ihre Browser-Settings) von der Sprache eurer Seite unterscheidet, dazu veranlasst, die Seite automatisch in ihre Sprache zu übersetzen. Falls die Sprache eurer Besucher sich mit der eurer Seite deckt, dann erscheint kein Übersetzungs-Banner.
Nachdem ihr den Übersetzungs-Button angeklickt habt, erscheinen die automatischen Übersetzungen direkt auf eurer Seite.
Es ist einfach zu installieren - es genügt, ein kurzes Snippet per Cut & Paste in eure Webseite einfügen, um die weltweite Reichweite eures Blogs oder eurer Website zu erhöhen.
Automatische Übersetzung ist bequem und sie hilft Usern, sich einen schnellen Eindruck der Seite zu verschaffen. Natürlich ist das kein perfekter Ersatz für die Kunst der professionellen Übersetzung. Kürzlich war der Internationale Übersetzer-Tag, und wir würden gerne die Gelegenheit nutzen, die Leistungen aller Übersetzer weltweit zu feiern. Diese Übersetzer spielen eine entscheidenende Rolle bei der Ermoeglichung globaler Kommunikation, und angesichts des schnellen Wachstums und der zunehmenden Leichtigkeit, mit der auf digitale Inhalte zugegriffen werden kann, ist der Bedarf größer als je zuvor. Wir hoffen, dass professionelle Übersetzer sowie Übersetzungs-Tools wie das
Google Translator Toolkit
und dieses
Website-Übersetzer-Gadget
weiterhin dazu beitragen werden, Inhalte weltweit für jedermann ein Stück zugänglicher zu machen.
Translate your website with Google: Expand your audience globally (English version)
Post von Jeff Chin, Product Manager, Google Translate (Übersetzung von Claudia, Search Quality)
Wird Anchor-Text bei einer 301-Weiterleitung berücksichtigt?
Montag, 5. Oktober 2009
Im heutigen Video antwortet Matt Cutts auf die Frage, ob der Anchor-Text bei 301-Redirects im Normalfall übernommen wird.
Transkript:
Mharris aus New York fragt:
"Wird Anchor-Text durch alle 301-Weiterleitungen übernommen? Gibt es eine Penalty für Websites, die beim Linkaufbau nur darauf setzen?"
Normalerweise wird der Anchor-Text übernommen, wenn eine 301-Weiterleitung stattfindet, aber wir versprechen nicht, dass dies jedesmal geschieht.
Die Frage ist ja: wird er immer übernommen? Nicht unbedingt. Wir behalten uns das Recht vor, nicht nur Links zu werten und wie wir die Bedeutung und den Trust von Links bestimmen, sondern ebenso den Trust, den wir Redirects zuordnen. Ich kann verraten, dass, falls ihr beim Linkaufbau nur auf 301-Redirects setzt, das ziemlich auffällig ist, weil wir alle Redirects, die uns unterkommen, loggen, genauso wie wir alle Links loggen.
Wenn also alle eure eingehenden Anchor-Texte durch 301-Weiterleitungen erfolgen, dann wird das ziemlich seltsam aussehen, besonders, weil jedes Mal wenn wir auf unsere Tools schauen, dies eine ziemlich ungewöhnliche Sache ist. Deshalb ist mein Rat, eine gute Website zu erstellen, die natürliche Links auf Grund des fantastischen Contents anzieht, und sich nicht darüber den Kopf zu zerbrechen: "Oh, kann ich auf diese Methode etwas PR oder Anchor-Text kriegen, ohne dass die Suchmaschinen das mitbekommen, und von der andere Leute nichts wissen?" Denn wenn ihr organische, langbestehende Links erhaltet, Links, die freiwillig gegeben werden, weil ihr etwas Außergewöhnliches bietet, dann sind das die Links, die normalerweise am längsten Bestand und am meisten Gewicht haben.
Übersetzung von Jörg, Search Quality Team
Google Friend Connect: Statt FTP einfach loslegen!
Montag, 5. Oktober 2009
Zur Aktivierung von Features und Gadgets von Google Friend Connect war es bisher erforderlich, eine Datei auf die betreffende Website hochzuladen. Ab sofort haben wir das Friend-Connect-Setup extrem vereinfacht. Loggt euch einfach bei
www.google.com/friendconnect
ein, gebt den Namen und die URL eurer Website an, und schon könnt ihr mit Friend Connect loslegen.
Um mehr über die neuesten Updates zu Google Friend Connect zu erfahren, werft doch einen Blick auf unseren
Post auf dem englischsprachigen Google Social Media Web Blog
!
Google Friend Connect: No more FTP... just get started! (English version)
Post von Mussie Shore, Product Manager, Google Friend Connect (Übersetzung von Jörg, Search Quality Team)
Mehr über PageRank-Sculpting
Freitag, 2. Oktober 2009
Im heutigen Video beantwortet Matt Cutts eine Frage zum Thema PageRank-Sculpting, also der "Formung/Modellierung" des PR einer Site.
Transkript:
Rand aus Brighton, und das könnte Rand Fishkin sein, möchte wissen:
"Was ist deine Meinung zu 'PR-Sculpting' (also PR-Formung)? Nützlich und zu empfehlen, falls richtig gemacht oder doch unmoralisch?"
Nun, ich würde nicht sagen, dass es unmoralisch ist, denn es ist ja alles auf eurer Website - ihr könnt natürlich bestimmen, wie der PR innerhalb eurer Site fließen soll. Ich würde sagen, dies ist nicht das Erste, an dem ich arbeiten würde.
Ich würde daran arbeiten, mehr Links zu bekommen und hochwertigen Content zu bieten - das sind immer die Dinge, die ihr als Erstes beachten solltet. Aber wenn ihr bereits einen bestimmten Stand an PR erreicht habt, dann könnt ihr natürlich daran arbeiten, den PageRank zu "formen".
Ich würde das nicht unbedingt mittels eines nofollow-Tags machen - wobei ihr natürlich ein nofollow z. B. auf eine Login-Seite oder etwas ähnlich spezifisches setzen könnt, dort wo sich ein Robot z. B. niemals "einloggen" würde. Aber eine noch effektivere Art des PR-Sculpting ist z. B. auszuwählen, auf welche Seiten ihr von eurer Startseite verlinkt.
Also angenommen, ihr habt zwei verschiedene Seiten - auf der einen ein Produkt, welches euch bei jedem Verkauf immer gute Einnahmen bringt und ein anderes Produkt mit dem ihr immer z. B. nur 10 Cent verdient. In dem Fall würdet ihr sicher die erste Seite hervorheben und sicherstellen wollen, dass sie genug PR bekommt und gut rankt. Dies ist also die Seite auf die ihr eher von eurer Homepage verlinken würdet.
Wenn Leute über PR-Sculpting sprechen, ist meist von nofollow und solchen Sachen die Rede. Aber eigentlich zählen dazu auch, wie ihr eure Site erstellt, die Architektur eurer Site und wie ihr zwischen euren Seiten verlinkt ist auch eine Art von PR-Sculpting.
Es ist also definitiv nichts Unmoralisches dabei, wenn ihr gezielt entscheidet, wie ihr all die Links auf eure Site durch die Verlinkung innerhalb eurer Site verteilen wollt. Ich denke aber, wenn ihr mehr Links bekommt, weil ihr ausgezeichneten Content habt, dann ist das ein besserer Weg - um gut zu ranken - das PR-Sculpting ist dann eher zweitrangig dabei. Es kann nützlich sein, aber es wäre nicht das Erste, um das ich mich kümmern würde.
Übersetzung von Sven, Search Quality Team
Anchor in den neuen Suchergebnis-Snippets
Donnerstag, 1. Oktober 2009
Zu den meisten Suchergebnissen zeigt Google einige Zeilen Text an, um einen Eindruck davon zu geben, wovon die jeweilige Seite handelt. Wir nennen das ein "Suchergebnis-Snippet". Vor kurzem haben wir diese Snippets um zwei neue Funktionen erweitert. Sie sollten es einfacher machen, Informationen zu finden, die irgendwo in einer umfangreichen Seite stecken.
Normalerweise zeigt ein Suchergebnis-Snippet an, wie die gesamte Seite in Bezug zur Suchanfrage steht, indem es Content wiedergibt, der auf der Seite nahe bei und rund um den Suchbegriff angeordnet ist. Aber was, wenn nur ein Abschnitt der Seite für die Suchanfrage relevant ist?
In dem Fall können die beiden neuen Features helfen, indem sie innerhalb des Snippets Links zu entsprechenden Abschnitt der Seite zur Verfügung stellen. So wird der gesuchte Content schneller und leichter zugänglich. Stellt euch beispielsweise vor, dass ihr Informationen zu Transfetten und Cholesterin sucht und zu deren Auswirkungen auf den Körper. Falls ihr mit einem allgemeinem Begriff wie [
transfette
] beginnt, liefert Google viele Resultate mit jeder Menge Informationen über Transfette im Allgemeinen, inklusive dem folgenden Suchergebnis von Wikipedia.
Innerhalb dieses Snippets findet ihr Links zu den relevanten Bereichen der Seite. Weil wir uns in unserem Beispiel dafür interessieren, wie sich diese Fette auswirken, können wir annehmen, dass unter "
Wirkung auf den Menschen
" die entsprechende Information zu finden ist. Klickt man auf den Link, landet man direkt in diesem Abschnitt inmitten der Seite.
Gehen wir jetzt mal davon aus, dass ihr besonders an Informationen über gutes Cholesterin interessiert seid und in welchen Mengen es gesund ist. Wir verwenden einen noch spezifischeren (und in diesem Fall englischsprachigen) Suchbegriff: [
good cholesterol level
]. Das erste Resultat ist von der American Heart Association und enthält jede Menge Information über Cholesterinwerte. Die exakte Information über "good (HDL) cholesterol", befindet sich allerdings in einer Sektion namens "Your HDL (good) cholesterol level" Weil die Suchanfrage sehr spezifisch war, bietet hier das Snippet die Option zu diesem Abschnitt der Website "zu springen".
Klicken wir auf "Zu
Your HDL (good) cholesterol level
springen:" landen wir direkt bei der relevanten Information innerhalb der Seite.
Klicken wir stattdessen auf den Titel des Snippets ("What Your Cholesterol Levels Mean") landen wir wie gewohnt am Kopf der Seite.
Wir generieren diese Links rein algorithmisch - auf Basis der Seitenstruktur. Deshalb können sie für jede Website angezeigt werden. (Selbstverständlich ist da kein Geld im Spiel und ihr könnt die Links nicht für Geld erwerben.) Es gibt jedoch einige Dinge, die ihr beachten könnt, um die Wahrscheinlichkeit zu erhöhen, dass sie für eure Seiten auftauchen. Erstens: stellt sicher, dass lange Seiten, die von mehreren Themen handeln, gut strukturiert und in klare und logisch nachvollziehbare Abschnitte unterteilt sind. Zweitens: jeder Abschnitt sollte einen dazugehörigen Anchor mit aussagekräftigen Namen haben (also beispielsweise nicht nur "Abschnitt 2.1"). Außerdem sollte innerhalb der Seite ein Inhaltsverzeichnis, das zu den einzelnen Anchors linkt, vorhanden sein. Die neuen Links im Snippet erscheinen nur bei relevanten Suchanfragen. Deshalb werdet ihr sie nicht immer sehen, sondern nur, wenn wir meinen, dass ein Link zu einem Abschnitt bei einer bestimmten Suchanfrage wirklich hilfreich für die User ist.
Jump to the information you want right from the search snippets (English version)
Using names anchors to identify sections on your pages (English version)
Post von Chris Kern und Raj Krishnan, Snippets Team (Übersetzung von Jörg, Search Quality Team)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster