Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Die OAI-PMH Unterstützung in Sitemaps geht in den Ruhestand
Donnerstag, 24. April 2008
Als wir die Sitemaps gelauncht haben, haben wir auch das
Open Archives Initiative Protocol for Metadata Harvesting
(OAI-PMH) 2.0 Protokoll unterstützt. In der Zwischenzeit haben wir allerdings festgestellt, dass die Informationen, die wir durch die Unterstützung von OAI-PMH gewinnen, in einem Missverhältnis zu den eingesetzten Ressourcen stehen. Derzeit verwenden weniger als 200 Websites OAI-PMH für Google Sitemaps.
Um eure Website in Zukunft noch besser zu erfassen, haben wir uns entschieden, ab Mai 2008 ausschließlich das Standard-XML-Sitemapformat zu unterstützen. Wir sind gerade dabei, Seiten, die OAI-PMH verwenden, zu benachrichtigen und auf die Änderungen aufmerksam zu machen.
Solltet ihr OAI-PMH als Google Sitemap-Feed verwenden, würden wir uns freuen, wenn ihr zum gängigen
XML-Sitemapformat
wechselt. Dieses Format wird von allen großen Suchmaschinen unterstützt und hilft dabei sicherzustellen, dass alle euren neuen und aktualisierten Content finden, sobald ihr ihn bereitstellt.
Wenn ihr Fragen zur Umstellung auf XML-Sitemap-Dateien habt, könnt ihr gerne im
Google Diskussionsforum für Webmaster
posten.
Retiring support for OAI-PMH in Sitemaps (English version)
Post von John Mueller, Webmaster Trends Analyst, Google Zürich (Übersetzung von Michael, Search Quality)
Recap von der SMX München
Dienstag, 22. April 2008
Wir (Stefanie, Jan, Kaspar, John und Uli) sind wohlbehalten aus der Hauptstadt Bayerns, dem schönen München, zurückgekehrt, wo wir an der Search Marketing Expo 2008 teilgenommen haben. Es war eine interessante Sache, den Panels zuzuhören. Worüber wir uns allerdings am meisten gefreut haben, war die Gelegenheit, mit euch, den Webmastern, sprechen zu können. Uns wurden viele Fragen gestellt in Sachen Suche, Crawlen, Indexieren, Ranking und bezüglich des berüchtigten irischen Wetters. ;-)
Falls ihr keine Gelegenheit hattet, uns auf der SMX kennen zu lernen, möchten wir uns vorstellen (von links nach rechts): Kaspar, Stefanie, Jan und John.
Dies sind einige der Fragen, die uns Konferenzteilnehmer gestellt haben. Auch allen anderen Webmastern wollen wir unsere Antworten nicht vorenthalten.
F: Wann empfiehlt sich die Option zur geografischen Ausrichtung einer Site in den Webmaster-Tools?
Stefanie: Die Option zur
geografischen Ausrichtung
in den
Webmaster-Tools
ist für Inhaber einer Site mit einer generischen (d. h. länderunspezifischen) Top-Level-Domain wie .com oder .eu nützlich, wenn ihr mit eurer Site User ansprechen möchtet, die speziell nach Suchergebnissen aus einem bestimmten Land suchen (z. B. User, die ihre Suchanfrage auf Seiten aus Österreich einschränken). Unterscheidet sich der geografische Standort eures Webservers von demjenigen eurer Zielgruppe, dann dient das sogenannte Geo-Targeting als eines der Signale für die Bestimmung der geografischen Zielregion einer Website. Trifft das auf eure Site zu, dann macht von dieser Option in den Webmaster-Tools Gebrauch. Beachtet bitte, dass es einige Zeit dauern kann, bis diese geografische Verknüpfung tatsächlich in unseren Suchergebnissen sichtbar ist.
Derzeit besteht für Websites mit einer länderspezifischen Top-Level-Domain wie etwa .de oder .at keine Möglichkeit, die geografische Präferenz zu ändern, da in diesem Fall die in der Länderkennung der Domain enthaltene Information automatisch als Indikator für die geografische Zielregion verwendet wird.
Zur Verdeutlichung des Effekts von Geo-Targeting nehmen wir einmal an, dass ihr eine Shopping-Website mit einer .com Top-Level-Domain habt, aber eure Produkte ausschließlich innerhalb Deutschlands vertreibt. Hier empfiehlt es sich, Deutschland als geografisches Ziel festzulegen. Dies ist ein Hinweis für Google, dass die Website besonders für User relevant ist, die nach Content aus Deutschland suchen.
Wollt ihr dagegen User ansprechen, die einem bestimmten Sprachraum angehören (z. B. die gesamte deutschsprachige Bevölkerung), dann habt ihr zwei Möglichkeiten: Entweder belasst ihr einfach die Voreinstellung und verzichtet auf eine Verknüpfung eurer Website mit einem geografischen Standort. Oder ihr fügt für jedes deutschsprachige Land einzeln eine Subdomain oder ein Unterverzeichnis in den Webmaster-Tools hinzu und legt für jede URL gesondert das Geo-Targeting fest. Letztere Option ist allerdings nur dann zu empfehlen, wenn ihr tatsächlich in einem bestimmten Land vertreten seid.
F: Wie kann ich meinen Content aus dem Google-Index entfernen?
Stefanie: Es gibt verschiedene alternative Möglichkeiten zur
Entfernung von Content
aus dem Google-Index:
Stellt sicher, dass euer Server mit einer 404 oder 410 Statusmeldung antwortet, wenn auf die Seite zugegriffen wird.
Fügt den Meta-Tag
noindex
auf der Seite ein.
Verhindert das Crawlen der Seite mit Hilfe einer
robots.txt-Datei
. Für derartig geblockte Seiten wird Google umgehend das Crawlen einstellen. Bitte beachtet jedoch, dass es etwas länger dauern kann, bis ein Update des Index erfolgt und somit die URL aus dem Index entfernt wird.
Falls ihr eine schnelle Lösung sucht, dann könnt ihr das Tool zum Entfernen von URLs in den
Webmaster-Tools
verwenden. Im Allgemeinen führt dies zu einer Entfernung der URL innerhalb einiger Tage; allerdings kann die Löschung eines großen Umfangs von URLs etwas länger dauern.
Damit die Entfernung von Content erfolgreich ist, müsst ihr mit Hilfe einer der drei oben genannten Methoden sicherstellen, dass Google nicht mehr auf Seiten oder Bilder zugreifen kann. Sonst crawlt Googlebot beim nächsten Zugriff auf eure Site den Content erneut.
Es gibt Fälle, die eine
bestimmte Methode
erfordern:
Wenn ihr eure gesamte Site oder ein ganzes Verzeichnis entfernen wollt, dann müsst ihr diesen Content in eurer robots.txt-Datei blockieren.
Für die Entfernung der Cache-Version eurer Seite verwendet den Meta-Tag noarchive.
Innerhalb von 90 Tagen nach Beantragung auf Entfernung von Content könnt ihr den Content jederzeit in den Index
wiederaufnehmen
lassen. Falls ihr Content entfernt sehen möchtet, aber nicht Inhaber der entsprechenden Site seid, dann müsst ihr entweder Kontakt mit dem entsprechenden Webmaster aufnehmen oder unser
Tool zum Entfernen
von Webseiten verwenden.
F: Was kann ich tun, damit Google meine Webseite häufiger crawlt?
Uli: Es gibt Millionen von Internetseiten, alleine über 12 Millionen registrierte .de Domains. Deshalb können wir nicht alle mit maximaler Geschwindigkeit crawlen. Seid darum bitte nicht enttäuscht, wenn eure Seite nicht so häufig gecrawlt wird, wie ihr es gerne hättet.
Häufiges Crawlen hilft eurer Site auch gar nicht unbedingt. Vielleicht haben wir festgestellt, das die jetzige Crawl-Rate ausreichend ist, und häufigeres Crawlen nur unnötig Bandbreite eurer Seite beanspruchen würde.
Manchmal crawlen wir eine Seite mit geringerer Geschwindigkeit, um den Hostload in Grenzen zu halten. In diesem Fall geben wir euch in den Webmaster-Tools (Tools -> Crawling-Geschwindigkeit festlegen) die Möglichkeit, die Crawling-Geschwindigkeit auf "schneller" zu setzen.
Dadurch wird die Seite zwar nicht häufiger gecrawlt, aber bei jedem Crawlvorgang werden mehr Seiten gecrawlt und dadurch neue Seiten eventuell schneller indexiert.
F: Ist es in Ordnung, Links auszutauschen? Und ist es schlecht für mein Ranking, wenn ich über 100 Links auf einer Seite habe?
Uli: Dass Sites zueinander linken, ist eine der Grundlagen des Internets. Wenn man eine tolle Site sieht und meint, sie könnte auch für die Besucher der eigenen Site interessant sein, linkt man zu ihr. Aber es gibt auch Linktauschprogramme, bei denen Links nicht deshalb gesetzt werden, weil man die Site für gut und relevant hält, sondern um PageRank weiterzuleiten und so unsere Suchresultate zu manipulieren. Von derartigen Linktauschprogrammen raten wir dringend ab.
Das gleiche Prinzip gilt für den zweiten Teil der Frage. Es beeinflusst nicht zwingend das Ranking einer Seite, wenn sie zu so vielen Seiten verlinkt. Aber man sollte sich fragen, ob derart viele Links für den User nützlich sind oder ob es nicht zu einer "Informationsüberfrachtung" kommt. Vielleicht erhöht es die Benutzerfreundlichkeit, den Inhalt auf mehrere Seiten zu verteilen.
F: Der Toolbar PageRank meiner Site ist 0. Wurde meine Site abgestraft?
Jan: PageRank 0 an sich ist kein Zeichen einer Abstrafung. Vielleicht ist eure Site oder eine einzelne Webseite neu und hat noch keinen PageRank akkumuliert. Denkt daran, dass sich PageRank auf einzelne Webseiten bezieht und dass Änderungen der internen Seitenstruktur den angezeigten PageRank beeinträchtigen können. Falls der PageRank eurer Site jedoch plötzlich abgefallen ist und ihr Links kauft oder verkauft, dann könnte der Verlust des PageRanks ein erstes Signal sein, dass Google den Trust in eure Domain verliert. Bitte lest mehr über dieses Thema in Matt Cutts' Post über
Kauf und Verkauf von Links, die PageRank vererben
.
F: Bekomme ich eine Nachricht von Google, falls meine Site abgestraft wurde?
Jan: Das Erstellen eines Webmaster-Tools-Kontos und die Verifizierung eurer Site gibt euch Zugang zu Nachrichten von Google, die auf Verstöße gegen die Richtlinien für Webmaster hinweisen. Mehr Informationen und Details finden sich in unserem Post über das
Webmaster-Tools Nachrichten-Center
.
F: Die Anzahl der indexierten Seiten variiert, wenn ich die Site-Suche aufrufe. Ist das ein Fehler?
Kaspar: Das ist eine verbreitete Fehlannahme. Der Grund dafür, dass die Anzahl der angezeigten Seiten abweichen kann, liegt in der Infrastruktur, die Google verwendet, um Ergebnisse so schnell wie möglich darzustellen. Dafür werden die Suchresultate für jede einzelne Anfrage von dem zum gegebenen Zeitpunkt am nächsten gelegenen Data Center geliefert. Die Datenbanken der zahlreichen Data Center von Google können allerdings nicht gleichzeitig aktualisiert werden, weshalb leicht abweichende Suchergebnisse vorkommen können.
F: Kann ich etwas tun, damit Sitelinks zu meiner Site angezeigt werden?
Kaspar: Sitelinks werden algorithmisch generiert. Die zugrunde liegende Idee ist es, den Besuchern von großen Webauftritten die Navigation durch direkte Links zu erleichtern. Es gibt derzeit keine Möglichkeit, Sitelinks anzufordern, allerdings könnten eine übersichtliche Seitenstruktur und qualitativ hochwertige Inhalte dazu beitragen, dass Sitelinks generiert werden. Weitere Informationen zu diesem Thema gibt es
hier
.
F: Wenn ich nicht möchte, dass eine Suchanfrage bei der personalisierten Suche berücksichtigt wird, muss ich mich dann von meinem Google-Konto abmelden?
Kaspar: Nein, das ist nicht notwendig. Die personalisierte Suche kann mit Hilfe der Einstellungen im Google-Konto gestoppt werden. Es besteht auch die Möglichkeit, durch das Hinzufügen des &pws=0 Parameters am Ende der URL eine einzelne Suchanfrage von der personalisierten Suche auszuschließen. Beispielsweise würde
diese Anfrage
in die Webhistory eines eingeloggten Benutzers eingehen, während es bei
dieser
nicht der Fall wäre.
Wir sind gespannt, was eure Eindrücke von der Veranstaltung sind und freuen uns auf eure Kommentare! :-) Und natürlich würden wir uns freuen, neue Mitglieder in unserem
Forum für Webmaster
begrüßen zu dürfen.
Post von Stefanie Dürr, Kaspar Szymanski, Jan Backes und Uli Lutz
Best Practices beim Umzug eurer Site
Donnerstag, 17. April 2008
Ihr plant den Umzug eurer Website auf eine neue Domain? Viele Webmaster haben Angst vor diesem Vorgang. Wie macht man es, ohne dem Ranking der Website in den Google-Suchergebnissen zu schaden?
Euer Ziel ist es, einen unsichtbaren und nahtlosen Übergang für die Benutzer zu schaffen sowie sicherzustellen, dass Google erkennt, dass eure neuen Seiten die gleichen Qualitätsmerkmale wie die Seiten auf eurer bisherigen Website erhalten. Wenn ihr mit eurer Site umzieht, können ärgerliche 404-Fehler (Datei nicht gefunden) der Nutzererfahrung schaden und die Leistung eurer Site in den Google-Suchergebnissen beeinträchtigen.
Schauen wir uns den Umzug auf eine neue Domain genauer an (zum Beispiel ein Wechsel von www.example.com zu www.example.org). Dieser Vorgang unterscheidet sich vom Wechsel der IP-Adresse; lest
diesen Post
für mehr Informationen darüber.
Hier sind die wesentlichen Kriterien:
Testet den Umzug, indem ihr zunächst nur den Content eines Verzeichnisses oder einer Subdomain verschiebt. Verwendet anschließend eine
301-Weiterleitung
, um diese Seiten eurer alten Website dauerhaft auf eure neue Website weiterzuleiten. Dadurch erfahren Google und andere Suchmaschinen, dass eure Site dauerhaft umgezogen ist.
Nachdem das erledigt ist, solltet ihr kontrollieren, wie die Seiten auf eurer neuen Website in den Google-Suchergebnissen erscheinen. Sobald ihr sicher seid, dass der Umzug einwandfrei funktioniert, könnt ihr mit eurer gesamten Website umziehen. Macht aber keine pauschale Weiterleitung, die den gesamten Traffic eurer alten Website zu eurer neuen Homepage weiterleitet. Damit vermeidet ihr zwar 404-Fehler, allerdings leidet die Nutzererfahrung darunter. Eine Weiterleitung von Seite zu Seite (jede Seite auf der alten Website wird zur entsprechenden Seite auf der neuen Website weitergeleitet) ist mehr Arbeit, gewährleistet aber eine beständige und transparente Nutzererfahrung. Sollte kein 1:1-Bezug zwischen Seiten auf eurer alten und neuen Website bestehen, versucht zumindest sicherzustellen, dass jede Seite auf eurer alten Website zu einer neuen Seite mit ähnlichem Content weitergeleitet wird.
Solltet ihr die Domain wegen Rebranding oder geändertem Design wechseln, ist es eventuell vorteilhaft, in zwei Schritten vorzugehen: Erstens, mit der Website umziehen und zweitens, das geänderte Design einführen. Auf diese Weise begrenzt ihr die Menge an Veränderungen, welche die Benutzer in jeder Phase des Prozesses sehen, was den Vorgang reibungsloser erscheinen lassen kann. Außerdem, je weniger Variablen es gibt, desto einfacher ist es, unerwartete Fehler zu beheben.
Überprüft sowohl
externe als auch interne Links zu Seiten auf eurer Website
. Im Idealfall kontaktiert ihr Webmaster aller Sites, die zu eure Site linken, und bittet sie, die Links zu aktualisieren, so dass diese direkt zur betreffenden Seite auf eurer neuen Domain verweisen. Wenn das nicht durchführbar ist, stellt sicher, dass alle Seiten mit eingehenden Links zur neuen Website weitergeleitet werden. Ihr solltet auch interne Links innerhalb eurer alten Website überprüfen und diese aktualisieren, damit sie auf eure neue Domain verweisen. Sobald ihr den Content auf eurem neuen Server bereitgestellt habt, verwendet ein Programm wie
Xenu
zur Linküberprüfung, um euch zu vergewissern, dass es keine fehlerhaften Links auf eurer Site gibt. Das ist besonders dann wichtig, wenn euer ursprünglicher Content absolute Links (wie www.example.com/cooking/recipes/chocolatecake.html) anstatt relativer Links (wie .../recipes/chocolatecake.html) beinhaltet.
Um ein Durcheinander zu vermeiden, ist es am besten, wenn ihr die Domain eurer alten Website für zumindest 180 Tage beibehaltet.
Fügt eure neue Website zu eurem Konto in den Webmaster-Tools hinzu
und
verifiziert, dass ihr der Besitzer dieser Site seid
. Reicht anschließend eine
Sitemap
ein, in der die URLs auf eurer neuen Website aufgelistet sind. Dadurch erfährt Google, dass euer Content nun auf der neuen Website verfügbar ist und dass wir ihn ab sofort crawlen können.
Noch ein letzter Hinweis: Bleibt sowohl mit eurer neuen als auch mit eurer alten Website in den Webmaster-Tools angemeldet und beobachtet
Crawling-Fehler
regelmäßig um sicherzustellen, dass die 301-Weiterleitungen auf eurer alten Site richtig funktionieren und dass die neue Website keine unerwarteten 404-Fehler anzeigt.
Wir geben zu, umziehen ist nie einfach – aber diese Schritte sollten euch dabei helfen, eure gute Reputation im Web nicht während des Umzugs zu verlieren.
Best practices when moving your site (English version)
Post von Ríona MacNamara, Webmaster Tools Team (Übersetzung von Michael, Search Quality)
Zu Fragen zum Thema “für Suchmaschinen erstellter Text”
Mittwoch, 16. April 2008
Wie wir bereits in unseren
Qualitätsrichtlinien für Webmaster
deutlich machen, sollten Webmaster, die in Google gut ranken möchten, davon absehen, Text oder Links zum Zweck der Suchmaschinenmanipulierung auf ihre Website einzubauen. Wir möchten hier gerne einige Punkte rund um das Thema "für Suchmaschinen erstellter Text" ansprechen, um mehr Klarheit zu schaffen und zudem Tipps zum ordentlichen Gebrauch bestimmter Tags und Features zu geben, um mögliche Konflikte mit unseren Richtlinien zu vermeiden.
Was ist "für Suchmaschinen erstellter Text"?
Der Ausdruck "für Suchmaschinen erstellter Text" bezieht sich auf jegliche Art von Text oder Links auf einer Seite, die dort nicht in erster Linie für den User platziert wurde, sondern mit dem Ziel, Suchmaschinen zu manipulieren und in die Irre zu führen.
Bedeutet das, dass "für Suchmaschinen erstellter Text" immer verborgen ist? Nicht unbedingt. In unserer Hilfe für Webmaster geben wir Informationen über
verborgenen Text und Links
. Darüber hinaus gibt es eine Vielzahl von Möglichkeiten, Text oder Links auf einer Site unterzubringen, so dass diese zwar rein technisch sichtbar sind, jedoch schlicht nicht dazu gedacht, von Usern gelesen zu werden. Gängige Tags oder Features, deren Gebrauch grundsätzlich kein Problem darstellt, können auf unterschiedliche Art und Weise verwendet werden - idealerweise würdet ihr sie so einsetzen, dass eure Site und auch eure User davon profitieren können. Wir haben hier einige Beispiele solcher Tags und Features aufgelistet und möchten ein paar Vorschläge machen, wie ihr sicherstellen könnt, dass ihr euch bei der Verwendung dieser Tags und Features im Einklang mit unseren Richtlinien für Webmaster befindet.
Wie steht es mit Informationen, die mittels JavaScript und CSS eingebaut sind?
Es gibt eine Vielzahl an Möglichkeiten, Informationen mittels JavaScript und CSS auf eurer Site zu implementieren. Eine im deutsche Markt verbreitete Technik ist es beispielsweise, Text mittels CSS oder JavaScript über einen meist als "Weitere Informationen" gekennzeichneten Link auf Firmenwebsites zur Verfügung zu stellen. Der Link lässt erwarten, dass der Text, der sich dahinter verbirgt, zusätzliche Information über die Firma und mögliche Produkte anbietet.
An sich ist dagegen nichts einzuwenden, da es euch natürlich vollkommen frei steht zu entscheiden, wie und wo ihr welche Art von Information auf eurer Site anbietet. So lange dieser Text wirklich für User gedacht ist, kann dies ein eleganter Weg sein, eure Firma vorzustellen. Lange Listen von themenbezogenen Begriffen oder reine Keywords sind wohl eher nicht die Art von Information, nach der User suchen, wenn sie auf einen solchen Link klicken.
Verstößt meine Tagcloud gegen die Richtlinien für Webmaster?
Eine Tagcloud ist eine visuelle Darstellung der Häufigkeit und Popularität von Tags auf einer Site. Tagclouds werden oft eingesetzt und können einen intuitiven Überblick über populäre Themen auf einer Site liefern. Es ist auf jeden Fall in Ordnung, Tagclouds zu verwenden - achtet jedoch auch hier darauf, dass eure User davon profitieren können, indem ihr die Tagcloud in einer vernünftigen Größe anbietet und sie vor allem nur als Zusatz zu gutem Content anbietet. Außerdem sollten auch weniger populäre Tags - wenngleich sie natürlich einen kleineren Font haben als die populären - immer noch lesbar sein.
Wie verwende ich die Tags noframes, noscript und noembed?
Wir empfehlen beispielsweise noframes zu verwenden, wenn ihr annehmt, dass Besucher eurer Site einen Browser verwenden, der nicht in der Lage ist, Frames zu interpretieren. Es ist außerdem für Suchmaschinen immer noch einfacher, eure Frame-Site zu indexieren, wenn ihr relevanten Text in noframes anbietet. Beachtet aber: Der Text sollte sowohl für User als auch Suchmaschinen gleichermaßen Sinn machen – beispielsweise ist es hier eine gute Richtlinie, eine sinnvolle Zusammenfassung der Seite wiederzugeben.
Es sollten weder Text noch Links in noframes verwendet werden, die ihr nicht auch euren Usern präsentieren würdet und die nicht auf der Seite selbst sichtbar sind.
Wir empfehlen bei der Verwendung der Tags noscript und noembed eine ähnliche Regel anzuwenden: Denkt als erstes daran, ob auch der Content dieser Tags euren Usern relevante Informationen bringt.
Wie steht es mit Alt-Text für Bilder?
Alt-Text für Bilder ist, wie der Name schon andeutet, für eine alternative Beschreibung der Bilder auf eurer Site gedacht. Es ist hier sinnvoll, euren Usern gute Bildbeschreibungen zu präsentieren für den Fall, dass die Bilder nicht laden und eure Besucher auf den Text im Alt-Attribut angewiesen sind. Wählt lieber kürzere und aussagekräftige Snippets als lange Listen von Keywords, da diese ungleich weniger wertvoll sind, wenn es darum geht, gute Informationen zu vermitteln. Mehr Informationen über die
Verwendung des Alt-Attributes
findet ihr auf unserem deutschen Webmasterblog.
Wie gehe ich in diesem Zusammenhang mit Flash um?
Wenn ihr Flash auf eurer Site verwendet und sicherstellen möchtet, dass Crawler nichts von eurem Content verpassen, dann gilt hier einen simple Regel: Text, den ihr Crawlern präsentiert, sollte exakt derselbe sein, den auch eure User zu sehen bekommen. In einem Post auf unserem deutschen Webmaster Blog könnt ihr mehr Tipps dazu bekommen,
wie ihr Flash am besten verwendet
.
Auf was solltet ihr noch achten?
Text und Links können theoretisch sichtbar, aber dennoch so platziert sein, dass User sie beim normalen Browsen der Site im Grunde nicht sehen würden. Ein Beispiel wäre hier, wenn Text und Links weit unter der "Fold" dargestellt (das heißt, dass der User erst ein ganzes Stück weit die Seite hinunterscrollen muss, auch nachdem der eigentliche Content schon längst abgeschlossen ist, um dort dann auf einmal weiteren Text oder Links zu entdecken). Wenn solcher Text rein für Suchmaschinen erstellt wurde und keine relevanten Informationen für User beinhaltet, dann empfehlen wir, diesen Text zu entfernen.
Achtet zudem darauf, dass der Text tatsächlich lesbar ist - Text, der sich nur in minimalster Schattierung vom Hintergrund abhebt, ist wahrscheinlich nicht wirklich von großem Nutzen für eure Besucher.
Zusammenfassend:
"Für Suchmaschinen erstellter Text" kann theoretisch an verschiedenen Stellen innerhalb einer Website platziert sein. Der Begriff bezieht sich also in erster Linie auf die Art des Textes oder der Links und darauf, welchen Zweck sie verfolgen. Eine gute Richtlinie hier ist, alle Elemente einer Site für ihren eigentlichen Zweck zu verwenden. Wie beispielsweise oben bereits erwähnt, sollte Image-Alt-Text als Bildbeschreibung verwendet werden und nicht, um durch Mengen an Keywords Crawler in die Irre zu führen. Und nicht zuletzt: Denkt daran, dass Text und Links in erster Linie sinnvoll für die User sein sollten.
Wollt ihr weiter diskutieren?
Falls ihr noch Fragen oder Anmerkungen zu diesem Thema habt, dann könnt ihr gerne mit anderen Usern in unserem
Forum für Webmaster
diskutieren.
Post von Claudia & Daniela (Search Quality)
Tipps für Webmaster: Wie ihr zugängliche Sites für User und Crawler erstellt
Dienstag, 15. April 2008
Hubbell und ich genießen den Tag in unserem Haus in Kalifornien. Lest auch meine älteren Posts zum Thema
Accessibility
für Webmaster sowie
zusätzliche Artikel
, die ich für den offiziellen Googleblog geschrieben habe.
Eine der häufigsten Fragen zum Thema
Accessible Search
ist: Was kann ich tun, damit meine Site in der Accessible Search gut rankt? Gleichzeitig stellen Webmaster oft eine ähnliche, jedoch weiter gefasstere Frage: Was kann ich tun, um in der Googlesuche hoch zu ranken?
Nun, es freut mich, euch mitteilen zu können, dass ihr zwei Fliegen mit einer Klappe schlagen könnt: Entscheidende Sitefeatures wie etwa die Sitenavigation können nun so erstellt werden, dass alle User - einschließlich unser Googlebot - damit arbeiten können.
Sorgt dafür, dass wichtiger Content zugänglich ist
.
Um auf Content
zugreifen
zu können, muss er
zugänglich
sein. User und Webcrawler gelangen zu Content, indem sie Hyperlinks folgen. Stellt daher als entscheidenden ersten Schritt sicher, dass der Content auf eurer Site über einfache HTML-Hyperlinks auffindbar ist und vermeidet es, wichtige Bereiche eurer Site hinter Technologien wie JavaScript oder Flash zu verstecken.
Einfache Hyperlinks sind Hyperlinks, die mittels eines HTML-Anchorelementes <a> kreiert werden. Sorgt dafür, dass die Ziele aller Hyperlinks, also die <a>-Elemente, richtige URLs darstellen - dies ist besser als einen leeren Hyperlink zu verwenden und dessen eigentliche Aufgabe an einen
onclick
-Handler zu übertragen.
Kurz gesagt, vermeidet folgende Form von Hyperlinks:
<a href="#" onclick="javascript:void(...)">Produktkatalog</a>
Verwendet besser einfachere Links wie:
<a href="http://www.example.com/produktkatalog.html">Produktkatalog</a>
Sorgt dafür, dass der Content lesbar ist
Content muss für jeden
lesbar
sein, damit er für alle User von Nutzen ist. Sorgt dafür, dass der wichtige Content eurer Site im Text von HTML-Dokumenten untergebracht ist. Content sollte zugänglich sein, ohne dass zunächst Scripte auf einer Seite ausgelesen werden müssen. Content, der hinter Flashanimationen versteckt ist, oder Text, der im Browser durch ausführbares JavaScript generiert wird, bleibt sowohl für Googlebot wie auch für die meisten blinden Leser unsichtbar.
Stellt euren Content in logischer Lesefolge zur Verfügung
Nachdem User bei eurem lesbaren Content angelangt sind, müssen sie in der Lage sein, euren Content in einer
logischen
Lesefolge nachzuvollziehen. Falls ihr für den Großteil eures Contents ein komplexes Layout verwendet, das aus mehreren Spalten besteht, dann könnte es sinnvoll sein, einen Schritt zurückzutreten und zu überlegen, ob ihr den gewünschten Effekt erreicht. Zum Beispiel erschweren es stark ineinander geschachtelte HTML-Tabellen, zusammengehörende Textstücke einander logisch zuzuordnen.
Ein ähnliches Layout kann oft besser durch CSS erreicht werden, indem ihr die <div>-Elemente in HTML logisch organisiert. Als Bonus könnt ihr dann feststellen, dass sich eure Site viel schneller aufbaut.
Ergänzt visuellen Content mit Text - habt keine Angst vor Redundanz!
Informationen für alle zugänglich zu machen bedeutet nicht, dass ihr eure Site auf reinen Text herunterschrauben müsst. Um sicherzustellen, dass euer Content den maximalen Nutzen für jeden bietet, ist es entscheidend, euren Content sinnvoll redundant zu gestalten. Hier sind ein paar einfache Tipps:
Stellt sicher, dass Bildinhalte auch erhältlich sind falls die Bilder fehlen. Dies geht über das reine Hinzufügen eines passenden
Alt-Attributes
hinaus. Sorgt dafür, dass der umgebende Text auch den entsprechenden Kontext herstellt und erklärt, weshalb dieses Bild verwendet wird und welche möglichen Schlussfolgerungen daraus gezogen werden können. Kurz: wenn ihr sicher sein wollt, dass jeder versteht, dass dies das Bild von einer Brücke ist, dann fügt dem Bild entsprechenden Text hinzu.
Ergänzt Tabellen um relevante Zusammenfassungen
und
Überschriften
,
damit der Leser schneller einschätzen kann, um welche Informationen es sich handelt, bevor er sich damit eingehender befasst.
Fügt visuellen Animationen, wie etwas
Schaubildern,
eine detaillierte Textzusammenfassung hinzu.
Wenn ihr diese einfachen Tipps befolgt, könnt ihr damit die Qualität eurer Site für alle Besucher steigern. Zudem könnt ihr dann wahrscheinlich als positiven Nebeneffekt feststellen, dass eure Site besser indexiert wird!
Webmaster tips for creating accessible, crawlable sites (English version)
Post von
T.V. Raman
, Research Scientist (Übersetzung von Claudia, Search Quality)
Crawling von HTML-Formularen
Montag, 14. April 2008
Google ist ständig bemüht, neue Ideen zur Verbesserung der Erfassung des Webs zu testen. Dabei wenden wir bereits einige geschickte Techniken an, wir scannen beispielsweise JavaScript und Flash-Dateien, um so Links zu neuen Webseiten zu entdecken. Heute möchten wir euch eine weitere neue Technik vorstellen, mit der wir seit kurzem experimentieren.
In den letzten Monaten haben wir zahlreiche HTML-Formulare untersucht, um so neue Webseiten und URLs zu ermitteln, die wir ansonsten nicht finden und unseren Usern in der Google-Suche bereitstellen können. Genauer gesagt bedeutet dies, falls wir ein <FORM>-Element auf einer nützlichen Site finden, kann es sein, dass wir eine geringe Anzahl an Anfragen an das Formular senden. Bei Textfeldern verwenden unsere Computer automatisch Worte aus dem Inhalt der jeweiligen Site - bei Auswahl-Menüs, Checkboxen und Radiobuttons wählen wir eine der verfügbaren Optionen im HTML-Code. Wenn wir entsprechende Eingabewerte gewählt haben, erstellen wir URLs, die typischen Nutzeranfragen im Formular entsprechen, und versuchen dann, diese URLs zu crawlen. Falls wir danach davon ausgehen können, dass die Seite, welche auf unsere Anfrage hin geliefert wurde, eine gültige Seite ist und außerdem interessant erscheint und noch nicht in unserem Index enthalten ist, dann werden wir diese Seite möglicherweise ebenfalls in unseren Index aufnehmen, so wie das bei anderen Webseiten auch der Fall ist.
Natürlich halten wir uns bei diesem Experiment an die guten Umgangsformen im Internet. Nur eine kleine Anzahl besonders nützlicher Seiten wird diesem Verfahren unterzogen und unser Crawler, der stets
freundliche Googlebot
, hält sich immer an die robots.txt-Datei und die nofollow- und noindex-Anweisungen. Dies bedeutet, dass wir, wenn ein Formular in der robots.txt-Datei vom Crawling ausgeschlossen wurde, keine URLs crawlen, die durch dieses Formular erzeugt werden.
Außerdem crawlen wir ausschließlich Formulare, welche die GET-Methode verwenden, und vermeiden Formulare, die jegliche Art von Informationen seitens des Users erfordern. Beispielsweise lassen wir Formulare aus, die eine Passwort-Eingabe erfordern oder Begriffe verwenden, die gewöhnlich mit persönlichen Daten in Verbindung gebracht werden, wie z. B. Logins, User-IDs, Kontakt-Adressen usw. Außerdem nehmen wir Rücksicht auf die Auswirkungen eines derartigen Crawlings auf eine Website und begrenzen dieses deshalb auf eine geringe Anzahl an Anfragen je Site.
Die Webseiten, die wir in diesem erweiterten Crawling entdecken, fallen nicht zu Lasten der regulären Seiten einer Site, die ohnehin gecrawlt werden. Somit ergibt sich auch keine Änderung des PageRanks für die anderen Seiten. Genaugenommen wird dadurch lediglich die Sichtbarkeit eurer Site für Google erhöht. Diese Neuerung hat ebenfalls keinerlei bedeutenden Einfluss auf das Crawling und Ranking oder die Auswahl anderer Webseiten.
Dieses Experiment ist ein Teil von Googles umfassendem Bemühen, die Abdeckung des Internets zu erhöhen. Tatsächlich ist bereits seit längerem bekannt, dass HTML-Formulare einen Zugang zu großen Datenbeständen bieten, die gewöhnlich außerhalb der Reichweite von Suchmaschinen liegen. Die Begriffe "Deep Web", "Hidden Web" (verstecktes Web) oder "Invisible Web" (unsichtbares Web) wurden gemeinhin verwendet, um derartigen Content zu bezeichnen, der den Usern von Suchmaschinen bislang verborgen blieb. Indem wir auch HTML-Formulare crawlen (und dabei die robots.txt-Datei beachten), sind wir in der Lage, die User unserer Suchmaschine zu Inhalten zu führen, die ansonsten schwer in den Suchergebnissen zu finden wären. Damit bieten wir Webmastern und Usern ein besseres und umfassenderes Sucherlebnis.
Crawling through HTML forms (English Version)
Post von Jayant Madhavan und Alon Halevy, Crawling and Indexing Team (Übersetzung von Sven, Search Quality)
Meine Site wurde gehackt - was jetzt?
Dienstag, 8. April 2008
Ok, ihr seid also gehackt worden. Das passiert vielen Webmastern trotz der harten Arbeit, die ihr investiert, um genau dies zu vermeiden. Tipps zum Schutz davor sind unter anderem, eure Site immer mit der neuesten Software und Patches aufzurüsten, ein Konto in den Google
Webmaster-Tools
anzulegen, um zu sehen, was indexiert wird, ein Auge auf die Logfiles zu haben, um sicherzustellen, dass nichts Verdächtiges vor sich geht, usw. (Mehr Informationen dazu gibt es in der
Sicherheits-Checkliste
, die wir letztes Jahr veröffentlicht haben.)
Denkt daran, dass ihr nicht allein seid - gehackte Sites werden zunehmend häufiger. Wenn ihr gehackt seid, kann es sein, dass eure Site mit Badware (genauer gesagt Malware, einem Typ von Badware) infiziert ist. Werft einen Blick auf den Bericht über
Trends in Badware 2007
, der von
StopBadware
kürzlich veröffentlicht wurde, um einen ausführlichen Überblick über Trends und Bedrohungen durch Badware im vergangenen Jahr zu bekommen. Lest auch
diesen Post
auf dem
Google Online Security Blog
, der auf den Anstieg von Suchergebnissen hinweist, die eine als schädlich gekennzeichnete URL enthalten. Einen noch ausführlicheren Fachbericht über eine Analyse webbasierter Malware findet ihr auf
The Ghost in the Browser
(pdf) und in diesem
Fachbericht
(pdf) über Drive-by-Downloads. Diese Berichte können euch ein besseres Verständnis für das Problem verschaffen. Sie beinhalten auch einige tatsächliche Beispiele für die verschiedenen Malware-Typen.
Als ersten Schritt solltet ihr auf jeden Fall euren Hostingprovider kontaktieren, sofern ihr einen habt. Meistens können sie den größten und komplizierteren Teil auf der technischen Seite für euch erledigen. Viele Webmaster verwenden Shared Hosting, was es erschweren kann, einige der unten gelisteten Tipps zu befolgen. Manche Tipps, die mit einem Asterisk (*) gekennzeichnet sind, sind Fälle, in denen Webmaster, die Shared Hosting verwenden, höchstwahrscheinlich Unterstützung von ihrem Hostingprovider brauchen. Für den Fall, dass ihr euren Server vollständig selbst verwaltet, empfehlen wir diese vier Grundschritte:
Nehmt eure Site offline
Nehmt eure Site vorübergehend offline, zumindest solange bis ihr wisst, dass das Problem gelöst ist. *
Wenn ihr die Site nicht offline nehmen könnt, dann gebt einen
503 Statuscode
aus, damit sie nicht gecrawlt wird.
Verwendet das
Tool zum Entfernen von URLs
in den Webmaster-Tools, um alle gehackten Seiten oder URLs aus den Suchergebnissen zu entfernen, sofern sie indexiert wurden. Dadurch wird verhindert, dass die gehackten Seiten für User zur Verfügung stehen.
Schadensaufnahme
Es ist eine gute Idee herauszufinden, was die Hacker genau im Sinn hatten.
Haben sie nach vertraulichen Informationen gesucht?
Wollten sie sich eurer Site bemächtigen, um sie für andere Zwecke zu missbrauchen?
Sucht auf eurem Webserver nach veränderten oder zusätzlich hochgeladenen Dateien.
Überprüft, ob ihr in euren Serverlogfiles verdächtige Aktivitäten entdecken könnt, wie beispielsweise vergebliche Loginversuche, Aktivitäten in der Commandhistory (besonders solche, die als "Root" durchgeführt wurden), unbekannte Nutzerkonten etc.
Bestimmt das Ausmaß des Problems - habt ihr andere Sites, die vielleicht betroffen sind?
Rettung
Die absolut beste Maßnahme ist hier eine komplette Neuinstallierung des Betriebssystems von einer gesicherten Bezugsquelle. Das ist der einzige Weg, um vollständig sicher zu sein, dass ihr alles entfernt, was der Hacker vielleicht angerichtet hat.*
Nach einer frischen Neuinstallierung solltet ihr das letzte Backup verwenden, um eure Site wieder herzustellen. Vergesst auch nicht sicherzustellen, dass das Backup sauber und frei von gehacktem Content ist.*
Fügt auch alle Softwarepakete zur letzten Version hinzu. Dies beinhaltet Dinge wie Weblogplattformen, Content-Management-Systeme oder jegliche andere installierte Software von dritter Seite.
Ändert eure Passwörter -
https://www.google.com/accounts/PasswordHelp?hl=de
Wiederherstellung eures Onlineauftritts
Stellt euer System wieder online.
Wenn ihr ein User der Webmaster-Tools seid, dann loggt euch in euer Konto ein:
Falls eure Site als eine Site, die Malware verbreitet, identifiziert wurde, stellt einen Antrag auf Überprüfung, um festzustellen, ob eure Site frei von schädlichem Content ist.
Falls ihr URLs mit dem Tool zum Entfernen von URLs entfernt habt, die ihr eigentlich im Index behalten wollt, beantragt in den Webmaster-Tools, dass euer Content wieder aufgenommen wird.
Behaltet eure Site weiterhin genauer im Auge, da der Hacker vielleicht zurückkommt.
Antworten auf Fragen, die ihr vielleicht habt:
F: Um zu verhindern, dass meine Site gecrawlt wird - Ist es besser, meine Site offline zu nehmen oder die "robots.txt"-Datei zu verwenden?
A: Es ist besser, die Site offline zu nehmen; dadurch wird verhindert, dass jegliche Art von Malware oder Badware den Usern präsentiert wird, und Hacker werden von weiterem Missbrauch des Systems abgehalten.
F: Wenn ich meine Site von dem gehackten Content befreit habe - was ist der schnellste Weg, um wieder gecrawlt zu werden?
A: Unabhängig davon, ob eure Site gehackt wurde oder nicht - der schnellste Weg, wieder gecrawlt zu werden, ist den
Richtlinien in der Hilfe für Webmaster
zu folgen.
F: Ich habe meine Site wieder in Ordnung gebracht - wird Google mich dennoch mit einer Abwertung versehen, falls mich der Hacker mit einer Bad Neighbourhood verlinkt hat?
A: Wir tun unser Bestes, dass dies nicht passiert. Wir sind überaus gut darin sicherzustellen, dass gute Sites aufgrund von Aktionen von Hackern und Spammern nicht mit einer Abwertung versehen werden . Um sicher zu sein, solltet ihr jegliche Links entfernen, welche von den Hackern hinzugefügt wurden.
F: Was, wenn mein persönlicher Rechner betroffen ist?
A: Alles oben bereits Erwähnte trifft auch in diesem Fall zu. Ihr solltet in jedem Fall besonders gründlich vorgehen; falls ihr dies nicht tut, ist es wahrscheinlich, dass dasselbe noch einmal passiert. Eine komplette Neuinstallierung des Betriebssystems ist ideal.
Zusätzliche Quellen, die ihr vielleicht hilfreich findet:
Falls eure Site von Google als
"Malware verbreitende Site"
gekennzeichnet wurde, werden wir euch benachrichtigen, wenn ihr die
Webmaster-Tools
besucht.
Vergesst auch das Google
Diskussionsforum für Webmaster
nicht - dort trefft ihr auf äußerst erfahrene User und Googler. Ein schönes Beispiel dafür ist dieser
Thread
in unserer englischen Diskussionsgruppe für Webmaster. Zudem gibt es auch eine Diskussionsgruppe von
Stop Badware
.
Matt Cutts veröffentlichte kürzlich
"Three tips to protect your WordPress installation"
auf seinem Blog, und unter dem Post gibt es zahlreiche gute Kommentare.
Falls ihr zusätzliche Tipps habt, dann hinterlasst diese gerne in den Kommentaren.
My site's been hacked - now what? (English version)
Post von Nathan Johns, Search Quality Team (Übersetzung von Claudia)
Verbesserte iGoogle Gadgets für Webmaster-Tools
Donnerstag, 3. April 2008
Letzten Monat haben wir die
iGoogle Gadgets für Webmaster-Tools gelauncht
– und waren gespannt: Würdet ihr sie nützlich finden? Wir dachten, ihr würdet die Möglichkeit begrüßen, bessere "Dashboards" für eure Sites gestalten zu können, und es gibt keinen besseren Weg, dies festzustellen, als die Gadgets zu launchen, damit ihr sie nutzen könnt.
Nach unserem ersten Release gab es ein großes Interesse an den Gadgets sowie eine Menge an Verbesserungsvorschlägen von euch. Wir haben also die letzten paar Wochen damit verbracht, an verschiedenen Bereichen zu arbeiten. Die größten Neuerungen sind wahrscheinlich für diejenigen von euch relevant, die mehr als eine Site haben: Wenn ihr einen neuen Tab mit Gadgets einrichtet, werden diese nun standardmäßig auf die Site eingestellt, die aufgerufen war, als ihr die Gadgets zu eurer iGoogle-Seite hinzugefügt habt. Eure Gadgets behalten jetzt zudem Einstellungen als Gruppe, so dass, falls ihr die Site für ein beliebiges Gadget in der Gruppe ändert, alle Gadgets Daten für diese Site anzeigen, nachdem ihr eure iGoogle-Seite aktualisiert habt. Außerdem verändern die Gadgets jetzt dynamisch ihre Größe, so dass sie weniger Platz wegnehmen.
Weitere kosmetische Verbesserungen und Optimierungen der Usability werden allen zugute kommen. Wir haben den Titel des Tabs auf "Webmaster-Tools" gekürzt, um Platz auf eurer iGoogle-Seite zu sparen. Außerdem haben wir jedem Gadget ein Google-Logo hinzugefügt, damit sie besser als Gruppe von anderen Gadgets unterschieden werden können. Wir meinen, dass die Gadgets jetzt viel besser aussehen, mit alternierenden Hintergrundfarben der Tabellenzeilen, damit sie sich sich klarer voneinander abheben, und allgemein verbessertem Layout. Das Gadget "Die häufigsten Suchanfragen" zeigt jetzt auch die Position des Rankings an.
Wir legen großen Wert auf euer Feedback zu unseren ersten iGoogle Gadgets für Webmaster-Tools, und wir hoffen, dass sie durch diese Verbesserungen noch nützlicher geworden sind.
Wie immer freuen wir uns darüber,
eure Meinung zu hören
.
Improvements to iGoogle Gadgets for Webmaster Tools (English version)
Post von John Blackburn und Trevor Foucher, Webmaster Tools Team (Übersetzung von Johanna, Search Quality)
Webmaster-Tools and Analytics gemeinsam verwenden
Dienstag, 1. April 2008
Gelegentlich fragen uns Webmaster im
Diskussionsforum
: "Soll ich Google Webmaster-Tools oder Google Analytics benutzen?" Unsere Antwort: verwendet beide! Hier sind drei Szenarien, in denen die Stärken beider Tools deutlich werden.
1. Macht das Beste aus euren Impressions
Es ist eine meiner Lieblingsfunktionen in den Webmaster-Tools, dass die Top 20 Suchanfragen, für die eure Website rankt, gemeinsam mit den Top 20 der tatsächlich angeklickten Suchanfragen angezeigt werden. Die Daten auf der Seite "
Die häufigsten Suchanfragen
" ermöglichen es euch schnell festzustellen, für welche Suchanfragen eure Website in den Suchergebnissen erscheint und welche dieser Suchanfragen zu tatsächlichen Klicks führt. Schauen wir uns zum Beispiel die Daten dieser Woche für www.google.com/webmasters an:
Wie ihr sehen könnt, erhält Google Webmaster Central eine große Anzahl an Impressions für die Suchanfrage [gadgets], allerdings werden diese möglicherweise nicht optimal in Klicks umgewandelt. Um zu sehen, wie eure Website in unseren Suchergebnissen erscheint, klickt auf [gadgets]. Sprechen euer Titel und das Snippet User an? Wie mein Kollege Michael vor kurzem geschrieben hat, ist es möglicherweise Zeit für einen "
Frühjahrsputz
" auf eurer Website. Das ist eine gute Gelegenheit, mit wenig bis gar keinen Kosten die Aufmerksamkeit der User zu gewinnen. Beispielsweise könnten wir daran arbeiten, unser
Snippet zu verbessern
von derzeit:
... zu einem einfacher lesbaren Text, wie zum Beispiel: "Verwendet Gadgets, um ganz einfach coolen und dynamischen Content für eure Website zu erstellen...". Diesen Snippet-Text könnt ihr in einer Meta-Descripton zu eurer URL hinzufügen.
Außderdem: Wie verhalten sich User auf eurer Website? Durchstöbern sie euren Content oder verlassen sie die Website schnell wieder? Um das herauszufinden, kann Google Analytics die Absprungrate eurer Website oder den Prozentsatz der Zugriffe auf nur eine Seite berechnen (z. B. jemand besucht nur eure Homepage und verlässt die Website danach gleich wieder). Das kann ein aussagekräftiges Indiz für die Qualität der Zielseite eurer Website und für den Traffic, den eure Website erhält, sein. Nachdem ihr hart daran gearbeitet habt, User auf eure Website zu bringen, wollt ihr sie schließlich auch dort halten. Schaut euch auch den englischen Analytics Blog für weitere Informationen zur
Absprungrate (Bounce Rate)
an.
2. Nutzt cleveres Geo-Targeting
Stellt euch vor ihr habt eine .com Domain, mit der ihr einen lokalen japanischen Markt ansprechen wollt. Die Webmaster-Tools ermöglichen eine
geografische Ausrichtung
eurer Website. In diesem Fall würdet ihr also wahrscheinlich Japan auswählen. Allerdings ist es damit noch nicht getan. Mit dem Landkarten-Overlay in Analytics lässt sich der Standort eurer User bis auf die Stadt eingrenzen. Ihr könnt außerdem statistische Informationen über User, die eure Website besuchen, erhalten – einschließlich Browser und Verbindungsgeschwindigkeit. Wenn User eure Website auf Grund von Browser-Inkompatibilität oder langsamer Verbindungsgeschwindigkeit nicht öffnen können, solltet ihr unter Umständen das Design euer Website überdenken. Diese Maßnahmen können sehr hilfreich dafür sein, um relevanten Traffic zu erreichen.
3. Kontrolliert den Zugang zu sensiblem Content
Eines Tages loggt ihr euch bei Analytics ein und schaut euch "Content nach Titel" an. Schockiert stellt ihr fest, dass User eure nicht öffentlichen Seiten besuchen. Macht euch keine Sorgen! Geht in die Webmaster-Tools und verwendet das Tool zur Beantragung der Entfernung von URLs, um die Seiten aus Googles Suchergebnissen zu entfernen. Eine Aktualisierung der robots.txt-Datei verhindert ebenfalls, dass der Googlebot diesen Teil eurer Website in Zukunft crawlt.
Für weitere Tipps und Tricks rund um Analytics schaut euch die
Google Analytics-Hilfe
an. Solltet ihr weitere Vorschläge haben, freuen wir uns über Kommentare hier im Anschluss an den Post oder in unserem
Diskussionsforum für Webmaster
.
Making harmonious use of Webmaster Tools and Analytics (English version)
Post von Reid Yokoyama, Search Quality Team (Übersetzung von Michael, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster