Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Neu: Data-Highlighter für Veranstaltungsdaten
Montag, 14. Januar 2013
Update am 19. Februar 2013
: Der Data-Highlighter für Events-Markup ist jetzt in allen Sprachen in den Webmaster-Tools verfügbar.
Google nutzt immer mehr strukturierte Daten, um erweiterte Suchergebnisse wie
Rich Snippets
und
Veranstaltungskalender
anbieten zu können, mit denen Nutzer eure Inhalte einfacher finden. Bisher konntet ihr strukturierte Daten nur durch Hinzufügen bestimmten HTML-Codes auf eurer Website für Google kenntlich machen. Uns ist jedoch bewusst, dass es für einige Websites schwierig ist, dieses Markup bereitzustellen.
Jetzt bieten wir Webmastern eine einfachere Alternative: Data-Highlighter. Das Tool ist
vorerst nur auf Englisch
und nur für strukturierte Daten zu
Veranstaltungen
wie Konzerten, Sportveranstaltungen, Ausstellungen, Shows und Festivals verfügbar.
In den kommenden Monaten soll Data-Highlighter für weitere Sprachen und andere Datentypen verfügbar gemacht werden.
Falls ihr es vorher bereits ausprobieren wollt, könnt ihr zwischenzeitlich die englische Version verwenden: Ihr könnt sie aufrufen, indem ihr in der Webmaster-Tools-URL den Parameter hl=de auf hl=en ändert.
Den Data-Highlighter findet ihr dann unter "Optimization".
Update am 19. Februar 2013
:
Das Tool ist inzwischen in allen von den Webmaster-Tools unterstützten Sprachen verfügbar.
Data-Highlighter ist ein ganz einfaches Tool, das jeder mit wenigen Klicks verwenden kann, der zur Bearbeitung eurer Website in den Google Webmaster-Tools berechtigt ist. Es sind keine Änderungen am HTML-Code erforderlich. Stattdessen markiert und "taggt" ihr mit eurer Maus alle wichtigen Daten einer typischen Veranstaltungsseite auf eurer Website:
Wenn auf eurer Seite mehrere Veranstaltungen mit dem gleichen Format aufgeführt sind, "lernt" Data-Highlighter beim Markieren das Format zu erkennen und schlägt automatisch weitere Tags vor damit ihr die Arbeit schneller erledigen könnt. Gleiches gilt, wenn ihr mehrere Seiten mit Veranstaltungen im gleichen Format erstellt habt: Ihr taggt einige Beispielseiten und Data-Highlighter merkt sich die Formatvariationen. In der Regel reichen unseren ausgefeilten maschinell lernenden Algorithmen 5 bis 10 manuell getaggte Seiten, um ähnliche Seiten auf eurer Website erkennen zu können.
Anschließend könnt ihr einige Beispiele aller Veranstaltungsdaten überprüfen, die Data-Highlighter jetzt erfassen kann. Wenn diese richtig sind, klickt auf "Veröffentlichen".
Von diesem Zeitpunkt an erkennt Google beim Crawlen eurer Website die neuesten Veranstaltungseinträge und kann sie für erweiterte Suchergebnisse kenntlich machen. Ihr könnt euch die gecrawlten Daten im
Dashboard für strukturierte Daten
ansehen und jederzeit die Veröffentlichung für alle Daten aufheben, mit deren Markup ihr nicht zufrieden seid.
In diesem kurzen Video erklären wir den Prozess:
Data-Highlighter findet ihr in den
Webmaster-Tools
. Wählt dort eure Website aus, klickt links auf den Link "Optimierung" und anschließend auf "Data Highlighter".
Weitere Informationen findet ihr in unserem
Hilfeartikel
, Fragen könnt ihr außerdem im
Forum für Webmaster
stellen. Viel Spaß mit dem Data-Highlighter.
Post von
Justin Boyan
, Product Manager. Veröffentlicht von Sven Nauman, Search Quality Team
Hilfe für Webmaster bei gehackten Websites
Montag, 7. Januar 2013
Es kann frustrierend sein, wenn die eigene Website gehackt wurde. Daher möchten wir Webmaster bei der Bereinigung ihrer Seiten und der Vorbeugung künftiger Manipulationen bestmöglich unterstützen. In diesem Post erläutern wir zwei gängige Arten von Angriffen näher und stellen außerdem Schritte zur Bereinigung von Websites sowie zusätzliche Ressourcen bereit, die für Webmaster hilfreich sein könnten.
Im Interesse unserer Nutzer ist es wichtig, dass die Seiten, die in unseren Suchergebnissen erscheinen, sicher für die Besucher sind. Leider ist es nicht ausgeschlossen, dass sich böswillige Dritte die Websites seriöser Webmaster zunutze machen, indem sie diese hacken, um die Ergebnisse von Suchmaschinen zu manipulieren oder schädliche Inhalte und Spam zu verbreiten. Wir warnen Nutzer und Webmaster gleichermaßen davor, indem wir gehackte Websites in unseren Suchergebnissen mit dem Hinweis "Diese Website wurde möglicherweise manipuliert" kennzeichnen.
Wir möchten Webmastern die Informationen bereitstellen, die sie benötigen, um ihre Websites so schnell wie möglich zu bereinigen. Wenn ihr eure Websites in den Webmaster-Tools bestätigt habt, senden wir euch außerdem eine Nachricht, wenn wir feststellen, dass eure Website gehackt wurde und geben, wenn möglich, Beispiel-URLs an.
Möglicherweise wurde eure Website manipuliert, um Malware zu verbreiten. Wenn wir dies erkennen, kennzeichnen wir die Website in unseren Suchergebnissen mit dem Hinweis "Diese Website kann Ihren Computer beschädigen". Browser wie Chrome zeigen dann eine Warnung an, wenn Nutzer versuchen, auf die Website zuzugreifen. In einigen Fällen stellen wir im Bereich "Malware" in den Webmaster-Tools genauere Informationen bereit. In unserer Hilfe findet ihr außerdem
konkrete Tipps zur Vorbeugung gegen Malware und zu deren Beseitigung
.
Nachfolgend werden zwei gängige Verfahren zur Manipulation eurer Website durch Dritte erläutert:
Eingefügte Inhalte
Hacker versuchen möglicherweise, Suchmaschinen zu beeinflussen, indem sie Links einfügen, die zu ihren eigenen Websites führen. Diese Links sind oft versteckt, damit Webmaster sie nicht sofort erkennen können. Die Website kann auch so manipuliert werden, dass die Inhalte nur dann angezeigt werden, wenn Suchmaschinen-Crawler auf die Website zugreifen.
Beispiel für eingefügte pharmazeutische Inhalte
Wenn wir einen solchen Fall erkennen, senden wir eine Nachricht mit nützlichen Details an euer Webmaster-Tools-Konto. Wenn ihr vermutet, dass eure Website auf diese Weise manipuliert wurde, könnt ihr mit dem Tool
Abruf wie durch Google
die Inhalte überprüfen, die eure Website zurückgibt. Häufig ist der Ursprung einer solchen Manipulation in PHP-Dateien, Templates und CMS-Plug-ins zu finden.
Weiterleitungen für Nutzer
Hacker können auch versuchen, Nutzer auf schädliche oder Spam-Websites weiterzuleiten. Sie richten diese Weiterleitung entweder für alle Nutzer ein oder konzentrieren sich auf bestimmte Nutzer, beispielsweise solche, die über eine Suchmaschine auf die Website zugreifen oder ein Mobilgerät verwenden. Wenn ihr direkt auf eure Website zugreifen könnt, jedoch ungewollt weitergeleitet werdet, wenn ihr sie über eine Suchmaschine aufruft, wurde eure Seite höchstwahrscheinlich auf diese Weise manipuliert.
Hacker erreichen dies, indem sie Serverkonfigurationsdateien wie .htaccess bei Apache-Servern so ändern, dass bestimmten Nutzern unterschiedliche Inhalte angezeigt werden. Daher ist es ratsam, eure Serverkonfigurationsdateien auf derartige Veränderungen zu überprüfen.
Dieses schädliche Verhalten kann auch durch das Einfügen von JavaScript in den Quellcode eurer Website verursacht werden. Der JavaScript-Code kann so geschrieben sein, dass sein Zweck nicht erkennbar ist. Daher ist es möglicherweise hilfreich, nach Begriffen wie "eval", "decode" und "escape" zu suchen.
Bereinigung und Vorbeugung
Wenn eure Website manipuliert wurde, ist es wichtig, dass nicht nur die Änderungen an eurer Website bereinigt werden, sondern auch die Schwachstelle behoben wird, die eine solche Manipulation ermöglicht hat. Wir stellen Anleitungen für das
Bereinigen eurer Website
und das
Verhindern von Manipulationen
bereit. Bei eurem Hostinganbieter und im
Webmasterforum
könnt ihr ggf. weitere spezifische Hinweise bekommen.
Nachdem ihr eure Website bereinigt habt, solltet ihr einen
Antrag auf erneute Überprüfung
einreichen. Sollte die Überprüfung ergeben, dass alle Probleme behoben wurden, wird der Warnhinweis aus unseren Suchergebnissen entfernt.
Fragen oder Feedback könnt ihr uns wie immer gerne über das
Forum für Webmaster
zukommen lassen.
Post von
Oliver Barrett
, Search Quality Team. Veröffentlicht von Sven Naumann, Search Quality Team
Frohe Feiertage und einen guten Rutsch ins neue Jahr!
Freitag, 21. Dezember 2012
2012 neigt sich dem Ende zu, und wir möchten uns bei all unseren Lesern bedanken und euch geruhsame Festtage und einen guten Start ins neue Jahr wünschen!
Es hat sich 2012 viel getan in Sachen Google Suche und
Webmaster-Tools
. Hier sind ein paar der Highlights des Jahres.
Wir haben unsere Webmaster-Tools kontinuierlich weiterentwickelt und neue Funktionen hinzugefügt. Vieles davon war das Ergebnis von Feedback, das wir von euch bekommen haben - sei es in den Foren, über Blogkommentare oder beim Gedankenaustausch auf Konferenzen.
neue Benachrichtigungen zu Crawlingfehlern
bessere Steuerung der Zugriffsrechte für die Webmaster-Tools
Benachrichtigungen über kritische Websiteprobleme
neues Tool zum Entwerten von Links
Wir haben noch weitere Schritte unternommen, um transparenter zu werden. Beispielsweise
versenden wir über unsere Webmaster-Tools mehr Benachrichtigungen
. Und wir haben unsere
Richtlinien für Webmaster aktualisiert
und mehr Beispiele hinzugefügt.
Wir haben auch einige Änderungen an unserem Algorithmus vorgenommen, um unseren Usern noch bessere Suchergebnisse bieten zu können:
Penguin
Seitenlayout-Algorithmus
weitere Verbesserung am Panda-Algorithmus
Und zu guter Letzt wäre da noch die neue Unterstützung von
Sitemaps für mehrsprachige und multinationale Sites
. Das wird es einfacher machen, Sites zu verwalten, die mehrsprachig sind oder sich an User in mehreren Ländern richten.
Es war super, einige von euch persönlich kennenzulernen, zum Beispiel auf der
SMX München
, der
SEOKomm Salzburg
, im Rahmen des
Online Motor Deutschland
oder in der
Webmastersprechstunde
, die John regelmäßig organisiert.
Wir möchten uns auch noch bei allen Forumsteilnehmern bedanken, und an dieser Stelle besonders unsere Top-Beitragenden
Thomas
,
Peter
,
Stefan
,
Herbert
,
Uwe
,
Michael
und
Gantea
erwähnen. Es gab wieder jede Menge interessante Diskussionen, und es ist super wie viele Webmaster dort Antworten auf ihre Fragen gefunden haben.
Nochmals danke für ein tolles 2012, schöne Feiertage und ein gutes neues Jahr!
Uli, John, Sven
Post von
Uli Lutz
, Search Quality
Google Search Quality auf der SEOKomm Salzburg
Dienstag, 18. Dezember 2012
Letzten Monat war ich auf der
SEOKomm Salzburg
und habe dort an einem Panel zum Thema Suche teilgenommen. Es war eine tolle Konferenz, und ich hatte viele spannende Gespräche über unsere Webmaster-Tools and habe einige interessante Vorschläge für neue Features bekommen, die ich an das Team weitergeleitet habe.
Hier sind einige der Fragen, die ich während der Panel-Diskussion bekommen habe oder die in Gesprächen mit anderen Konferenzteilnehmern aufgekommen sind. Besonders das
Tool zum Entwerten von Links
(“Disavow links tool”) war ein vieldiskutiertes Thema:
Frage: Ich habe ein paar suspekte Websites in meinen Backlinks in den Webmaster-Tools entdeckt. Sollte ich jetzt alle meine Backlinks durchsehen, die schlechten herausfiltern und dann über das Tool zum Entwerten von Links einreichen?
Antwort: Das eine Website auch ein paar “schlechte” Backlinks hat ist vollkommen normal. In diesem Fall braucht man das Tool zum Entwerten von Links nicht zu verwenden. Dieses Tool ist wirklich für die extremeren Fälle gedacht, also für Websites, die einen überproportionalen Anteil an schlechten Backlinks haben, weil sie zum Beispiel in der Vergangenheit Links gekauft haben oder weil sie auf anderen Seiten Kommentar-Spam hinterlassen haben.
Frage: Kommt meine Site auf eine Art “Blacklist” wenn ich das Tool zum Entwerten von Links verwende? Wird Google meine Site besonders kritisch bewerten, nur weil ich das Tool verwendet habe?
Antwort: Nein.
Frage: Sollte ich einen
Antrag auf erneute Überprüfung
stellen, nachdem ich das Tool zum Entwerten von Links verwendet habe?
Antwort: Das kommt darauf an. Falls ihr eine Nachricht über unnatürliche Links in den Webmaster-Tools erhalten habt, und ihr deshalb das Tool verwendet habt, dann solltet ihr anschließend einen Antrag auf erneute Überprüfung stellen. Falls ihr keine derartige Nachricht bekommen habt und das Tool verwendet habt, weil ihr vermutet, dass eure Site von einem Algorithmus wie
Penguin
betroffen ist, dann braucht ihr keinen Antrag auf erneute Überprüfung stellen.
Frage: Kann es einer Site schaden, wenn man einen Antrag auf erneute Überprüfung stellt?
Antwort: Nein.
Frage: Bezüglich des
EMD (exact-match domains)-Updates
, das Matt Cutts vor kurzem angekündigt hat: Ich habe eine super Site auf einer Keyword-Domain. Sollte ich mir Sorgen machen, dass dieses Update das Ranking meiner Site negativ beinflusst?
Antwort: Nein. Das EMD-Update ist auf qualitativ minderwertige Sites auf Keyword-Domains ausgerichtet. Wenn ihr also eine gute Site mit hochwertigen Inhalten auf einer Keyword-Domain habt, dann braucht ihr euch keine Gedanken zu machen. Wenn jedoch eine Website eher minderwertige Inhalte hat und ihr den Domain-Namen als ihre Hauptstärke anseht, dann würde es sich anbieten, dieses Update zum Anlass zu nehmen um sich darüber Gedanken zu machen, wie man den Mehrwert dieser Site für die Nutzer erhöhen kann.
Frage: Meine Site hat viele Links von einem bestimmten Widget, und der Linktext ist immer derselbe. Ist das problematisch, da es eventuell unnatürlich wirkt, so viele Backlinks mit dem gleichem Anchortext zu haben? Sollte ich das Tool zum Entwerten von Links verwenden, um sie für ungültig erklären?
Antwort: Im allgemeinen braucht man sich keine Gedanken zu machen, wenn man viele Links mit dem gleichem Anchortext von einem Widget bekommt. Es ist jedoch gut möglich, dass diese Links bezüglich des Rankings nicht sehr stark gewertet werden. Der Grund dafür ist, dass man Links als “Stimme” für eine Site ansehen kann: Jemand linkt zu einer Seite mit einem bestimmten Linktext, weil man der Meinung ist, dass diese Seite für dieses Stichwort besonders relevant ist. Das ist bei einem Widgetlink oft weniger der Fall, da diese einfach mit dem Rest des Codes kopiert und nicht bewusst gesetzt wurden.
Ab und zu versuchen jedoch Webmaster oder SEOs Widgets zum Linkbuilding zu mißbrauchen, und es werden zum Beispiel viele Online Gambling- oder Pharma-Links in einen Counter eingebaut. Das ist etwas, von dem wir abraten. Und natürlich kann man im Zweifelsfall immer ein Nofollow-Attribut zu den Widgetlinks hinzufügen. Weitere Informationen zu dem Thema gibts in diesem
Video von Matt Cutts zum Thema Widgetlinks
.
Post von
Uli Lutz
, Search Quality
Das Web in voller Größe auf dem Tablet
Montag, 19. November 2012
Seit es unsere Empfehlungen zur Erstellung von Smartphone-optimierten Websites gibt, haben uns viele Webmaster gefragt, wie sie mit Websites für Tablets verfahren sollen. Ein ähnliches Problem haben auch die Entwickler von Android-Apps. Hier bietet der Leitfaden zur
Erstellung hochwertiger Tablet-Apps
einen idealen Ausgangspunkt.
Obwohl wir keine spezifischen Empfehlungen für die Erstellung suchmaschinenfreundlicher und Tablet-optimierter Websites aussprechen, haben wir dennoch ein paar Tipps für die Gestaltung von Websites, die sowohl für Smartphone- als auch Tablet-Nutzer geeignet sind.
Wenn ihr eure Website für Tablet-Nutzer optimieren möchtet, ist es wichtig, sowohl das Gerät als auch die Erwartungen der Nutzer zu berücksichtigen. Verglichen mit Smartphones haben Tablets größere Touchscreens und verfügen in der Regel über eine WLAN-Verbindung. Tablets bieten eine Interneterfahrung, die mit jedem Computer oder Laptop vergleichbar ist, sind aber flexibler, leichter und insgesamt handlicher.
Wenn ihr also auf eurer Website keine Tablet-optimierten Inhalte anbietet, erwarten Tablet-Nutzer die Desktop- und nicht die Smartphone-Version eurer Website.
Für Smartphone-optimierte Websites empfehlen wir
Responsive Webdesign
. Mit diesem Design ist eine Website für alle Geräte geeignet. Wenn ihr Responsive Webdesign für eure Website verwendet, seht sie euch unbedingt auf verschiedenen Tablets an und prüft, ob alles richtig funktioniert. Genau wie die Smartphone-Version, solltet ihr auch eure Tablet-Version auf verschiedenen Bildschirmgrößen und mit unterschiedlichen Bildschirmauflösungen testen.
Alternativ dazu ist es auch üblich, verschiedene Websites für Desktops und Smartphones zu erstellen und die Nutzer dann auf die passende Version weiterzuleiten. Falls ihr euch hierfür entscheidet, stellt sicher, dass Tablet-Nutzer nicht aus Versehen auf die Smartphone-optimierte Webseite weitergeleitet werden.
Unterscheidung zwischen Android-Smartphones und Android-Tablets
Bei Android-Geräten ist die Unterscheidung zwischen Smartphones und Tablets einfach, nämlich mithilfe des User-Agent-Strings, der vom Browser bereitgestellt wird: Während die User-Agent-Strings von Android-Smartphones und -Tablets beide das Wort "Android" enthalten, findet sich nur im User-Agent-String von Smartphones das Wort "Mobile".
Das bedeutet, dass jedes Android-Gerät ohne ein "Mobile" im User-Agent ein Tablet oder ein anderes Gerät mit einem großen Bildschirm ist und sich daher besser für die Desktop-Website eignet.
Als Beispiel seht ihr hier den von Chrome übermittelten User-Agent-String auf einem Galaxy Nexus-Smartphone:
Mozilla/5.0 (Linux; Android 4.1.1; Galaxy Nexus Build/JRO03O) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Mobile Safari/535.19
Oder hier der von Firefox auf dem Galaxy Nexus übermittelte String:
Mozilla/5.0 (Android; Mobile; rv:16.0) Gecko/16.0 Firefox/16.0
Und hier zum Vergleich der User-Agent-String von Chrome auf dem Nexus 7:
Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03S) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19
Oder von Firefox auf dem Nexus 7:
Mozilla/5.0 (Android; Tablet; rv:16.0) Gecko/16.0 Firefox/16.0
Da der User-Agent-String auf dem Galaxy Nexus ein “Mobile” enthält, sollte der Nutzer auf die Smartphone-optimierte Website geleitet werden. Auf dem Nexus 7 sollte hingegen die Vollversion der Website erscheinen.
Wir hoffen, dass euch diese Informationen bei der Erstellung Tablet-optimierter Websites weiterhelfen. Wie immer könnt ihr gerne in unserem
Forum für Webmaster
posten, falls ihr noch weitere Fragen habt.
Post von
Pierre Far
, Webmaster Trends Analyst, und
Scott Main
, Lead Tech Writer bei developer.android.com. Veröffentlicht von Sven Naumann, Search Quality Team
Schnelleres Web mit mod_pagespeed – Beta-Phase abgeschlossen
Mittwoch, 7. November 2012
Sobald eure Seite im Web ist, zählt die Geschwindigkeit. Es sollte Entwickler und Webmaster nicht viel Arbeit kosten, die eigenen Seiten schneller zu machen, darum haben wir
im Jahr 2010 mod_pagespeed eingeführt
. Seitdem arbeitet das Entwicklungsteam an Verbesserungen der Funktionalität, Qualität und Leistung dieses Open-Source-Apache-Moduls, das Webseiten und ihre Ressourcen automatisch optimiert. Jetzt – nach fast zwei Jahren und achtzehn Versionen – können wir bekannt geben, dass wir das Beta-Label entfernen.
Wir arbeiten eng mit der Open-Source-Community zusammen, um mod_pagespeed weiterzuentwickeln und beispielsweise bessere und intelligentere Optimierungen und Unterstützung für weitere Webserver zu integrieren. Mehr als 120.000 Websites verwenden bereits mod_pagespeed, um die Leistung ihrer Webseiten mit den neuesten Optimierungstechniken und -trends zu verbessern. Das Produkt wird weltweit von einzelnen Websites eingesetzt, aber auch von Hostinganbietern wie DreamHost und Go Daddy sowie Content Delivery Networks wie EdgeCast angeboten. Wir hoffen, dass mit dem Ende der Beta-Phase jetzt noch mehr Websites von der besseren Webleistung mit mod_pagespeed profitieren können.
mod_pagespeed ist ein wichtiger Schlüssel zur Erreichung unseres Ziels: ein schnelleres Web für alle. Nutzer bevorzugen schnellere Websites und wir haben festgestellt, dass schnellere Seiten zu mehr Interaktionen mit den Nutzern, mehr Conversions und einer besseren Kundenbindung führen. Die Seitengeschwindigkeit ist sogar eines der Kriterien im
Ranking der Suchergebnisse
und der
Anzeigenqualität
. Abgesehen davon, dass eine höhere Geschwindigkeit ein großes Anliegen von uns ist, bieten wir Tools und Technologien, mit denen die Leistung gemessen, bewertet und verbessert werden kann. Dazu gehören Berichte zur Website-Geschwindigkeit in
Google Analytics
,
PageSpeed Insights
und
PageSpeed-Optimierungsprodukte
. Sowohl mod_pagespeed als auch PageSpeed-Dienste basieren auf unserem Open-Source Projekt, den
PageSpeed Optimization Libraries
und sind ein wichtiger Bestandteil, Websites die Vorteile der neuesten Best Practices für Leistung nahezubringen.
Weitere Informationen zu mod_pagespeed und zur Integration in eure Website findet ihr in unserer aktuellen
Google Developers-Live-Sitzung
oder auf der
Produktseite von mod_pagespeed
.
Post von Joshua Marantz und Ilya Grigorik, Google PageSpeed-Team (Veröffentlicht von Sven Naumann, Search Quality Team)
Funktion "An Index senden" in den Webmaster-Tools
Freitag, 2. November 2012
In diesem Video stellt Matt Cutts eine kleine aber feine Funktion der Google Webmaster-Tools vor. Diese Funtion ist zwar nicht brandneu, aber vielleicht kennen sie einige von euch noch nicht.
Hallo zusammen, ich bin Matt Cutts. Ich möchte euch eine tolle Funktion in Google Webmaster-Tools vorstellen, die ihr vielleicht noch nicht kennt. Es gibt bereits eine super Funktion, von der ihr hoffentlich schon gehört habt. Sie heißt Abruf wie durch Google. Und hierfür wird sie eingesetzt:
Stellt euch vor, eure Website wurde gehackt. Ihr möchtet herausfinden, ob ihr alle Folgen des Hackings beseitigt habt. Hacker sind heutzutage ziemlich gerissen. Beispielsweise zeigen sie nur Googlebot den Inhalt, normale Leute sehen das Hacking gar nicht. Wenn ihr Abruf wie durch Googlebot aktiviert, ruft der echte Googlebot von Google eine Seite eurer Website ab und zeigt an, was ausgegeben wird. Wenn ihr also aus Versehen Cloaking verwendet habt oder eure Website gehackt wurde, hilft euch Googlebot bei der Fehlerdiagnose und -behebung. Die Funktion ist also der Hammer. Sie ist besonders bei gehackten Websites extrem praktisch.
Und Abruf wie durch Google hat eine tolle neue Funktion: Z.b. wenn ihr die Namen von Leuten ohne deren Erlaubnis auf einer Seite veröffentlicht, und sie werden ziemlich sauer und verlangen, dass ihr ihre Namen entfernt. Auch wenn ihr diesen Inhalt von der Seite entfernt, wird der Index erst aktualisiert, wenn Googlebot die Seite gecrawlt hat. Das ist mit der neuen Funktion von Abruf wie durch Google jetzt anders. Bis zu 500-mal pro Woche könnt ihr eine Seite abrufen, damit sie als neue Seite an den Index gesendet wird. Wenn ihr die Seite aktualisiert und den Namen einer Person entfernt oder etwas anderes geändert habt, könnt ihr das an den Index und an Google senden und das wiederum zum Index hinzufügen. Das ist eine tolle Funktion.
Es gibt auch ein kleines Extra. Zehnmal pro Monat könnt ihr nicht nur die Seite, sondern auch die mit ihr verlinkten Seiten aktualisieren. Es wird also nicht nur die Version einer Seite aktualisiert, sondern auch alle Seiten, auf die die Seite verlinkt. Das ist nur zehnmal pro Monat möglich, weil wir das System nicht überlasten oder überfordern wollen. Aber bei wirklich wichtigen Sachen, z. B. bei einem neuen Link zu eurem Kuchenverkauf oder Inhalten, die aus dem Web entfernt werden sollten, könnt ihr die Funktion Abruf wie durch Google aktivieren, damit alles aktualisiert wird. Dann könnt ihr diese Seite und auch alle verlinkten Seiten an den Index senden. Es ist wirklich praktisch, diese Seiten so schnell an Google und den Index senden zu können.
Also probiert es mal aus und schaut, ob es euch gefällt. Ihr findet alles in den Google Webmaster-Tools, unter dem Link
google.de/webmasters
. Diesen Service bieten wir kostenlos. Hoffentlich gefällt er euch.
Veröffentlicht von
Uli Lutz
, Search Quality
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster