Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Geschwindigkeit und Relevanz: Wie stehen sie in Zusammenhang?
Mittwoch, 30. Juni 2010
Heute präsentieren wir noch einmal Matt Cutts ohne Haare. ;) In diesem Video von Anfang des Jahres spricht er darüber, inwiefern Page Speed aufs Ranking Einfluss hat.
Lumenbeing in Los Angeles fragt:
"Derzeit wird viel über Page Speed gesprochen und ich frage mich, ob Google noch genauso großen Wert auf Relevanz legt? Oder sind Aktualität und Seitenladezeit wichtiger?"
Also, Relevanz ist natürlich am wichtigsten. Bei zwei Websites mit gleicher Relevanz, gleichen Backlinks und wenn auch sonst
alles gleich ist, würde man wahrscheinlich die etwas schnellere vorziehen. Mit Page Speed kann man also in der Theorie verschiedene Websites gegenüberstellen und beurteilen. Auf jeden Fall aber ist Relevanz der Hauptfaktor und wir haben über 200 Signale in unserer Bewertung, mit denen wir versuchen, die relevantesten, nützlichsten und genauesten Suchergebnisse anzubieten.
Daran ändert sich also nichts. Gemäß unserer Philosophie versuchen wir immer, unseren Nutzern die besten Seiten zu liefern, ihnen Informationen zu ihren Suchanfragen anzubieten. Aber wenn eine Website schneller ist, ist das nicht nur für Nutzer, sondern letztlich auch für Suchmaschinen gut. Mit diesem Thema haben sich Google-Entwickler beschäftigt. Wäre es nicht gut, wenn wir Websites identifizieren könnten, die besonders schnell sind oder die ein richtig, richtig schlechtes Nutzererlebnis bieten? Es ist nur ein kleiner von über 200 Faktoren, wenn wir sagen:
"Weißt du was? Diese Website ist nicht nur relevant, sondern hier hat sich jemand auch alle Mühe gegeben, besondere Benutzerfreundlichkeit anzubieten." Das wollen wir den Nutzern zeigen.
Post von Jörg Pacher, Search Quality Team
Caffeine oder Mayday? Änderungen bei den Long-Tail-Sucherergebnissen
Montag, 28. Juni 2010
Im heutigen Video geht Matt Cutts auf Änderungen ein, die Webmastern in den letzten 2 Monaten aufgefallen sind.
Die heutige Frage kommt von Brian aus Seattle, Washington. Brian fragt:
“Viele Leute reden über Besucher-Rückgänge für Long-Tail-Suchergebnisse,” und er verweisst auf eine URL von WebmasterWorld. “Ich frage mich, ob du uns ein Update geben kannst, was gerade bei Google passiert? Caffeine-Update? Veränderungen im Algorithmus? Kurzzeitig?”
Ok, fantastische Frage! Eine Menge Webmaster haben darüber schon diskutiert, also bin ich froh, die Chance zu haben, dass anzusprechen. Es handelt sich dabei um etwas, das man bei WebmasterWorld “Mayday” (Maitag) nennt und das irgendwie zwischen 28. April und 3. Mai passierte, also genau um den 1. Mai herum, weshalb sie es Mayday genannt haben. Es handelt sich um eine Veränderung im Algorithmus und es betrifft Long-Tail-Suchanfragen stärker als normale Suchanfragen. Es ist gewollt und es ist eine Änderung aus Qualitätsgründen, die unsere gesamten Qualitätskontrollen durchlaufen hat, um sicherzustellen, dass aus qualitativer Sicht alles gut ausschaut. Es hat also nichts mit Caffeine zu tun, auch wenn Caffeine zügig voranschreitet, und ist komplett unabhängig von Caffeine. Es ist eine algorithmische Veränderung und somit ist hier nichts Manuelles beteiligt. Das sind allein unsere Algorithmen, die denken, dass einige Websites ein besseres Ergebnis für einige Suchanfragen sind als andere Websites.
Und es ist nicht kurzzeitig. Es ist etwas, mit dem wir versuchen, die Qualität von Seiten zu bewerten. Wir versuchen, die besten Seiten für eine Lond-Tail-Suche zu finden, und es ist eine algorithmischen Anpassung, die verändert, wie wir bewerten, welche Seiten die besten Ergebnisse für Long-Tail-Suchen bieten. Wenn ihr also von Mayday betroffen seid, an was ihr denken sollt, fragt euch: Habe ich eine Seite höchster Qualität? Werde ich für die relevantesten Suchanfragen gelistet? Was kann ich tun, um großartige Inhalte zu bieten, damit User mich als Authorität ansehen, damit ich nicht nur mit thematisch Fremdem übereinstimme, oder dass die User das alles gar nicht nützlich finden? Das Wichtigste ist aber, es ist eine algorithmische Anpassung, die durch den gesamten Prozess gelaufen ist. Wir nehmen nicht an, dass das nur kurzzeitig so ist. Es ist keine menschliche Wertung der Art “Wir dachten, die Seite ist gut oder die Seite ist schlecht.” eingeflossen. Stattdessen ist es rein algorithmisch. Long-Tail-Suchen sind eher betroffen, und nach der ganzen Evaluierung haben wir beschlossen, dass es ein qualitativer Zugewinn ist. Ein paar Leute haben es bemerkt, aber nicht die ganze Welt. Berücksichtigt, dass wir jedes Jahr über 400 Veränderungen bezüglich direkter qualitativer Veränderungen vornehmen, wenn wir einen Algorithmus optimieren, einführen oder verbessern. Dieses Mal war es ein bisschen sichtbarer für einige Leute, die genau auf Nischen-Suchanfragen achten, aber wir glauben, dass es ein qualitativer Zugewinn ist, und wir gehen davon aus, dass sich das fortsetzen wird.
Übersetzung von Daniela Loesser, Search Quality Team
Kann der Umzug in die Cloud dem Ranking meiner Website schaden?
Freitag, 25. Juni 2010
In diesem Video beantwortet Matt Cutts eine Frage aus Vorarlberg. Folgt dem folgenden Link, falls ihr mehr Infos zur angesprochenen
geografischen Ausrichtung in den Webmaster-Tools
sucht.
Wir haben eine Frage von Michael S. aus Österreich. Michael fragt:
"Kann der Umzug meiner Website in die Cloud meinem Ranking schaden?"
Ok, sehen wir uns zunächst einmal diesen ersten Teil der Frage an und überlegen uns Folgendes: Wir wissen nicht, was in eurem Webserver vor sich geht, oder? Euer Webserver könnte Perl ausführen. Es könnte ein Webserver mit PHP-Unterstützung sein. Er könnte auch Python oder Ruby on Rails ausführen.
Wir erfahren nur das, was vom Webserver zurückgegeben wird. Euer Webserver könnte also Code ausführen, der Informationen an die Cloud von Amazon, an Appspot oder an einen anderen Ort in der Cloud liefert. Doch selbst das ist uns nicht bekannt. Wir wissen nicht einmal, ob eine Seite dynamisch oder statisch ist. Wir wissen nur das, was der Webserver zurücksendet. Das heißt, wenn sich eure Website in der Cloud befindet, kommunizieren wir lediglich mit einem Webserver und bekommen einige Informationen zurück. Eure Kommunikation mit der Cloud hinter den Kulissen kann von keiner Suchmaschine und keinem Robot erfasst werden.
Beantworten wir jetzt den zweiten Teil der Frage, der wie folgt lautet:
"Nehmen wir an, mein Server befindet sich in Deutschland und ich verschiebe meine Website in Google App Engine oder Amazon S3. Schadet dies meiner Auflistung bei deutschen Suchergebnissen?"
Nun, normalerweise befindet sich der Server weiterhin in Deutschland. Ihr könnt beispielsweise für Amazon S3 statische Dateien und Bilder bereitstellen. Die meisten Inhalte werden jedoch weiterhin von eurem Webserver gehostet. Und dieser hat wahrscheinlich weiterhin seinen Standort in Deutschland. Wenn ihr jedoch alle Inhalte in die Cloud verschiebt und beispielsweise eine Domain erhalten habt, die ihr mit Daten in Appspot füllt, dann lautet die Antwort theoretisch "Ja".
Dann können wir möglicherweise erkennen, dass es sich um eine Appspot-IP-Adresse in den USA handelt. Es gibt jedoch folgende Möglichkeit, die im letzten Teil der Frage angesprochen wird:
"Reicht es aus, für das geografische Ziel in den Google Webmaster-Tools Deutschland festzulegen?"
Das heißt, auch wenn ihr eine US-amerikanische IP-Adresse habt und einen deutschen Dienst anbietet, könnt ihr sagen: "Ja, dieser Teil meiner Website bzw. meine gesamte Website ist für den deutschen Markt bestimmt". Und auch wenn ihr dann euren Inhalt in die Cloud verschiebt, wissen wir, dass er weiterhin für dieses spezielle Land gilt.
Im Allgemeinen habe ich festgestellt, dass ihr bei Cloud-basierten Inhalten keine umfassenden Patches für eure Software benötigt, da dies vom Web-Host, Webserver oder Webservice erledigt wird. Im Großen und Ganzen habt ihr also weniger Sorgen. Und bei einem Festplattenabsturz auf eurem Computer können alle Daten verloren gehen. Wenn ihr die Inhalte in die Cloud auslagert, ist vieles einfacher und ihr braucht euch keine Gedanken um Betriebszeiten, Ausfallzeiten und all diese Dinge zu machen. Die Cloud-Lösung kann also viele Vorteile bieten. Manche versuchen, ihren Blog und ihre Bilder so umzugestalten, dass fast keine Daten mehr auf ihrem eigenen Webserver gehostet werden. Wenn ihr diese Möglichkeit habt, funktioniert alles viel reibungsloser.
Übersetzung von Jörg Pacher, Search Quality
Videoantwort: Erste Schritte bei Entfernung von Content
Donnerstag, 24. Juni 2010
Letzte Woche hat Sven ausführlich in einem
Video über die Entfernung von Content von der eigenen Website
berichtet.
Heute widmen wir uns ein wenig den Grundlagen. Wenn ihr euch also das erste Mal Gedanken macht, wie ihr mit ungewünschten Informationen über euch in den Google Suchergebnissen umgehen könntet, seid ihr hier richtig. :)
Weitere Tipps zur eventuell nötigen Kontaktaufnahme mit Webmastern
findet ihr übrigens hier
. Und hier beginnt ihr eine ganze Serie von Blogposts zum Thema "
Wie man unerwünschte Inhalte los wird
".
Post von Jörg, Search Quality
Die Auswirkung von Standort und früheren Suchen auf die Suchergebnisse
Mittwoch, 23. Juni 2010
Heute beantwortet Matt Cutts eine Frage darüber, wie Suchergebnisse an Personen angepasst werden.
Brian aus Rochester, Michigan fragt:
"Inwiefern beeinflussen der Standort und die vorherigen Suchanfragen die aktuellen und künftigen Suchergebnisse?"
Gehen wir zunächst davon aus, dass ihr angemeldet seid, da dies der einfachere Fall ist. Wenn wir wissen, wo ihr euch befindet, egal, ob ihr ein Handy oder einen Webbrowser nutzt, können wir euch bessere Ergebnisse liefern. Wenn ihr Pizza, Yogalehrer oder Klempner eingebt, wollt ihr diejenigen sehen, die in eurer Nähe sind, und keine Ergebnisse aus San Francisco, wenn ihr in New York seid, oder umgekehrt.
Wir versuchen also, euren Standort zu berücksichtigen, sogar die jeweilige Stadt, damit wir sagen können:
"Aha, diese Person ist in dieser Stadt. Versuchen wir, ihr relevante, nützliche Ergebnisse in ihrer Nähe anzuzeigen." Gleiches gilt auch für vorherige Suchanfragen.
Ihr wisst ja, sobald ihr euch anmeldet, versuchen wir, eure Suchergebnisse zu personalisieren. Und das kann sehr hilfreich sein, denn mit "ATM" kann nicht nur ein Bankautomat, sondern auch ein Netzwerkprotokoll gemeint sein, und ihr seid vielleicht mehr an Infos zum asynchronen Übertragungsprotokoll interessiert. Je mehr Informationen ihr Google gebt, desto bessere und relevantere Suchergebnisse erhaltet ihr.
Wenn ihr eure Cookies löschen möchtet, könnt ihr das jederzeit tun. In diesem Fall wissen wir dann gar nichts mehr über euch. Vielleicht können wir anhand eurer IP-Adresse auf das jeweilige Land schließen und ähnliche Dinge. Die meisten Menschen,
die ganz große Mehrheit, scheint mit der Idee einverstanden zu sein und weiß:
"OK, wenn ich Google ein paar Infos gebe, erhalte ich bessere Ergebnisse."
Übersetzung von Jörg Pacher, Search Quality Team
Hochwertige Links für eure Website
Dienstag, 22. Juni 2010
Eine beliebte Frage in unserem
Webmaster-Forum
bezieht sich darauf, wie man am besten organischen Linkaufbau betreiben kann. Es scheint als hätten gerade weniger erfahrene Webmaster ihre Schwierigkeiten mit diesem Thema. Zum Erhalt von hochwertigen Links gibt es verschiedene Einstellungen - auch wir würden gerne
unsere Sichtweise
hierzu erklären.
Wenn eure Website ziemlich neu und noch unbekannt ist, kann eine vielversprechende Marketingtechnik darin liegen, die Community mit einzubringen. Hierfür solltet ihr in den entsprechenden Foren und Blogs aktiv sein. Behaltet aber hierbei im Hinterkopf, in einer positiven Weise Inhalte beizutragen und nicht zu spammen oder aggressive Werbung für eure Website zu betreiben. Nur die begründet erworbene Reputation zieht die Leute auf eure Website und bringt sie dazu, die Website immer wieder zu besuchen und auch auf sie zu verlinken. Wenn ihr langlebige, einzigartige und besondere Inhalte bietet - also Inhalte, die eure Expertise glänzen lassen - dann werden die Leser eure Website auch anderen empfehlen. Gute Inhalte erfüllen diesen Zweck ebenso wie auch die Bereitstellung von hilfreichen Tools.
Ein vielversprechender Weg, um einen Nutzen für eure Zielgruppe zu schaffen und um hochwertige Links zu erhalten, liegt in der Beachtung der Fragen und Probleme, mit denen sich eure Nutzer konfrontiert sehen. Die Besucher eurer Website werden sie sicherlich noch mehr zu schätzen wissen, wenn ihr ein kurzes Tutorial oder ein Video veröffentlicht, das eine Lösung zu einem bestimmten Problem bietet. Die Veröffentlichung von Umfrageergebnissen oder von originalen Forschungsergebnissen kann denselben Zweck erfüllen, wenn sie sich als nützlich für die entsprechende Zielgruppe herausstellt. Beide Methoden steigern eure Glaubwürdigkeit und erhöhen eure Sichtbarkeit in der Community. Das kann euch helfen, beständige, wohlverdiente Links, sowie auch auch loyale Leser zu gewinnen, die sowohl direkten Traffic generieren als auch für Mund-zu-Mund-Propaganda sorgen. Durch das Bereitstellen von zahlreichen Lösungen für unterschiedliche Probleme, könnte z. B. auch ein Blog entstehen, der sich fortlaufend positiv auf den Ruf eurer Website auswirkt.
Eine weitere Möglichkeit, sowohl gute Links zu gewinnen, als auch Leute dafür zu begeistern, über eure Website zu sprechen, ist Humor. Durch die wachsende Verbreitung von
Google Plus
und anderen Social-Media-Diensten werden unterhaltsame Inhalte mehr als je miteinander geteilt. Bestimmt hat jeder schon mal solche Arten amüsanter Inhalte gesehen, von ASCII-Kunst, eingebettet in den Quellcode einer Website, bis hin zu lustigen Fehlermeldungen, die als Mittel für Virales Marketing verwendet wurden, um die Sichtbarkeit der Website zu erhöhen. Allerdings empfehlen wir, sich nicht nur auf kurzlebige Taktiken, die kurzfristig Links generieren, zu verlassen. Deren Reiz klingt schnell ab und so mächtig Marketinggags auch sein können, solltet ihr diese weder als langfristige Strategie noch als eure einzige Marketingaktivität verwenden.
Es ist wichtig zu verdeutlichen, dass jede seriöse Linkaufbau-Strategie einen langfristigen Aufwand darstellt. Es gibt Befürworter von kurzlebigen und oftmals spambehafteten Methoden. Die Verwendung dieser Methoden ist jedoch nicht ratsam, wenn euch der Ruf eurer Website wichtig ist. Der
Kauf von PageRank-vererbenden Links
, sowie auch wahlloser
Linktausch
stellen die schlechtesten Wege dar, Links zu sammeln. Diese haben im Laufe der Zeit wahrscheinlich keinen positiven Einfluss auf eure Website. Wenn euch die Sichtbarkeit eurer Website im Google-Index am Herzen liegt, solltet ihr diese Methoden vermeiden.
Der Eintrag von Websites in Webverzeichnissen wird häufig als weitere Möglichkeit genannt, um junge Websites im Google-Index zu begünstigen. Es gibt bedeutende, aktuelle Verzeichnisse, die das Internet bereichern. Doch gibt es von diesen Verzeichnissen, im Vergleich zu denen geringerer Qualität, nicht besonders viele. Wenn ihr euch dazu entscheidet, eure Website in ein Webverzeichnis einzutragen, achtet bitte darauf, dass dieses aktuell, moderiert und gut strukturiert ist. Masseneintragungen, die manchmal als schneller SEO-Workaround angeboten werden, sind überwiegend nutzlos und dürften euren Absichten sicher nicht dienlich sein.
Es kann hilfreich sein, einen Blick auf ähnliche Websites aus anderen Märkten zu werfen und diejenigen Elemente dieser Websites zu identifizieren, die auch für eure Website gut funktionieren könnten. Jedoch ist es hierbei wichtig, nicht einfach andere Erfolgsstories zu kopieren, sondern diese sinnvoll anzupassen, so dass sie einen besonderen Mehrwert für eure Besucher bieten.
Social Bookmarks auf YouTube, die den Nutzern ermöglichen, Inhalte leichter miteinander zu teilen
Versucht die Möglichkeit der Verlinkung auf eure Website für weniger technik-affine Nutzer einfacher zu gestalten. Ähnlich wie wir Bookmarking-Dienste für Social-Media-Websites wie Twitter oder Facebook auf YouTube bereitstellen, kann dies der Mund-zu-Mund-Propaganda dienen und die Aufmerksamkeit der Nutzer gewinnen.
Wie gewohnt, würden wir gerne eure Meinung zu diesem Thema hören - schreibt Kommentare hier im Blog oder besucht unser
Webmaster-Forum
.
Post von
Kaspar Szymanski
, Search Quality Strategist, Dublin
Wie wirken sich Backlinks zu Presseerwähnungen aus?
Mittwoch, 16. Juni 2010
Heute kommt wieder einmal Matt Cutts zu Wort. Er beschäftigt sich mit folgender Frage:
"Wenn ich auf einen Presseartikel über unsere Firma zurücklinke, erkennt das Google als gegenseitige Verlinkung und wertet diesen eingehenden Link deshalb weniger?"
Übersetzung von Daniela Loesser, Search Quality
Deutschsprachige Videoantworten: Entfernung von Suchergebnissen der eigenen Website
Dienstag, 15. Juni 2010
Wie wir bereits im
Webmaster-Forum
angekündigt haben, möchten wir hier im Blog der Webmaster-Zentrale in Zukunft Fragen auf Video beantworten.
Den Anfang macht eine Frage zu einem Thema, das euch immer wieder beschäftigt. Sven vom Search Quality Team beantwortet im folgenden Video:
“Wie kann ich die Inhalte meiner Website aus den Suchergebnissen entfernen?”
Mehr Informationen findet ihr auch in
unserer Serie von Blogposts zum Thema
.
Wir freuen uns über Kommentare, Fragen und Vorschläge, sowohl hier als auch im Webmaster-Forum.
Also: Wenn ihr Vorschläge habt, welche Fragen wir in Zukunft beantworten sollten, zögert nicht sie zu stellen! :)
Post von Jörg Pacher, Search Quality Team
Google Videos: Best Practices
Samstag, 12. Juni 2010
Wir möchten euch drei bewährte Vorgehensweisen zur Lösung der häufigsten Probleme vorstellen, die beim Crawlen und Indexieren von Video-Content auftreten. Zur Anwendung dieser “Best Practices” solltet ihr erstens sicherstellen, dass eure Video-URLs gecrawlt werden können, zweitens angeben, in welchen Ländern eure Videos abgespielt werden dürfen, und drittens, wenn eure Videos entfernt werden, sollte dies für die Suchmaschinen eindeutig erkennbar sein.
Bewährte Vorgehensweise Nr. 1: Überprüft in eurer "robots.txt"-Datei, ob eure Video-URLs gecrawlt werden können
Manchmal nehmen Publisher aus Versehen Video-URLs in ihre Sitemaps auf, die von der "robots.txt"-Datei blockiert wurden. Vergewissert euch, dass eure "robots.txt"-Datei keine URLs blockiert, die in eurer Sitemap angegeben sind. Hierzu gehören URLs für
die Wiedergabeseite,
den Content und den Player
und die Miniaturansicht.
Weitere Informationen zur "robots.txt"-Datei
Bewährte Vorgehensweise Nr. 2: Teilt uns mit, in welchen Ländern das Video abgespielt werden darf
Ist euer Video nur in bestimmten Gebieten verfügbar? Anhand des kürzlich hinzugefügten Attributs "restriction" (
hier findet ihr Dokumentation
) könnt ihr erkennen, ob das Video nur in bestimmten Gebieten abgespielt werden kann. Mithilfe dieses Tags könnt ihr entweder eine Liste aller Länder beifügen, in denen das Video abgespielt werden kann, oder uns einfach nur mitteilen, in welchen Ländern es nicht abgespielt werden kann. Wenn eure Videos überall abgespielt werden können, braucht ihr euch hierüber keine Gedanken zu machen.
Bewährte Vorgehensweise Nr. 3: Weist zugunsten einer optimalen Nutzererfahrung eindeutig darauf hin, wenn Videos entfernt werden
Manchmal werden Videos von den Publishern entfernt, ohne dass dies den Suchmaschinen signalisiert wird. Dadurch spiegelt der Index der Suchmaschine den Content im Web unter Umständen nicht mehr genau wider. Wenn ein Nutzer daraufhin auf ein Suchergebnis klickt, erhält er entweder den Hinweis, dass das Video nicht existiert, oder er gelangt zu einem anderen Video. Das nervt natürlich ungemein. Wir verfügen zwar über Mechanismen zur Erkennung von nicht mehr verfügbaren Suchergebnissen, dennoch empfehlen wir euch dringend, die Community-Richtlinien einzuhalten.
So signalisiert ihr
, dass ein Video entfernt wurde:
Gebt einen 404-HTTP-Statuscode ("Nicht gefunden") zurück
. Ihr könnt auch mit einem 404-Antwortcode eine für eure Nutzer hilfreiche Seite anzeigen.
Hier findet ihr Richtlinien zur Erstellung nützlicher 404-Seiten
.
Gebt
für jedes Video, das in einer an Google übermittelten Video-XML-Sitemap oder in einem mRSS-Feed aufgelistet wird,
ein Ablaufdatum an
. Verwendet hierfür das Element
bzw. das Tag
.
Weitere Informationen zu Google Videos findet ihr in der
Google Videos-Hilfe
. In unserem
Hilfeforum
könnt ihr darüber hinaus Fragen stellen und nach Antworten suchen.
Post von Nelson Lee, Product Manager Video Search (Veröffentlicht von Jörg Pacher, Search Quality)
Wie man unerwünschte Inhalte los wird, Teil 4: Der Status eurer Anfrage und was nicht entfernt werden sollte
Freitag, 11. Juni 2010
Im letzten Teil unserer Serie zur Entfernung von URLs geht es darum, wie ihr eure Entfernungsanfragen nachverfolgen könnt und wann ihr das Tool zum Entfernen von URLs nicht verwenden solltet. Falls ihr dies nicht bereits getan habt, empfehlen wir euch, die vorherigen Posts dieser Serie zu lesen:
Teil 1: Entfernen von URLs und Verzeichnissen
Teil 2: Entfernen und Aktualisieren von Content aus dem Google-Cache
Teil 3: Entfernen von Content, der euch nicht gehört
Begleit-Post:
Verwalten der Informationen, die online über euch verfügbar sind
Den Status eurer Anfrage verstehen
Nachdem ihr eine Entfernungsanfrage übermittelt habt, wird sie in der Liste eurer Anfragen angezeigt. Ihr könnt den Status eurer Anfragen jederzeit überprüfen, um festzustellen, ob der Content bereits entfernt wurde, ob die Bearbeitung noch aussteht oder ob die Anfrage möglicherweise abgelehnt wurde.
Bei einer Ablehnung wird neben der Anfrage der Link "Weitere Informationen" angezeigt. Unter diesem Link könnt ihr erfahren, weshalb diese Anfrage abgelehnt wurde. Da für verschiedene Entfernungsarten verschiedene Anforderungen bestehen, können die Gründe für eine Ablehnung variieren. Mithilfe des Links "Weitere Informationen" könnt ihr herausfinden, was ihr ändern müsst, damit eure Anfrage erfolgreich ist. Eine Möglichkeit ist, dass ihr die betreffende URL ändern müsst, sodass sie den Anforderungen für diese Art der angefragten Entfernung entspricht. Falls dies nicht möglich ist, müsst ihr eventuell eine andere Art von Entfernung beantragen, deren Anforderungen eure URL erfüllt.
Wenn eine Anfrage als "Entfernt" gekennzeichnet ist, der Content aber immer noch in den Suchergebnissen angezeigt wird, überprüft Folgendes:
Ist die URL in unseren Suchergebnissen genau mit der von euch zur Entfernung eingereichten URL identisch?
Es ist durchaus üblich, dass derselbe oder ähnlicher Content unter mehreren URLs auf einer Website erscheint. Ihr habt zwar möglicherweise eine URL erfolgreich entfernt, seht aber in den Suchergebnissen noch andere, die denselben Content enthalten.
Lösung:
Fordert die Entfernung der anderen URL(s) an. In
diesem Artikel
findet ihr weitere Informationen hierzu.
Denkt daran, dass
bei URLs die Groß- und Kleinschreibung beachtet
wird. Es ist also ein Unterschied, ob ihr die Entfernung von
http://www.example.com/peinlichesachen.html
oder
http://www.example.com/PeinlicheSachen.html
beantragt.
Lösung:
Fordert die Entfernung genau der URL(s) an, die in den Suchergebnissen erscheinen, und achtet dabei auf die Groß- und Kleinschreibung. In
diesem Artikel
findet ihr weitere Informationen hierzu.
Der Status "Entfernt" kann je nach Art eurer Anfrage eine unterschiedliche Bedeutung haben.
Wenn ihr die Entfernung einer vollständigen URL angefordert habt, bedeutet "Entfernt", dass diese URL überhaupt nicht mehr in den Suchergebnissen angezeigt wird. Falls ihr die Entfernung der Cache-Kopie einer URL angefordert habt, bedeutet "Entfernt", dass die Kopie im Cache entfernt wurde und nicht mehr in den Suchergebnissen angezeigt wird. Die URL selbst kann jedoch weiterhin in den Suchergebnissen erscheinen.
Lösung:
Überprüft in der entsprechenden Spalte, welche Art der Entfernung ihr angefordert habt. Wenn ihr eine Entfernung aus dem Cache beantragt habt, aber möchtet, dass die komplette URL entfernt wird, vergewissert euch zunächst, dass die URL den
Anforderungen für eine vollständige Entfernung
entspricht und reicht dann eine neue Anfrage für die vollständige Entfernung der URL ein.
Wann das Tool zum Entfernen von URLs nicht verwendet werden sollte
Zum Beseitigen von überflüssigem Content
, wie zum Beispiel alten Seiten, die einen 404-Status zurückgeben.
Das Tool ist auf URLs ausgelegt, die dringend entfernt werden müssen, zum Beispiel wenn versehentlich vertrauliche Daten offengelegt wurden. Wenn ihr kürzlich Änderungen an eurer Website vorgenommen habt und sich deshalb einige veraltete URLs im Index befinden, merken die Crawler von Google dies beim erneuten Crawlen der URLs und die Seiten werden mit der Zeit aus unseren Suchergebnissen verschwinden. Ihr braucht keinen dringenden Antrag auf Entfernung über dieses Tool zu stellen.
Zum Entfernen von
Crawling-Fehlern
aus eurem Webmaster-Tools-Konto
Mit dem Tool werden URLs aus den Suchergebnissen von Google und nicht aus eurem Webmaster-Tools-Konto entfernt. Zurzeit könnt ihr URLs nicht manuell aus diesem Bericht entfernen. Sie werden mit der Zeit von selbst verschwinden, da wir URLs nicht mehr crawlen, wenn sie wiederholt den Status 404 zurückgeben.
Für einen "Neustart" eurer Website
Wenn ihr befürchtet, dass eurer Website eine Strafe droht oder ihr nach dem Kauf einer Domain von jemand anderem ganz von vorne anfangen möchtet, solltet ihr nicht versuchen, eure gesamte Website mit diesem Tool zu entfernen. Suchmaschinen sammeln eine Menge Informationen von anderen Websites, zum Beispiel wer auf euch verlinkt oder mit welchen Begriffen eure Website beschrieben wird. Diese Informationen werden dazu verwendet, eure Website zu verstehen. Selbst wenn wir alles entfernen könnten, was wir im Moment über eure Website wissen, würden viele dieser Informationen genau so zurückkommen, sobald wir all die anderen Websites, die uns beim Verständnis eurer Website helfen, erneut gecrawlt hätten. Falls ihr euch Sorgen macht, dass eure Domain in der Vergangenheit einen schlechten Ruf entwickelt hat, empfehlen wir euch, einen
Antrag auf erneute Überprüfung
zu stellen, in dem ihr uns eure Befürchtungen und Änderungen mitteilen könnt (zum Beispiel, dass ihr die Domain von jemand anderem übernommen habt oder dass ihr bestimmte Aspekte der Website verändert habt).
Um eure Website nach einem Hackerangriff "offline" zu stellen
Wenn eure Website gehackt wurde und ihr fehlerhafte URLs loswerden wollt, die indexiert wurden, könnt ihr mit dem Tool zum Entfernen von URLs alle URLs entfernen, die der Hacker neu erstellt hat, wie etwa
http://www.example.com/buy-cheap-cialis-skq3w598.html
. Ihr solltet jedoch nicht eure gesamte Website entfernen oder die Entfernung von URLs anfordern, die später noch indexiert werden sollen. Wir empfehlen euch stattdessen, die Spuren des Hackerangriffs zu beseitigen und uns dann zu bitten, eure Website neu zu crawlen. So kann der neue, bereinigte Content am schnellsten indexiert werden.In
diesem Artikel
findet ihr weitere Informationen zum Umgang mit Hacking.
Damit die "richtige" Version eurer Website indexiert wird
Wenn eine Anfrage zur Entfernung von
https://www.example.com/tattoo.html
akzeptiert wird, wird auch
http://www.example.com/tattoo.html
entfernt. Dasselbe gilt für die www- und nicht-www- Versionen eurer URL oder Website. Dies liegt daran, dass alle diese URLs häufig denselben Content enthalten. Uns ist klar geworden, dass die meisten Webmaster und Nutzer der Suche nicht möchten, dass diese Duplikate in den Suchergebnissen angezeigt werden. Kurz gesagt: Das Tool zum Entfernen von URLs sollte nicht zur zum
Festlegen der kanonischen Version
verwendet werden. Ihr könnt auf diesem Weg also nicht eure bevorzugte Version behalten, denn es werden alle Versionen einer URL entfernt (http/https und www/nicht-www).
Wir hoffen, dass diese Serie eure Fragen zum Entfernen von Content aus den Suchergebnissen von Google beantwortet und euch bei der Lösung von Problemen geholfen hat. Schaut doch auch mal in unserem
Hilfeforum
vorbei, falls ihr noch Fragen habt.
URL removal explained, Part IV: Tracking your requests & what not to remove (English version)
Post von Susan Moskwa, Webmaster Trends Analyst (Veröffentlicht von Jörg Pacher, Search Quality)
Unser neuer Suchindex: Caffeine
Donnerstag, 10. Juni 2010
Wir möchten euch über die Fertigstellung von Caffeine, unserem neuen System zur Indexierung des Webs, informieren. Caffeine bietet um 50 Prozent aktuellere Suchergebnisse als unser vorheriger Index und ist die größte Sammlung von Webinhalten, die wir jemals anbieten konnten. Egal, ob es sich um Nachrichten, ein Blog oder ein Posting in einem Forum handelt, ihr werdet jetzt Links zu relevantem Content viel schneller nach der Veröffentlichung finden, als das früher möglich war.
Wir wollen auch all jenen, die nicht so wie wir, den Großteil ihres Lebens damit verbringen, an Suchmaschinen zu feilen, ein wenig Hintergrundinformation liefern: Wenn ihr in Google sucht, durchsucht ihr nicht das Web selbst. Stattdessen, durchsucht ihr einen Index des Webs - eben wie euch der Index am Ende eines Buches dabei hilft, genau jene Stelle mit der richtigen Information zu finden. (Hier findet ihr
englischsprachige Informationen
darüber, wie es funktioniert.)
Also, warum haben wir ein neues System zur Indexierung geschaffen? Der Content im Web blüht auf. Er wird nicht nur immer mehr und umfangreicher: Mit der Verbreitung von Video, Bildern, News und Echtzeitupdates, wird die durchschnittliche Website reichhaltiger und komplexer. Zusätzlich steigt die Erwartungshaltung der Benutzer in Bezug auf die Suche. Jemand, der sucht, möchte den neuesten relevanten Content finden und Websitebetreiber erwarten, dass ihre Inhalte sofort nach der Veröffentlichung gefunden werden.
Um mit der Evolution des Webs Schritt zu halten und die steigenden Benutzererwartungen zu erfüllen, haben wir Caffeine verwirklicht. Das folgende Bild stellt dar, wie unsere altes Indexierungssystem im Vergleich zu Caffeine funktionierte:
Unser alter Index hatte mehrere “Schichten”. Manche wurden schneller aktualisiert als andere. Die Hauptschicht wurde alle paar Wochen erneuert. Um eine Schicht des alten Index zu erneuern, wurde das ganze Web analysiert. Das bedeutete, dass es eine deutliche Verzögerung zwischen dem Zeitpunkt, zu dem wir eine Seite entdeckten, und ihrer Auffindbarkeit für euch gab.
Mit Caffeine analysieren wir das Web in kleinen Dosen und aktualisieren unseren Index kontinuierlich und weltweit. Wenn wir neue Seiten finden - oder neue Informationen auf bereits existierenden Seiten - können wir sie direkt dem Index hinzufügen. Das bedeutet, ihr könnt aktuellere Informationen als jemals zuvor finden - egal wann oder wo sie veröffentlicht wurden.
Caffeine ermöglicht die Indexierung von Seiten in enormem Maßstab. In jeder Sekunde verarbeitet Caffeine parallel Hunderttausende von Seiten. Wenn es sich um einen Papierstoß handelte, würde er jede Sekunde um beinahe 5 km wachsen. Caffeine beansprucht fast 100 Millionen Gigabyte Speicher in einer unserer Datenbanken und fügt jeden Tag neue Informationen in der Größenordnung von Hunderttausenden Gigabytes hinzu. Ihr würdet 625,000 der speicherstärksten iPods benötigen, um so viele Informationen zu speichern und kämt ihr auf eine Höhe von fast 65km, würdet ihr die aufeinanderstapeln.
Wir haben Caffeine mit Blick auf die Zukunft geplant. Es ist nicht nur aktueller, es ist auch ein robustes Fundament, dass es uns ermöglicht eine neue, noch schnellere und umfassendere Suchmaschine zu bauen, die mit dem Anstieg an Informationen im Netz mitwächst und euch noch relevantere Suchergebnisse liefert. Ihr könnt also noch mehr Verbesserungen in den kommenden Monaten erwarten.
Our new search index: Caffeine (English version)
Post von Carrie Grimes, Software Engineer (Übersetzung von Jörg Pacher, Search Quality)
Webmaster-Tools: Suchanfragen mit neuen Features
Dienstag, 1. Juni 2010
Nach Einführung der neuesten Version der Funktion "Häufigste Suchanfragen" in den
Webmaster-Tools
haben wir sehr viel positive Rückmeldung erhalten. Als direkte Reaktion auf euer Feedback haben wir vor einiger Zeit noch weitere Verbesserungen eingebaut. Zunächst einmal heißt die Funktion von nun an nicht mehr "Häufigste Suchanfragen", sondern nur noch "Suchanfragen". Diese Bezeichnung passt besser zu den Daten, die auf dieser Seite bereitgestellt werden. Außer der Namensänderung werdet ihr feststellen, dass die Seite "Suchanfragen" an verschiedenen Stellen aktualisiert wurde. Wie von vielen von euch gewünscht, wird nun rechts auf der Hauptseite eine Spalte "Durchschnittliche Position" ("Durchschn. Pos.") angezeigt. Hier könnt ihr auf einen Blick erkennen, an welcher Stelle eure Website in den Suchergebnissen für bestimmte Suchanfragen erscheint. Außerdem wird nun auch eine Zahl für die Anzeige von Impressionen und Klicks eingeblendet. Diese Zahl entspricht der Gesamtanzahl der Daten, die in der Tabelle mit den Suchanfragen angezeigt werden. Die fett gedruckte Zahl direkt darüber gibt die Gesamtanzahl aller Anfragen einschließlich des "
Long Tail
" an, die nicht in der Tabelle mit den Suchanfragen angezeigt werden. Wenn die Zahl für die Anzeige nicht sichtbar ist, zum Beispiel bei Auswahl eines bestimmten Landes aus dem Dropdown-Menü "Alle Länder", entspricht die fett gedruckte Zahl der Gesamtanzahl der Daten, die in der Tabelle mit den Suchanfragen angezeigt werden.
Darüber hinaus enthält der Download der Seite "Suchanfragen" nun auch eine Spalte "Durchschnittliche Position".
Als zweite Neuerung wurde die Registerkarte "Markiert" hinzugefügt. Neben jeder Suchanfrage auf der Seite "Suchanfragen" befindet sich jetzt ein anklickbares Sternsymbol. Für alle Suchanfragen, die euch am meisten interessieren, könnt ihr auf das Sternsymbol klicken. Daraufhin werden alle "markierten" Suchanfragen unter der Registerkarte "Markiert" zusammengefasst, sodass ihr ganz auf die für euch interessanten Suchanfragen zugreifen könnt.
Wir hoffen, dass die Funktion "Suchanfragen" durch dieses Update noch nützlicher für euch wird. Solltet Ihr Feedback oder Fragen zur Seite "Suchanfragen" haben, teilt uns dies bitte über das
Webmaster-Forum
mit.
Top Search Queries is now Search Queries with Average Position and Stars
(English version)
Post von Jonathan Simon, Webmaster Trends Analyst (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster