Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Google Analytics mit Webmaster-Tools verbinden
Donnerstag, 24. Februar 2011
Wenn ihr eure Website-Daten mit
Google Analytics
verfolgt, könnt ihr eure bestätigte Webmaster-Tools-Website jetzt mit einem Google Analytics-Profil verknüpfen, sofern diese dasselbe
Google-Konto
verwenden.
So könnt ihr nicht nur innerhalb von Webmaster-Tools auf eure Google Analytics-Profile zugreifen, sondern auch ganz bequem einige Funktionen von Google Analytics nutzen:
Zeigt den Google Analytics-Bericht zu "Verweisenden Websites" direkt über die Seite
Links zu Ihrer Website
in Webmaster-Tools an. Dieser Bericht bietet euch einen Überblick über die allgemeinen Trends hinsichtlich der Zugriffszahlen von Links sowie über die Websites, die diese Trends beeinflussen.
Greift direkt über den Google Analytics-Link oben links auf einer websitebezogenen Seite auf das Google Analytics-Dashboard zu.
So verknüpft ihr eine bestätige Website in Webmaster-Tools mit einem Google Analytics-Profil:
1. Klickt auf der Webmaster-Tools-Startseite neben der gewünschten Website auf
Verwalten
. Klickt anschließend auf
Google Analytics-Profil
.
2. Wählt das Profil aus, das ihr mit der Website verknüpfen möchtet, und klickt dann auf
Speichern
.
Hinweis:
Falls eure Website mehrere Inhaber hat, muss jeder Inhaber sein eigenes Konto mit einem Google Analytics-Profil verknüpfen.
Post von Zhanlu Wang, Webmaster Tools Team (Veröffentlichung von Jörg Pacher, Search Quality Team)
Neue Hacking-Warnmeldung in den Suchergebnissen
Montag, 21. Februar 2011
Vor einiger Zeit haben wir unseren Suchergebnissen eine neue Warnmeldung hinzugefügt, die Usern hilft, zu erkennen, dass eine Website möglicherweise gehackt wurde. Seit Jahren zeigen wir bereits eine
Warnmeldung im Fall von Malware-Infektionen
an - inklusive einer separaten Warnseite. Nun erweitern wir diese Meldungen, um Usern zu helfen, Seiten zu meiden, die von Dritten verändert wurden. Diese Manipulation erfolgt typischerweise, um Spam zu verbreiten. Wir wollen, dass User sicher sein können, dass die Informationen auch tatsächlich vom Eigentümer der Website, die sie gerade besuchen, stammen.
Hier ein Beispiel, wie solch eine Warnmeldung aussieht:
Klickt der User “Diese Website wurde möglicherweise manipuliert.”, gelangt er zu einem
Artikel in unserem Help Center
, der die Meldung genauer erklärt. Klickt er jedoch auf das Suchergebnis, gelangt er wie gewohnt auf die Ziel-Website.
Wir nutzen eine Vielzahl an automatisierten Tools, um gängige Anzeichen gehackter Sites so schnell wie möglich aufzuspüren. Finden wir etwas Verdächtiges, zeigen wir die Warnmeldung in unseren Suchergebnissen. Wir tun zudem unser Bestes, um den Webmaster der Site über unsere Webmaster-Tools oder Emailadressen auf der Website zu kontaktieren. Wir hoffen, dass Webmaster diese Meldungen schätzen werden, da sie dazu beitragen, schneller zu erkennen, wenn Dritte Websites manipuliere, so dass das Problem behoben werden kann.
Natürlich verstehen wir auch, dass Webmaster besorgt sein könnten, dass diese Warnungen ihren Traffic beeinflussen. User können aber sicher sein, dass die Warnmeldung, sobald das Problem gelöst ist, meist innerhalb von ein paar Tagen automatisch wieder vom Suchergebnis entfernt wird. Natürlich kann man auch einen
Antrag auf erneute Überprüfung
stellen, um die Entfernung der Meldung zu beschleunigen.
Solltet ihr diese Warnmeldung bei einem Suchergebniss eurer Site sehen, schaut euch die
Anleitung in unserem Help Center
an und lernt wie ihr das Problem lösen könnt. Zusammen können wir das Web sicherer machen.
New hacked site notifications in search results (English version)
Post von Gideon Wald, Associate Product Manager (Übersetzung von Daniela Loesser, Search Quality Team)
Suchergebnisse mit Chrome-Erweiterung blocken
Freitag, 18. Februar 2011
Wir haben mit unterschiedlichen algorithmischen Lösungen experimentiert, um sogenannte
Content Farms
zu identifizieren: das sind Websites von geringer inhaltlicher Tiefe und Qualität. Unter anderem untersuchen wir auch, ob dabei explizites Nutzer-Feedback hilfreich sein kann. Daher haben wir jetzt eine experimentelle
Chrome-Erweiterung
vorgestellt, mit der ihr Websites aus euren Suchergebnissen entfernen könnt. Wenn ihr die Erweiterung installiert, leitet sie die Information, welche Websites ihr blockt, an Google weiter. Wir möchten herausfinden, ob das resultierende Feedback als potenzielles Ranking-Signal Verwendung finden könnte.
Ihr könnt die Erweiterung hier herunterladen und
anfangen, Websites zu blocken
. So sieht das Ganze aus:
Wenn ihr eine Website mit der Erweiterung blockt, wird diese Domain nicht mehr in euren Suchergebnissen erscheinen. Ihr könnt dies aber auch wieder rückgängig machen: Ein Link am Ende der Suchergebnisseite zeigt euch die geblockten Suchergebnisse an und macht es einfach, sie wieder zu entblocken.
Ihr könnt die Liste der geblockten Websites auch direkt bearbeiten, indem ihr auf das Erweiterungs-Icon oben rechts in eurem Chrome-Fenster klickt.
Das ist erst einmal nur ein Test, aber wir haben die Erweiterung in 20 Sprachen übersetzt, darunter auch Deutsch. Wir hoffen, dass ihr die Erweiterung bei euren Suchanfragen nützlich findet. Vielen Dank schon einmal, dass ihr bei diesem Experiment mitwirkt - wenn ihr technologiebegeisterte
Chrome
-Nutzer seid, installiert euch doch die
Personal Blocklist-Erweiterung
.
New Chrome extension: block sites from Google’s web search results (English version)
Blogpost von Matt Cutts, Principal Engineer (Übersetzung von Manuel Holtz, Support Engineer)
SEO mit den Google Webmaster-Tools
Donnerstag, 17. Februar 2011
Im heutigen, ausführlichen Video erklärt Maile Ohye, was man ohne großen Aufwand mit den Google Webmaster-Tools aus SEO-Sicht anstellen kann. Das richtet sich vor allem an Einsteiger. Es sollte sich aber auch der eine oder andere nützliche Tipp für fortgeschrittene Nutzer dabei finden lassen.
Schaut euch doch danach die
Google Webmaster-Tools
gleich mal an!
Hallo! Ich bin Maile Ohye und Developer Programs Tech Lead bei der Google Webmaster-Zentrale. Heute tue ich so, als sei ich SEO für den Google-Store auf www.googlestore.com.
Der Google-Store bietet viele schöne Artikel wie Google-T-Shirts und Wurfscheiben. Anhand dieses Beispiels möchte ich zeigen, wie die Google Webmaster-Tools, mein Favorit, optimal genutzt werden können.
Als SEO des Google-Store würde ich mich zuerst bei Webmaster-Tools registrieren, die Inhaberschaft bestätigen und die E-Mail-Weiterleitung im Nachrichten-Center beantragen. Durch die E-Mail-Weiterleitung landen wichtige Nachrichten von Google, z. B. Hinweise auf Malware oder Crawling-Fehler, direkt in meinem Posteingang. So erhalte ich wichtige Meldungen sogar ohne in die Webmaster-Tools einzuloggen.
Dann spreche ich als SEO mit meinem Auftraggeber Google über die Geschäftsstrategie für den Google-Store. Ich versuche, meine Online-Strategie an den Geschäftszielen auszurichten. Angenommen, die Inhaber des Google-Store sehen den Online-Vertrieb von Google-Artikeln als wichtigen Geschäftsbereich. Es sollen mehr Android-T-Shirts und Google-Jojos verkauft werden. Wie gesagt - dies sind erfundene Beispiele! Jetzt ist mein Ziel als SEO klarer. Ich helfe googlestore.com beim Verkauf seiner Artikel. Aber statt den Verkauf jedes einzelnen Produkts zu fördern, optimiere ich zunächst die Seiten der Produkte, die bereits auf dem Markt sichtbar sind. Das ist einfacher als den Bedarf für einen bestimmten Artikel zu generieren.
Hierzu schaue ich mir die Daten unter "Suchanfragen" in den Webmaster-Tools genauer an. Dort sehe ich, welche Produkte bereits gute Suchergebnisse erzielen. Der Google-Store taucht bei vielen Suchanfragen auf, aber erhält nur durch einige davon Klicks von der Zielgruppe. Ich markiere diese Suchanfragen. Andere Anfragen, wie etwa YouTube, sind eher irrelevant. Sie erhalten möglicherweise viele Impressionen, aber wenn jemand nach YouTube sucht, will er wahrscheinlich Videos anschauen. Ein Upselling auf ein YouTube-T-Shirt ist in diesem Fall nicht leicht. Nachdem ich Anfragen wie "Google-T-Shirt" und "Android-Shirt" markiert habe, sehe ich in gleich den Status in Webmaster-Tools, ganz ohne die nicht relevanten Einträge.
Aus Zeitgründen konzentriere ich mich auf die Verkaufsförderung von Android-T-Shirts. Ich schaue in den Suchergebnissen nach meinen markierten Anfragen. Mein zweites Ergebnis für "Android Shirt" mit eingerücktem Ergebnis ist nicht aussagekräftig. Das Snippet könnte aus einer Meta-Beschreibung stammen. Das würde ich als SEO sofort korrigieren. Von der Seite "Suchanfragen" gehe ich zur Funktion "Keywords" in den Webmaster-Tools. Diese Liste enthält die Stichwörter, die Google von eurer Website extrahiert hat. Diese Keywords sollen in etwa mit den Suchbegriffen übereinstimmen, für die ich Rankings erzielen will. Die Liste für den Google-Store enthielt "Bio", "Öko" und "Baumwolle". Diese Begriffe passen nicht zu den Artikeln, die ich verkaufe. Um meine Online-Ziele zu erreichen, sollten die Keywords - der Inhalt der Seite - eher Android, Google und T-Shirt lauten, die Begriffe, für die ich Rankings erzielen will, statt allgemeiner Materialbeschreibungen wie Baumwolle und Bio.
Nach den Keywords gehe ich zu den Suchanfragen zurück. Dort sehe ich, welche URLs durch eine bestimme Anfrage angezeigt werden. Eine Durchschnittsposition von 5,0 bedeutet, dass wenn ein Nutzer eine Anfrage eingibt, die URLs eurer Website in den Ergebnissen durchschnittlich auf Position 5,0 angezeigt werden. Beispiel: Ein Nutzer in San Francisco sieht meine Website auf Position vier in den Suchergebnissen, während ein anderer Nutzer in New York mit der gleichen Anfrage meine Website auf Position sechs sieht. Meine Durchschnittsposition ist dann fünf. Oder wenn meine Website für eine Suchanfrage auf Position vier und sechs angezeigt wird, ist meine Durchschnittsposition ebenfalls fünf. Wird eure Website innerhalb Universal-Search angezeigt, wird meist die gesamte Anzeigenfläche als eine Position verwendet. So könnten alle Websites in dieser Box für die Position eins berechnet werden. Der Ändern-Wert ist der Deltawert zwischen eurer Suchanfrage für diesen Zeitintervall im Vergleich zum vorherigen Intervall, egal, ob das ein Monat, eine Woche oder ein Tag ist.
Die Suchanfragen enthalten auch einige doppelte URLs. Diese beiden Ergebnisse haben nur unterschiedliche Parameter. Hier ein paar Tipps zu Duplicate Content. In diesem Fall kann ich Duplicate Content mit rel=canonical und URL-Parameterbehandlung in den Webmaster-Tools reduzieren. Unter "Parameterbehandlung" kann ich dem Google-Crawler mitteilen, welche Parameter wichtig sind und welche ignoriert werden können. Die Parameterbehandlung ist geeignet, wenn meine URL-Struktur Namenwertpaare mit Standardcodierung enthält. Wenn ich keinen Standardcode verwende, können Suchmaschinen meine Website schlechter analysieren.
Außerdem kann man mit HTML-Vorschlägen Duplicate Content vermeiden. Diese bereits von Google gecrawlten und indexierten URLs haben doppelte Titel oder Metabeschreibungen. Ich prüfe, ob Google für meine Android-Shirt-Seite Duplikate gefunden hat. Offensichtlich nicht - sehr gut. Jede wichtige Seite sollte einen einzigartigen Titel und eine einzigartige Beschreibung haben. So wird auch mein PageRank nicht verwässert. Dann prüfe ich unter "Crawling-Fehler", ob Google richtig auf meine Website zugreift. Über die Crawling-Fehlerquellen kann ich dafür sorgen, dass potenzielle Besucher keinen 404-Fehler erhalten, sondern auf die gewünschte Seite geleitet werden. Durch die Behebung von Crawling-Fehlern kann ich von Käufern profitieren, die von anderen Websites kommen, und PageRank aus externen Links zur richtigen URL sammeln.
Jetzt gehe ich zu den internen Links. Häufig hat die Startseite einer Website den höchsten PageRank. Die Seiten, für die ich Rankings erzielen möchte, wie meine Android-T-Shirt-Seite, sollten mit meiner Website und meiner Startseite gut verlinkt sein. Hier hat mein Android-Shirt weniger interne Links als andere Produktseiten, wie etwa das "Öko-Basic-T-Shirt". Damit Nutzer und Suchmaschinen meine Android-Seite finden, sollte sie besser intern verlinkt und schneller über meine Startseite erreichtbar sein.
Ein weiteres hilfreiches Tool ist "Abruf wie durch Googlebot". Mit "Abruf wie durch Googlebot" prüfe ich, ob die Weiterleitungen, dynamischen Seiten und URL-Rewrites richtig funktionieren. Ich kann auch dafür sorgen, dass der Text und die Links gefunden werden und indexierbar sind. Wenn der Inhalt meiner Seite nicht deutlich im Text von "Abruf wie durch Googlebot" sichtbar ist, wird er vielleicht durch ein Bild oder JavaScript verborgen. Je schneller eine Seite geladen wird, desto zufriedener ist der Nutzer. Aus Zeitgründen gehe ich nur noch zur Funktion "Website-Leistung" in den Webmaster-Tools. Mit diesen Verbesserungen kann ich meine Website schneller machen. Ich sehe, dass die URL meines Android-T-Shirts mehr als sechs Sekunden zum Laden braucht. Die meisten E-Commerce-Websites sind schneller als zwei Sekunden. Ich will die Google-Store-Besucher nicht mit Langsamkeit vergraulen. Daher hat die Verbesserung der Ladezeit höchste Priorität für mich.
Hier noch einmal die verwendeten Webmaster-Tools-Funktionen: Zuerst habe ich mich für die E-Mail-Weiterleitung im Nachrichten-Center angemeldet. Dann habe ich unter "Suchanfragen" geprüft, welche Artikel auf meiner Website schon gute Rankings erzielen und welche nicht. Dann habe ich unter "Keywords" geschaut, wie ich das Targeting meiner Inhalte verbessern kann. Unter "HTML-Vorschläge" und "Parameterbehandlung" habe ich Duplikate reduziert und unter "Crawling-Fehler" fehlerhafte Links korrigiert. Ich habe meine Inhalte durch den Vergleich interner Links priorisiert, den Crawler-Zugriff durch "Abruf wie beim Googlebot" geprüft und meine Seite mithilfe von "Website-Leistung" schneller gemacht.
Vielen Dank. Ich hoffe, diese Tipps helfen euch mit Webmaster-Tools weiter. Besucht doch mal das Blog der Webmaster-Zentrale und google.com/webmasters.
Veröffentlicht von Daniela Loesser, Search Quality Team
Welche Search-Trends habt ihr auf eurem Radar?
Freitag, 11. Februar 2011
Auf in eine neue Runde Videos! Matt Cutts hat Ende 2010 wieder eine ganze Reihe neuer Fragen von euch beantwortet. Im heutigen Video erzählt er, welche Trends in diesem Jahr auf seinem Radar sind, was er interessant findet. Mit dabei ist Danny Sullivan von Search Engine Land.
Matt:
Okay. Es gibt wieder eine neue Webmaster-Video-Frage. Sie kommt von Danny Sullivan und lautet: "Welche neuen Trends seht ihr gerade im Hinblick auf die Websuche?" Eine gute Frage, Danny. Danke, dass du sie gestellt hast. Im Bereich der Websuche laufen derzeit einige wirklich interessante Dinge. Wenn ihr mal bei Techmeme schaut - Oh!
Danny:
Ich dachte, ich besuche dich kurz.
Matt:
Hallo, wie geht's dir? Ja, gerne! Hol dir einen Stuhl. Schön, dass du da bist.
Danny:
Ich habe gerade ein paar T-Shirts ausgesucht.
Matt:
Das kommt mir irgendwie bekannt vor.
Danny:
Meins ist blau.
Matt:
Ja, blau. Völlig anders.
Danny:
Ich wollte dich nicht unterbrechen. Du hast gerade über Trends geredet.
Matt:
Trends bei der Websuche, was hast du vor Augen, welche Ideen hast du?
Danny:
Erzähl du erst mal.
Matt:
Okay. Gerne. Ich bin gerade bei Techmeme, und McDonald's wurde gehackt, Kundendaten gestohlen, Gawker gehackt, Daten von McDonald's -
Danny:
[unverständlich] Wikileaks auch?
Matt:
Keine Ahnung, wie diese Hacks funktionieren. Wir versuchen momentan, die Hilfe für gehackte Websites zu verbessern. Dort haben wir schon recht viel Zeit investiert. Wir verstärken das Messaging. Der andere große Trend derzeit ist die Kommunikation. Wie sagen wir den Leuten, dass es ein Problem gibt? Wie kommunizieren wir ihnen Verbesserungsvorschläge, damit ihre Inhalte wieder aufgenommen werden können? Werden die Websites besser? Werden sie schlechter? All diese Dinge.
Danny:
Momentan verschickt ihr E-Mails an die Leute, wenn ihr Probleme mit deren Website feststellt, sofern ihr die E-Mail-Adresse herausfindet.
Matt:
Ja. Manchmal haben wir es von der Website aus versucht. Im Moment arbeiten wir daran, die Leute bei der Webmaster Console anzumelden, damit sie E-Mail-Benachrichtigungen erhalten. Wir hoffen, dass sich viele dort anmelden. Wenn wir dir mitteilen, dass deine Website gehackt wurde, und du die E-Mail nicht bekommst, hilft das niemandem weiter. Daran arbeiten wir. Die Beantragung einer erneuten Überprüfung soll transparenter werden. Aber ich bin neugierig. Was hast du vor Augen? Welche großen Trends siehst du? Welche Ideen hast du?
Danny:
Mich interessiert Social Media. Bei all diesen Daten, die genutzt bzw. generiert werden, möchte ich wissen, ob die Suchmaschinen diese tatsächlich verwenden. Interessanterweise sagte Google: "Ja, wir schauen uns tatsächlich an, wie du bei Twitter heißt, wer bei dir mitliest, welchen Ruf du bei Twitter hast und auf welchem Tweet-Rang du stehst. Das hat wiederum Einfluss darauf, ob deine Themen oder Links erfolgreich sind. Diese Entwicklung ist ganz interessant. Nicht nur deine Website kann einen Ruf haben, sondern auch du als Nutzer eines sozialen Netzwerks.
Matt:
Es ist nur noch eine Frage der Zeit, bis es Follower-Tausch über drei Ecken bei Twitter gibt...
Danny:
Das wird es nicht geben.
Matt:
Follower-Tausch usw.
Danny:
Das sind alles Märchen. Das wird es nicht geben.
Matt:
Wir hatten dazu schon eine Frage heute. Vielleicht möchtest du dich nochmal korrigieren. In ein paar Videos im Mai sagten wir noch: "Twitter ist eine Website wie jede andere auch, Facebook ist eine Website wie jede andere auch." Und vorhin hieß es in einem anderen Video: "Nein, das stimmt nicht mehr." Wir fügen einen Link zum Search Engine Land-Artikel ein, der ist ganz ausführlich.
Danny:
Das wäre toll. Und den muss man nicht wirklich lesen, weil er inhaltlich unzulänglich ist und...
Matt:
Es stimmt wirklich, dass vorhin jemand gefragt hat, was man als großes Unternehmen tun sollte, das über erweiterte SEO nachdenkt. Unsere Antwort war: die Geschwindigkeit optimieren, das CMS sichern und Kaufoptionen anbieten. Und wir nannten auch Social-Media-Marketing. Weil dadurch Zugriffe generiert werden, nicht nur Links.
Danny:
Eine andere interessante Sache ist die Entwicklung bei den Online-Händlern. Dein Ruf als Online-Händler unabhängig von deiner Website und dem PageRank wird jetzt von Google berücksichtigt. Das scheint etwas Positives zu sein.
Matt:
Es hat ein wenig gedauert, wir mussten das beobachten und dann den Leuten vermitteln. Das waren nicht nur Beschwerden auf Verbraucher-Websites. Aber ein schlechter persönlicher Ruf kann dich wirklich durch das ganze Web verfolgen. Daher werden viele Leute jetzt auf ihren Ruf achten und sich fragen: "Wie rücke ich mich in ein möglichst gutes Licht?" Und hier kann SEO wirklich praktisch sein, um sich von seiner besten Seite zu zeigen. Das ist auf jeden Fall ein Trend.
Danny:
Viele Leute dachten dann: "Jetzt wird jeder einen Haufen gefälschter oder guter Beurteilungen schreiben und diese nach oben schieben." Ich dachte, das könnte eines der Signale sein. Aber man müsste auch noch andere Faktoren berücksichtigen. Man kann nicht nur sagen: "Diese Person hat mehrere schlechte Beurteilungen, also ist sie schlecht." Man muss versuchen...
Matt:
Genau. Deshalb nahmen wir schließlich verschiedene Datenquellen und kreuzten sie, sodass ein falsch negatives Ergebnis nicht auf die andere Datenquelle übertragen wird. Das funktioniert recht gut. Wenn also jemand einem Mitbewerber schaden will und an einer Stelle eine Reihe negativer Bewertungen schreibt, weiß er nicht, dass wir die Signale aus verschiedenen Richtungen betrachten. Wir hoffen, dass Händler, die keinen guten Kundenservice bieten, von unserem Algorithmus, der über 500 verschiedene Websites abfragt, gefunden werden. Dass unser Algorithmus die richtigen Websites erfasst, auf die man wirklich nicht im Internet geraten möchte, zumindest nach den Ergebnissen unserer Algorithmen.
Danny:
Super. Ganz schön viele Trends.
Matt:
Ja. Danke, dass du gekommen bist.
Danny:
Danke, dass ich hier sein durfte.
Matt:
Gute Fragen.
Veröffentlicht von Daniela Loesser, Search Quality Team
Update der "Suchanfragen" in den Webmaster-Tools
Donnerstag, 10. Februar 2011
Letztes Jahr haben wir in den Webmaster-Tools eine hilfreiche Funktion wiederbelebt: die Seite
Suchanfragen
. Dieses Analysetool macht die Präsenz eurer Website in unseren Suchergebnissen sichtbar. Die Seite setzt sich hauptsächlich aus zwei Bestandteilen zusammen: einer interaktiven Grafik und einer Tabelle mit detaillierten Daten zu den Suchanfragen, bei denen eure Website in unseren Suchergebnisse angezeigt wurde.
Zwei der wichtigsten Informationen, die ihr aus dieser Tabelle ersehen könnt, sind "Impressionen" und "Klicks". Der Wert für "Impressionen" zeigt an, wie oft eure Website in den Suchergebnissen einer konkreten Suchanfrage vertreten ist. Die "Klicks" zeigen dagegen die Häufigkeit an, mit der in den Suchergebnissen einer bestimmten Anfrage auf den Eintrag eurer Website geklickt wurde.
Heute möchten wir euch mitteilen, dass wir entsprechend dem Feedback von Webmastern eine geringfügige Änderung an der Darstellung dieser Häufigkeiten in den Webmaster-Tools vorgenommen haben, um euch die Auswertung zu vereinfachen. Die Zahlen werden jetzt nicht mehr auf zwei oder drei Stellen gerundet, sondern nur noch mit ein oder zwei
signifikanten Stellen
angezeigt. Statt 246.000 Impressionen zeigt euch Webmaster-Tools jetzt beispielsweise 250.000 Impressionen an. Diese Zahl ist einprägsamer und aussagekräftiger. Die interne Zählung der Impressionen bleibt jedoch gleich; lediglich in Webmaster-Tools hat sich die Rundung geändert. Im Allgemeinen macht es keinen erheblichen Unterschied, wenn sich der neue Wert der Impressionen durch die Änderung der Rundung um 10 Prozent vom alten Wert unterscheidet.
Impressionen vor und nach dem heutigen Update der Suchanfragen
Wir hoffen, dass Ihre die Angaben in den Suchanfragen mit diesem Update noch besser auswerten könnt. Weitere Informationen zu dieser Funktion findet ihr in der
Webmaster-Hilfe
. Solltet ihr Feedback oder Fragen zur Seite "Suchanfragen" haben, teilt uns dies bitte über das
Webmaster-Forum
mit.
Update to Webmaster Tools Search Queries (English version)
Blogpost von Pierre Far und Gary Illyes, Webmaster Trends Analyst Team (Veröffentlichung von Jörg Pacher, Search Quality Team)
Was wir von gekauften und verkauften Links halten
Montag, 7. Februar 2011
In letzter Zeit gab es in der deutschen Blogosphäre einige Diskussionen über gekaufte und verkaufte Links. Dabei kam es auch zu Fragen darüber, welche Maßnahmen Google hier ergreift. Im Search Quality Team arbeiten wir hart daran, die Qualität unserer Suchergebnisse zu gewährleisten, und wir gehen seit Jahren gegen Linkspam vor.
Wir möchten deshalb diese Gelegenheit nutzen, noch einmal unseren Standpunkt zu erklären, der wirklich sehr einfach ist: Kauft keine Links für PageRank, und verkauft sie auch nicht. Das sagen wir deutlich in unseren
Richtlinien für Webmaster
, und wir haben es zum Beispiel in diesem Blogpost zum
Kauf und Verkauf von Links
ausführlicher erklärt.
Die Tatsache, dass Links gekauft und verkauft werden, ist nichts Neues, und wir können solche Links inzwischen gut erkennen. Wenn wir den Eindruck haben, dass Websites versuchen, mit solchen Links ihre Position in den Suchergebnissen zu verbessern, ergreifen wir Maßnahmen, um das zu verhindern und Webmaster davon abzuhalten.
Wir möchten nicht zu sehr ins Detail gehen, aber wenn zum Beispiel klar ist, dass Links auf einigen Seiten keine wirklichen “Empfehlungen” für andere Websites sind, könnten wir diese Seiten davon abhalten, PageRank weiterzugeben. Unser Ziel ist es schließlich, dass unsere User bei allen Suchanfragen die relevantesten Ergebnisse finden.
Einfach ausgedrückt: Links zu kaufen und zu verkaufen schadet den Benutzern von Google, die die bestmöglichen Suchergebnisse erwarten. Wenn ihr solche Links findet, könnt ihr uns helfen, indem ihr sie
an Google meldet
.
Tipps für Webmaster
Als Webmaster solltet ihr euch vor allem darauf konzentrieren, einzigartige und überzeugende Inhalte für eure User zu erstellen. Das wird andere Webmaster dazu motivieren, einen Link auf eure Seite zu setzen, ohne dass ihr euch darum kümmern müsst, wie ihr Backlinks bekommt.
Wenn ihr selbst aktiv dafür sorgen wollt, dass ihr mehr Links auf eure Site bekommt, dann macht das auf eine nachhaltige Art, ohne unsere Richtlinien zu verletzen. Denkt daran: Wenn ihr Links kauft, ist es recht wahrscheinlich, dass wir sie nicht mehr berücksichtigen, so dass ihr möglicherweise viel Zeit und Geld dafür verwenden würdet und eure Rankings trotzdem sinken. Wir haben neulich in einem Blogpost ein paar
bessere Wege, um Links aufzubauen
, vorgestellt.
Der richtige SEO
Das ganze Thema zeigt auch, wie wichtig es ist, dass ihr, wenn ihr mit einem Suchmaschinenoptimierer (SEO) arbeitet, sorgfältig die richtige Firma auswählt und dafür sorgt, dass sie sich an die Richtlinien für Webmaster hält. Dieser
Beitrag in der Webmaster-Tools-Hilfe
gibt dazu nützliche Ratschläge.
Wenn ihr selbst oder jemand anderes für eure Website Links gekauft hat, solltet ihr euch daran machen, das zu beheben, und dann einen
Antrag auf erneute Überprüfung
für eure Website stellen.
nofollow
Zum Schluss möchten wir nochmal darauf hinweisen, dass natürlich nicht alle bezahlten Links gegen unsere Richtlinien verstoßen. Links in Anzeigen, die keinen PageRank weiterleiten, sind zum Beispiel kein Problem. Ihr solltet aber bezahlte Links sowohl für eure Leser als auch für Suchmaschinen deutlich kenzeichnen. Um den Suchmaschinen zu zeigen, dass ein Link bezahlt ist und für das Ranking nicht berücksichtigt werden sollte, könnt ihr zum Beispiel das
rel="nofollow"-Attribut
verwenden.
Hier ist ein
Beispiel, wie man das machen kann
: Der Beitrag ist für Leser klar als “Sponsored Post” gekennzeichnet (das steht in der Überschrift und im Post selbst, und es gibt einen Link mit Erklärungen über Sponsored Posts). Für Suchmaschinen sind die externen Links zum Sponsor mit “nofollow” markiert.
Für weitere Infos lest diesen Hilfe-Artikel über
bezahlte Links
oder wendet euch an unser
Hilfeforum
.
Blogpost von Florian Allwein und
Uli Lutz
, Search Quality Team
Was wir von gekauften und verkauften Links halten
Montag, 7. Februar 2011
In letzter Zeit gab es in der deutschen Blogosphäre einige Diskussionen über gekaufte und verkaufte Links. Dabei kam es auch zu Fragen darüber, welche Maßnahmen Google hier ergreift. Im Search Quality Team arbeiten wir hart daran, die Qualität unserer Suchergebnisse zu gewährleisten, und wir gehen seit Jahren gegen Linkspam vor.
Wir möchten deshalb diese Gelegenheit nutzen, noch einmal unseren Standpunkt zu erklären, der wirklich sehr einfach ist: Kauft keine Links für PageRank, und verkauft sie auch nicht. Das sagen wir deutlich in unseren
Richtlinien für Webmaster
, und wir haben es zum Beispiel in diesem Blogpost zum
Kauf und Verkauf von Links
ausführlicher erklärt.
Die Tatsache, dass Links gekauft und verkauft werden, ist nichts Neues, und wir können solche Links inzwischen gut erkennen. Wenn wir den Eindruck haben, dass Websites versuchen, mit solchen Links ihre Position in den Suchergebnissen zu verbessern, ergreifen wir Maßnahmen, um das zu verhindern und Webmaster davon abzuhalten.
Wir möchten nicht zu sehr ins Detail gehen, aber wenn zum Beispiel klar ist, dass Links auf einigen Seiten keine wirklichen “Empfehlungen” für andere Websites sind, könnten wir diese Seiten davon abhalten, PageRank weiterzugeben. Unser Ziel ist es schließlich, dass unsere User bei allen Suchanfragen die relevantesten Ergebnisse finden.
Einfach ausgedrückt: Links zu kaufen und zu verkaufen schadet den Benutzern von Google, die die bestmöglichen Suchergebnisse erwarten. Wenn ihr solche Links findet, könnt ihr uns helfen, indem ihr sie
an Google meldet
.
Tipps für Webmaster
Als Webmaster solltet ihr euch vor allem darauf konzentrieren, einzigartige und überzeugende Inhalte für eure User zu erstellen. Das wird andere Webmaster dazu motivieren, einen Link auf eure Seite zu setzen, ohne dass ihr euch darum kümmern müsst, wie ihr Backlinks bekommt.
Wenn ihr selbst aktiv dafür sorgen wollt, dass ihr mehr Links auf eure Site bekommt, dann macht das auf eine nachhaltige Art, ohne unsere Richtlinien zu verletzen. Denkt daran: Wenn ihr Links kauft, ist es recht wahrscheinlich, dass wir sie nicht mehr berücksichtigen, so dass ihr möglicherweise viel Zeit und Geld dafür verwenden würdet und eure Rankings trotzdem sinken. Wir haben neulich in einem Blogpost ein paar
bessere Wege, um Links aufzubauen
, vorgestellt.
Der richtige SEO
Das ganze Thema zeigt auch, wie wichtig es ist, dass ihr, wenn ihr mit einem Suchmaschinenoptimierer (SEO) arbeitet, sorgfältig die richtige Firma auswählt und dafür sorgt, dass sie sich an die Richtlinien für Webmaster hält. Dieser
Beitrag in der Webmaster-Tools-Hilfe
gibt dazu nützliche Ratschläge.
Wenn ihr selbst oder jemand anderes für eure Website Links gekauft hat, solltet ihr euch daran machen, das zu beheben, und dann einen
Antrag auf erneute Überprüfung
für eure Website stellen.
nofollow
Zum Schluss möchten wir nochmal darauf hinweisen, dass natürlich nicht alle bezahlten Links gegen unsere Richtlinien verstoßen. Links in Anzeigen, die keinen PageRank weiterleiten, sind zum Beispiel kein Problem. Ihr solltet aber bezahlte Links sowohl für eure Leser als auch für Suchmaschinen deutlich kenzeichnen. Um den Suchmaschinen zu zeigen, dass ein Link bezahlt ist und für das Ranking nicht berücksichtigt werden sollte, könnt ihr zum Beispiel das
rel="nofollow"-Attribut
verwenden.
Hier ist ein
Beispiel, wie man das machen kann
: Der Beitrag ist für Leser klar als “Sponsored Post” gekennzeichnet (das steht in der Überschrift und im Post selbst, und es gibt einen Link mit Erklärungen über Sponsored Posts). Für Suchmaschinen sind die externen Links zum Sponsor mit “nofollow” markiert.
Für weitere Infos lest diesen Hilfe-Artikel über
bezahlte Links
oder wendet euch an unser
Hilfeforum
.
Blogpost von Florian Allwein und Uli Lutz, Search Quality Team
Wozu dient AdSense? Ein Einstieg
Freitag, 4. Februar 2011
Heute stellen wir in unserer
Serie für neue Webmaster
ein weiteres Google-Produkt vor.
Vor 2 Wochen ging es in einem
Video um die Webmaster-Tools
, heute um
Google AdSense
. Mit den
Webmaster-Tools
arbeitet ihr an der Steigerung eures Traffics, mit AdSense könntet ihr an diesem Traffic verdienen.
Google AdSense ist ein Programm, das Webmastern ermöglicht, auf ihren Websites relevante Anzeigen darzustellen und so Umsatz zu erzielen. Es ist kostenlos und bietet Zugriff auf das riesige Werbenetzwerk von Google. Nach einer schnellen und einfachen Einrichtung könnt ihr mit AdSense Anzeigen, die zu eurer Zielgruppe passen, auf eurer Website einbinden und so mit den von euch erstellten Inhalten Geld verdienen.
Damit ihr die Möglichkeiten, die AdSense bietet, voll ausschöpfen könnt, ist es wichtig, einen Überblick über die Besucher eurer Website zu erhalten. Mit den Webmaster-Tools und anderen Hilfsmitteln, wie beispielsweise
Google Analytics
, könnt ihr feststellen, wer eure Besucher sind und woher sie kommen. Ihr arbeitet daran, mehr Personen für eure Website zu interessieren und eure erfolgreichsten Seiten zu optimieren, um den Gesamttraffic zu erhöhen. Mit Google AdSense könnt ihr diese Informationen verwenden, um Anzeigen einzubinden, die auf die Besucher eurer Website ausgerichtet sind und die besser zu den Inhalten eurer erfolgreichsten Seiten passen. Mit den Webmaster-Tools könnt ihr beispielsweise feststellen, wie oft eure Seiten in Google-Suchergebnissen angezeigt werden. Wenn ihr wisst, welche eurer Seiten wahrscheinlich am häufigsten besucht werden, könnt ihr mithilfe von AdSense optimierte Anzeigen auf diesen Seiten anzeigen.
Im Folgenden seht ihr eine Auswahl verschiedener AdSense-Anzeigen.
Text Ad - Medium Rectangle (300x250)
Video Ad - Medium Rectangle (300x250)
Image Ad - Leaderboad (728x90)
Welche Vorteile bietet euch die Verwendung von
Google AdSense
?
Erzielt Umsatz durch relevante und ansprechende Werbung, die die Nutzererfahrung auf eurer Website weiter verbessert.
Ihr behaltet die Kontrolle, auch über eure Marke, indem ihr die Größe, den Ort und den Typ der angezeigten Anzeigen anpasst.
Erhaltet Informationen mit der leistungsstarken Integration von Google Analytics und AdSense. So könnt uhr leicht Trends und Faktoren aufspüren, die Einfluss auf das Gewinnpotenzial eurer Website haben.
Einfach und leicht einzurichten: ihr müsst eurer Website nur wenige Codezeilen hinzufügen und schon könnt ihr Anzeigen anzeigen.
Kein Risiko. Keine Verpflichtung. Es gibt keine Mindestlaufzeit. Und es ist kostenlos.
Google AdSense liefert automatisch Anzeigen, die auf eure Inhalte und eure Zielgruppe ausgerichtet sind. AdSense ermöglicht euch auch die Erstellung
Benutzerdefinierter Channels
, mit denen Inserenten Werbung auf bestimmten Seiten eurer Websites oder sogar auf bestimmten Bereichen dieser Seiten schalten können. Als Nutzer der Webmaster-Tools habt ihr den Vorteil, dass ihr nachvollziehen könnt, welche Google-Suchergebnisse Besucher auf eure Seiten bringen. Ihr könnt diese Informationen verwenden, um Inserenten genauere Informationen zu euren benutzerdefinierten Channels zu geben, was euch wiederum ermöglicht, euren Nutzern noch relevantere Anzeigen anzuzeigen. Im Gegenzug könnt ihr einen höheren Umsatz erzielen, indem diese relevanteren und hochwertigen Anzeigen geschaltet werden.
Wenn ihr Interesse habt, testet
Google AdSense
doch einfach selbst!
Weitere Informationen über Google AdSense erhaltet ihr auch im
AdSense-Hilfeforum
.
Understanding your Opportunities with AdSense (English version)
Post von Nathan DeOms, Google AdSense Publisher Engagement Team (Veröffentlichung von Jörg Pacher, Search Quality Strategist)
Die Google-Suche und Suchmaschinen-Spam
Donnerstag, 3. Februar 2011
Im Januar machten einige Storys über die Suchqualität bei Google die Runde. Solltet ihr in letzter Zeit
einige
dieser
Artikel
gelesen haben, fragt ihr euch vielleicht, ob die Suchqualität wirklich schlechter geworden ist. Kurz gesagt: Gemäß den Beurteilungsmetriken, die wir seit über zehn Jahren stetig verfeinert haben, ist die Suchqualität bei Google hinsichtlich der Relevanz, Aktualität und des Umfangs derzeit besser denn je. Der Spam in englischer Sprache in den Google-Suchergebnissen hat sich in den letzten fünf Jahren mehr als halbiert und in den meisten anderen Sprachen liegt der Spam-Anteil noch unter dem englischen. In den letzten Monaten verzeichneten wir leider einen leichten Anstieg des Spams. Als Reaktion darauf haben wir neue Maßnahmen eingeleitet, um unsere Suchqualität weiter zu verbessern.
Zur Erläuterung: Unter Web-Spam versteht man
Junk-Einträge in den Suchergebnissen
, mit denen Websites versuchen, sich höhere Positionierungen in Suchergebnissen zu erschleichen, oder auf sonstige Weise gegen die Qualitätsrichtlinien von Suchmaschinen verstoßen. Vor zehn Jahren war die Spam-Situation so schlecht, dass Suchmaschinen regelmäßig irrelevanten Web-Spam für zahlreiche verschiedene Suchanfragen wiedergaben. Google hat diese Art von "reinem Web-Spam" größtenteils erfolgreich bekämpft, obwohl einige Spammer mittlerweile auf noch raffiniertere und sogar illegale Taktiken wie das
Hacken von Websites
umgestiegen sind.
In den letzten Monaten haben wir sowohl den Umfang als auch die Aktualität unserer Ergebnisse erweitert und dabei sowohl sehr viel nützliche Inhalte als auch einen gewissen Spam-Anteil indexiert. Um dem Spam entgegenzutreten, haben wir vor Kurzem eine umgestaltete Klassifizierung auf Dokumentebene eingeführt, die es Spam-Inhalten auf einzelnen Webseiten erschwert, hohe Rankings zu erzielen. Die neue Klassifizierung kann Spam auf einzelnen Webseiten besser erkennen, z. B. Spam aus sich wiederholenden Wörtern oder Wortgruppen, die man häufig in automatisch erstellten Junk-Blog-Kommentaren findet. Darüber hinaus haben wir unsere Möglichkeiten zur Erkennung gehackter Websites entscheidend verbessert. Gehackte Websites waren im Jahr 2010 eine der größten Spam-Quellen. Außerdem evaluieren wir derzeit mehrere Veränderungen, mit denen der Spam-Anteil noch weiter reduziert werden kann. Eine der Maßnahmen zielt in erster Linie auf Websites ab, die die Inhalte von anderen kopieren und wenig Original-Inhalte enthalten. Wir entwickeln derzeit auch neue Möglichkeiten für Nutzer, um
genaueres Feedback zu Spam-Websites
oder qualitativ minderwertigen Websites zu geben.
Da der "reine Web-Spam" insgesamt eher zurückgegangen ist, hat sich die Aufmerksamkeit auf "Content-Farmen" verlagert. Hierbei handelt es sich um Websites, mit fragwürdigen oder qualitativ minderwertigen Inhalten. 2010 haben wir zwei größere Algorithmusänderungen eingeführt, die hauptsächlich
Websites von geringer Qualität
betrafen. Dennoch erhalten wir eindeutiges Feedback aus dem Web: Die Nutzer wünschen sich noch drastischere Maßnahmen gegen Content-Farmen und Websites, die in erster Linie aus Spam-Inhalten und Inhalten von geringer Qualität bestehen. Wir sind stolz auf die Google-Suche und unser Ziel ist es, dass jede Suchanfrage perfekte Ergebnisse liefert. Leider sind wir nicht ganz perfekt und in Kombination mit den haushohen Erwartungen, die an Google gestellt werden, erscheinen diese Unzulänglichkeiten größer, als sie in Wirklichkeit sind. Dennoch: Wir können es besser und müssen auch besser werden.
In den letzten Wochen kam auch das Gerücht auf, dass Google nicht gegen Spam-Inhalte in unserem Index vorgehen würde, wenn auf diesen Websites Google-Anzeigen geschaltet sind. Wir möchten Folgendes klarstellen:
Google geht mit aller Entschiedenheit gegen Websites vor, die gegen unsere Qualitätsrichtlinien verstoßen, egal, ob dort Google-Anzeigen zu sehen sind oder nicht.
Durch das Einblenden von Google-Anzeigen erhält eine Website kein höheres Ranking bei Google.
Der Kauf von Google-Anzeigen führt nicht zu einem höheren Ranking der Website in den Google-Suchergebnissen.
Obwohl wir schon immer nach diesen Grundsätze verfahren, möchten wir an dieser Stelle noch einmal betonen, dass sie immer noch gelten.
Die Nutzer sind aber sehr an Google interessiert und teilen uns - zum Teil sehr leidenschaftlich - mit, was wir verbessern sollten. Dieses Feedback ist uns sehr wichtig. In Kombination mit unseren eigenen wissenschaftlichen Auswertungen können wir anhand des Nutzer-Feedbacks alle Möglichkeiten für mögliche Verbesserungen ausloten. Bitte
teilt uns im Websuche-Forum mit
, was wir besser machen können. Wir werden auch in Zukunft für hohe Qualität bei Google sorgen.
Google search and search engine spam (English version)
Post von Matt Cutts, Principal Engineer (Veröffentlichung von Jörg Pacher, Search Quality Strategist)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster