Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Können SEOs Platz 1 in den Suchergebnissen garantieren?
Donnerstag, 26. Mai 2011
Heute spricht Matt Cutts über eine Frage, die viele SEOs von ihren Kunden sicher schon gehört haben: "Können Sie meine Seite zur Nummer 1 bei Google machen?"
Wir haben heute eine Frage aus Colorado. Sie lautet: "Wenn potenzielle Kunden eine Website erstellen, fragen mich viele zuerst: 'Können Sie meine Seite zur Nummer 1 bei Google machen?' Diese Frage geht mir wirklich auf die Nerven. Wie kann ich ihnen professionell und ehrlich antworten?"
Das ist eine gute Frage. Ihr könnt diese Personen z. B. auf die
Google-Seite zum Thema Suchmaschinenoptimierung
hinweisen. Meiner Meinung nach kann nämlich niemand eine Google-Platzierung an erster Stelle garantieren. Ihr könnt also aus erster Hand, direkt von Google sagen, dass niemand eine Platzierung an erster Stelle garantieren kann.
Ein Klempner z.B. möchte wohl eher keine Platzierung an erster Stelle für "Klempner", weil er dann Anrufe aus aller Welt und aus ganz Amerika bekommt, auch wenn er nicht an allen Orten tätig ist. Er möchte eher eine Platzierung an erster Stelle, wenn es um Klempnerarbeit in Sunnyvale, Kalifornien geht oder in einer anderen Stadt, die für ihn interessant ist.
Die Frage: "Können Sie meine Seite zur Nummer 1 bei Google machen?" führt häufig dazu, dass manche Leute zu irreführenden Mitteln greifen. Ich könnte z. B. ganz leicht einen ersten Platz für "Standarddrucker in Firefox in Linux Ubuntu ändern" erreichen, oder? Das ist eine große Anzahl an Suchbegriffen. Wenige Personen geben all diese Wörter bei ihrer Suche ein. Deshalb ist es nicht schwer, damit auf Platz 1 zu landen. Einige SEOs sagen daher: "Wir bringen Sie an die erste Stelle und zwar für eine exakte Suche mit fünf sehr seltsamen und obskuren Wörtern." Manche denken nur: "Oh, ich werde auf Platz 1 sein." Aber sie überlegen nicht, ob das auch die Suchbegriffe sind, mit denen diese Platzierung erreicht werden soll.
Es ist besser, eine Platzierung an dritter, vierter oder fünfter Stelle für Suchbegriffe zu erreichen, die Klicks und Traffic generieren und die eure Interessen berücksichtigen, als für solche, die dies nicht tun. Ich denke, viele Kunden von SEOs fragen oft überhaupt nicht nach, welche Suchbegriffe Besucher bringen, welche Suchbegriffe zu Käufen führen, und auf welche sie wirklich achten sollten, im Vergleich zu den ganzen Top-Suchbegriffen, von denen sie nur glauben, dass sie wichtig sind. SEOs müssen sich häufig mit all dem auseinandersetzen.
Ein kleiner Tipp von mir: Konzentriert euch nicht auf eine Platzierung an erster Stelle, schon gar nicht bei Suchbegriffen, die eher nicht so nützlich sind. Achtet auf Ergebnisse, die sich bewährt haben. Erstellt eine erstklassige Website und konzentriert euch auf die Ergebnisse, die euch wirklich wichtig sind. Macht eure Kunden dann ruhig auf die
Google-Seite zur Suchmaschinenoptimierung
aufmerksam. Dort sehen sie, dass Google genau der gleichen Meinung ist.
Veröffentlicht von Daniela Loesser, Search Quality Team
Weitere Tipps zur Erstellung qualitativ hochwertiger Websites
Dienstag, 17. Mai 2011
In den letzten Monaten haben wir uns
besonders
intensiv
damit beschäftigt, Nutzern dabei zu helfen, in den Google-Suchergebnissen qualitativ hochwertige Websites zu finden. Der "Panda"-Algorithmus hat das Ranking zahlreicher qualitativ hochwertiger Websites verbessert. Die meisten von euch müssen sich daher keine Gedanken machen. Für die Websites, auf die sich der Panda-Algorithmus möglicherweise nachteilig ausgewirkt hat, möchten wir jedoch weitere Informationen darüber bereitstellen, wie Google nach qualitativ hochwertigen Websites sucht.
Publishern empfehlen wir weiterhin, sich darauf zu konzentrieren, das bestmögliche Nutzererlebnis auf ihren Websites zu bieten, und sich weniger damit zu beschäftigen, was sie für die aktuellen Ranking-Algorithmen oder -Signale halten. Einige Publisher haben sich auf unsere vorherige
Änderung des Panda-Algorithmus
fixiert, Panda war jedoch nur eine von etwa 500 Verbesserungen der Suche, deren Einführung für dieses Jahr geplant ist. Tatsächlich haben wir seit der Implementierung von Panda mehr als ein Dutzend weiterer Optimierungen unserer Ranking-Algorithmen eingeführt. Einige Website-Inhaber haben daher Änderungen an ihrem Ranking fälschlicherweise auf Panda zurückgeführt. Die Suche ist eine komplizierte und sich ständig weiterentwickelnde Kunst und Wissenschaft, daher solltet ihr euch nicht auf bestimmte Algorithmusoptimierungen konzentrieren, sondern auf die bestmögliche Erfahrung eurer Nutzer.
Welche Websites sind qualitativ hochwertig?
Unsere Algorithmen für die Websitequalität sollen Nutzern dabei helfen, "qualitativ hochwertige" Websites zu finden, indem sie das Ranking von Inhalten mit einer geringeren Qualität reduzieren. Die kürzlich erfolgte "Panda"-Änderung setzt sich mit der schwierigen Aufgabe auseinander, die Qualität von Websites algorithmisch zu bewerten. Wir möchten einige unserer Ideen und Forschungsgegenstände erläutern, die der Entwicklung unserer Algorithmen zugrunde liegen. Dazu gehen wir am besten einen Schritt zurück.
Nachfolgend findet ihr einige Fragen, mit deren Hilfe die Qualität einer Seite oder eines Artikels bewertet werden könnte. Solche Fragen stellen wir uns selbst bei der Entwicklung von Algorithmen, mit denen die Qualität von Websites beurteilt werden soll. Stellt euch das so vor, dass wir mit ihrer Hilfe versuchen, die Wünsche unserer Nutzer in einen Code umzusetzen.
Natürlich veröffentlichen wir nicht die tatsächlichen Ranking-Signale, die in unseren Algorithmen verwendet werden, denn es soll ja niemand unsere Suchergebnissen manipulieren. Wenn ihr euch jedoch der Denkweise bei Google annähern möchtet, geben euch die nachfolgenden Fragen Aufschluss darüber, wie wir an die Sache herangehen:
Würdet ihr den in diesem Artikel enthaltenen Informationen trauen?
Wurde der Artikel von einem Experten oder einem sachkundigen Laien verfasst oder ist er eher oberflächlich?
Weist die Website doppelte, sich überschneidende oder redundante Artikel zu denselben oder ähnlichen Themen auf, deren Keywords leicht variieren?
Würdet ihr dieser Website eure Kreditkarteninformationen anvertrauen?
Enthält dieser Artikel Rechtschreibfehler, stilistische oder Sachfehler?
Entsprechen die Themen echten Interessen der Leser der Website oder werden auf der Website Inhalte generiert, mit denen ein gutes Ranking in Suchmaschinen erzielt werden soll?
Enthält der Artikel Originalinhalte oder -informationen, eigene Berichte, eigene Forschungsergebnisse oder eigene Analysen?
Hat die Seite im Vergleich zu anderen Seiten in den Suchergebnissen einen wesentlichen Wert?
In welchem Maße werden die Inhalte einer Qualitätskontrolle unterzogen?
Werden in dem Artikel unterschiedliche Standpunkte berücksichtigt?
Wird die Website als kompetente Quelle zu ihrem Thema anerkannt?
Stammen die Inhalte aus einer Massenproduktion oder von zahlreichen externen Autoren bzw. werden sie über ein großes Netzwerk von Websites verbreitet, sodass einzelnen Seiten oder Websites eher wenig Aufmerksamkeit oder Sorgfalt gewidmet wird?
Wurde der Artikel sorgfältig redigiert oder scheint er eher schlampig oder hastig erstellt worden zu sein?
Hättet ihr bei gesundheitsbezogenen Suchanfragen Vertrauen in die Informationen dieser Website?
Würdet ihr diese Website als kompetente Quelle erkennen, wenn sie namentlich erwähnt würde?
Bietet dieser Artikel eine vollständige oder umfassende Beschreibung des Themas?
Enthält dieser Artikel aufschlussreiche Analysen oder interessante Informationen, die nicht allgemein bekannt sind?
Würdet ihr diese Seite zu euren Lesezeichen hinzufügen, an Freunde weitergeben oder empfehlen?
Enthält dieser Artikel unverhältnismäßig viele Anzeigen, die vom eigentlichen Inhalt ablenken oder diesen beeinträchtigen?
Könntet ihr euch diesen Artikel in einem Printmagazin, einer Enzyklopädie oder einem Buch vorstellen?
Sind die Artikel kurz oder gehaltlos oder fehlen sonstige hilfreiche Details?
Wurden die Seiten mit großer Sorgfalt und Detailgenauigkeit oder mit geringer Detailgenauigkeit erstellt?
Würden sich Nutzer beschweren, wenn ihnen Seiten von dieser Website angezeigt würden?
Die Erstellung eines Algorithmus zur Bewertung der Qualität einer Seite oder Website ist eine viel schwierigere Aufgabe, wir hoffen aber, dass die oben genannten Fragen euch einen gewissen Einblick in unsere Vorgehensweise zur Erstellung von Algorithmen geben, mit denen qualitativ hochwertige Websites von weniger qualitätsvollen Website unterschieden werden.
Was ihr tun könnt
Viele von euch haben geäußert, dass ihr gern mehr Informationen dazu hättet, was ihr tun könnt, um euer Ranking in Google zu verbessern. Dies gilt insbesondere dann, wenn ihr glaubt, vom Panda-Update betroffen zu sein. Wir empfehlen, euch, unter Berücksichtigung von Fragen wie den oben stehenden, auf die Entwicklung qualitativ hochwertiger Inhalte zu konzentrieren statt zu versuchen, die Website für irgendeinen Google-Algorithmus zu optimieren.
Ein anderer Tipp von uns ist, dass Inhalte von niedriger Qualität in manchen Bereichen der Website sich auf das Ranking der Website insgesamt auswirken können. Wenn ihr also Seiten von geringer Qualität entfernt oder zusammenführt, den Inhalt einzelner oberflächlicher Seiten interessanter gestaltet oder diese Seiten in eine andere Domain verschiebt, kann dies eventuell das Ranking eurer hochwertigeren Inhalte verbessern.
Wir arbeiten kontinuierlich an Verbesserungen unserer Algorithmen, die Webmastern qualitativ hochwertiger Websites helfen sollen, mehr Zugriffe über Suchvorgänge zu erzielen. Bei der Verbesserung eurer Websites solltet ihr also nicht so sehr auf eine bestimmte algorithmische Optimierung achten, sondern euch Fragen stellen, wie wir sie uns stellen, wenn wir den Blick auf das Ganze richten. Auf diese Weise könnt ihr eher erreichen, dass eure Website langfristig ein gutes Ranking erzielt. Solltet ihr in der Zwischenzeit Feedback für uns haben, teilt uns dies bitte über unser
Webmaster-Forum
mit. Wir prüfen die Threads im Forum ständig und geben bei unserer Arbeit an zukünftigen Iterationen unserer Ranking-Algorithmen Website-Informationen an das Team für Suchqualität weiter.
More guidance on building high-quality sites (English sites)
Post von Amit Singhal, Google Fellow (Veröffentlichung von Jörg Pacher, Search Quality Analyst)
Hilfreiche Tipps von unserer London-Site-Clinic
Dienstag, 10. Mai 2011
Vor kurzem fand unsere zweite Site Clinic statt, dieses Mal bei TechHub in London. Wie schon
letztes Jahr
, möchten wir die besprochenen Themen im Folgenden für euch zusammenfassen.
Mit Hilfe von Meta-Tags kann die Sichtbarkeit von Webseiten in den Suchergebnissen von Google unkompliziert verbessert werden. Viele Webmaster schöpfen dieses Potenzial bisher jedoch nicht voll aus. Wir haben daher ein paar Hilfestellungen zum Schreiben
guter Seitentitel
und
Beschreibungen
zusammengestellt, mit denen ihr in das Thema einsteigen könnt.
Meta-Keywords
könnt ihr übrigens ignorieren, soweit es die Google-Suche betrifft.
Der Kontext des Inhalts einer Seite wird von den Google-Algorithmen unter anderem anhand der
Seitenüberschriften
ermittelt. Die Art und Weise der semantischen Auszeichnung auf einer Website, einschließlich der h1-, h2- und h3-Tags, weist auf die Prioritäten der einzelnen Inhalte einer Website hin. Allerdings muss man sich nicht um jedes einzelne H-Tag Gedanken machen. Der gesunde Menschenverstand ist in diesem Fall der beste Ratgeber.
Genauso wichtig wie eine logische Strukturierung der Seiten ist die Gesamtstruktur eurer Website, insbesondere die sinnvolle Verlinkung mit ähnlichen Dokumenten innerhalb dieser Website. So können sowohl Nutzer als auch Suchmaschinen-Bots euren gesamten Content besser erkunden. Stellt darüber hinaus unbedingt eine regelmäßig aktualisierte
XML-Sitemap
bereit, die bequem
über die robots.txt-Datei eurer Website verlinkt
und so von Google und anderen Suchmaschinen automatisch gefunden werden kann.
Ein weiteres Thema bei der Site Clinic waren Probleme mit
doppelten Inhalten (Duplicate Content)
und dem
Festlegen einer kanonischen Version
. Doppelte Inhalte innerhalb einer Website sind generell kein Problem, erschweren aber Suchmaschinen die korrekte Indexierung der Inhalte und die Bereitstellung der richtigen Version für die Nutzer. Es gibt zwei Möglichkeiten, um auf die bevorzugte Version eurer Inhalte hinzuweisen: durch
301-Weiterleitungen
auf eure bevorzugte Version oder mithilfe des Link-Elements
rel="canonical"
. Wenn ihr nicht sicher seid, ob ihr für eure bevorzugte Domain eine www- oder eine Nicht-www-Adresse festlegen sollt, lest am besten die entsprechende Hilfeseite zum
Festlegen der bevorzugten Domain in den Webmaster-Tools
.
Ein weiteres häufig auftretendes Problem ist, dass viele Websites Fehlerseiten aufweisen, die keinen HTTP-Fehlercode sondern den HTTP-Statuscode 200 zurückgeben. Nur Dokumente, die auch tatsächlich verfügbar sind, sollten den HTTP-Statuscode 200 zurückgeben. Wenn die Seite nicht mehr existiert, sollte sie den Antwortcode 404 (Seite nicht gefunden) zurückgeben. Header-Antworten jeder URL können mithilfe der Funktion "
Abruf wie durch Googlebot
" in den Webmaster-Tools oder mithilfe von Drittanbieter-Tools wie dem
Live HTTP Headers Firefox-Add-on
oder web-sniffer.net geprüft werden.
Die Rangfolge falsch geschriebener Suchanfragen, zum Beispiel falsch eingegebener Namen lokaler Geschäfte, scheint ein weiteres Problem zu sein. In einigen Fällen schlägt die
automatische Rechtschreibkorrektur von Google
sofort die richtige Schreibweise vor. Es ist keine gute Idee, den Inhalt einer Website mit allen möglichen Rechtschreibfehlern zu versehen. Ebenso wenig ratsam ist es, diese oder andere Inhalte mithilfe von JavaScript, CSS oder ähnlichen Techniken auszublenden. Diese Methoden verstoßen gegen die
Richtlinien für Webmaster von Google
und können sich negativ aufs Ranking der Website auswirken. Wenn ihr nicht ganz sicher seid, wie der Googlebot eure Seiten "sieht", zum Beispiel, wenn ihr viel JavaScript verwendet, dann seht euch die Nur-Text-Version der im Cache gespeicherten Kopie in den Ergebnissen der Google Websuche an.
Nutzer lieben schnelle Websites. Aus diesem Grund ist die
Ladegeschwindigkeit von Webseiten
ein wichtiges Kriterium. Wir bieten den Webmastern eine Reihe von Tools und Empfehlungen zur Analyse und Verbesserung der Leistung ihrer Websites. Das beste Tool für Einsteiger ist
Page Speed Online
, die webbasierte Version unserer beliebten
Extension Page Speed
für Chrome. Unsere Seite
Let's make the web faster
enthält eine Reihe hilfreicher Ressourcen von Google und anderen Anbietern zur Verbesserung der Website-Geschwindigkeit. Schaut sie euch unbedingt einmal an.
Unser Dank geht an das Team von
TechHub
, das uns bei der Durchführung der Veranstaltung geholfen hat, sowie an alle Teilnehmer. Wir hoffen, dass die Präsentation sowie die Fragen und Antworten interessant für euch waren. Die Präsentation findet ihr hier:
Meldet euch beim
Google-Webmaster-Hilfeforum
an und diskutiert weitere Fragen, oder schaut regelmäßig in das
Blog der Webmaster-Zentrale
.
Sharing advice from our London site clinic (English version)
Blogpost von Kaspar Szymanski, Pierre Far und Sven Naumann
Page Speed für Google Chrome auch auf Deutsch
Montag, 2. Mai 2011
Seit einiger Zeit ist die meistgefragte Funktion für
Page Speed
,
Page Speed für Google Chrome
, verfügbar. Nutzer von Google Chrome können jetzt direkt in Google Chrome auf Page-Speed-Vorschläge zugreifen, um die Geschwindigkeit ihrer Websites zu erhöhen. Wir möchten uns bei allen Nutzern für das konstruktive Feedback und die Unterstützung seit der Einführung von Page Speed bedanken. Es freut uns zutiefst, dass bereits im März 1,4 Millionen einzelne Nutzer die Page-Speed-Erweiterung verwendet haben und die Hilfe zur Diagnose ihrer Webleistung als nützlich erachten.
Die Unterstützung von Google Chrome stand schon immer ganz oben auf unserer Prioritätenliste, aber wir wollten, dass sie perfekt funktioniert. Ganz wichtig war, dass die gleiche Engine zum Einsatz kommt, die auch das
Page-Speed-Add-on für Firefox
unterstützt. Daher erstellten wir zunächst das
Page-Speed-SDK
und integrierten es anschließend in die Google Chrome-Erweiterung.
Page Speed für Google Chrome weist die gleichen Kernfunktionen auf wie das Firefox-Add-on. Darüber hinaus enthält diese Version erstmals zwei bedeutsame Verbesserungen. Die Bewertungen und Vorschläge sind jetzt besser sortiert, damit Webentwickler sich zunächst auf Optimierungen mit höherem Potenzial konzentrieren können. Und da die
Beschleunigung des Webs
eine globale Initiative ist, zeigt Page Speed darüber hinaus lokalisierte Regelergebnisse in 40 Sprachen an. Diese Verbesserungen wurden in das Page-Speed-SDK integriert, sodass sie auch in der nächsten Version unseres Firefox-Add-ons verfügbar sein werden.
Falls eure Website je nach User-Agent des Browsers unterschiedliche Inhalte anzeigt, habt ihr jetzt eine praktische Methode zur Analyse der Seitenleistung aus Sicht verschiedener Browser. Firefox und Google Chrome werden über die Page-Speed-Erweiterungen unterstützt und Internet Explorer über
webpagetest.org
, wo auch das Page-Speed-SDK integriert ist.
Wie immer freuen wir uns auf euer Feedback. Probiert
Page Speed für Google Chrome
aus und gebt uns über unser
Forum
Rückmeldung über weitere Funktionen, die ihr euch wünscht. Und haltet Ausschau nach neuen Updates zu Page Speed für Google Chrome im Hinblick auf die Integration neuer genialer Technologien wie
Native Client
.
Blogpost von Matthew Steele und Richard Rabbat, Page Speed-Team (Veröffentlichung von Jörg Pacher, Search Quality Analyst)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster