Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Matt Cutts über Ranking, Spam und die Zukunft der Suche
Freitag, 18. Juli 2008
Vor kurzem habe ich die Möglichkeit ergriffen, dem Regen in Dublin zu entkommen und den Google Hauptsitz in Mountain View zu besuchen. Dort traf ich Matt Cutts, um ihn für diesen Blog zu interviewen. In der kalifornischen Sonne haben wir uns über Tools für Webmaster, Matts erste Begegnung mit Spam und wie man am besten in Google rankt unterhalten. Matt freute sich sehr, ein paar Worte an die deutsche Community zu richten und euch einige Tipps zukommen zu lassen. Wenn ihr also mehr über Matts Meinung zur Entwicklung von Suchmaschinen hören wollt und ihr erfahren möchtet, wie schwierig es für den Chef der Webspam-Ingenieure sein kann, im Internet zu surfen, dann schaut euch das Video an. Lasst uns wissen, wie ihr es findet. Unter dem Video könnt ihr die deutsche Übersetzung des Interviews lesen. Viel Spaß!
Deutsche Übersetzung des Interviews
Hallo an alle User aus Deutschland! Ob ihr nun User, Webmaster oder ein SEO seid - ich freue mich, hier die Gelegenheit zu haben, ein bisschen mit euch zu sprechen. Ich hoffe, dass ich bald die Möglichkeit finde, auch einmal nach Deutschland zu kommen. Bis dahin bin ich froh, dass wir hier viele talentierte Googler haben, die sich um den deutschen Markt kümmern und den Kontakt zu deutschen Webmastern halten. Das Feedback, das wir durch unser Diskussionsforum von euch bekommen, nehmen wir sehr ernst und versuchen, es entsprechend umzusetzen. Ich hoffe, euch gefällt das Interview!
Frage: Kannst Du uns erzählen, wie du mit Webspam in Berührung gekommen bist?
Matt: Das war, als ich gerade bei Google angefangen hatte. Ich arbeitete damals am SafeSearch-Projekt, einem Filter für pornografischen Content. Damals herrschte die Annahme, dass eine Site mit hohem PageRank automatisch sauber sein sollte, da ein hoher PageRank eigentlich kein typisches Signal einer Porn-Site war. Als dann doch einmal eine derartige Site durch den Filter kam, stellte ich fest, dass es sich dabei um eine abgelaufene Domain handelte, die vom W3C, also einer großen Autorität, verlinkt war. Das war eigentlich der Moment, als ich merkte, dass einige Leute doch Wege gefunden hatten, um unsere linkbasierten Algorithmen und den PageRank auszutricksen. Meine erste Spam-Site war also eine Porn-Site - vielleicht kann ich mich auch deshalb noch so gut daran erinnern. :)
Frage: Was glaubst du sind die größten Herausforderungen für Suchmaschinen in den nächsten fünf Jahren?
Matt: Ich denke, da gibt es viele Herausforderungen. Eine davon ist, dass die User immer größere Erwartungen an Suchmaschinen stellen. Udi Manber, einer unserer VPs für Softwareentwicklung, hat dies gut dargestellt, indem er die Suchanfragen von vor einigen Jahren mit denen von heute vergleicht. Was damals wirklich schwierig war, haben wir heute ganz gut im Griff, was gleichzeitig bedeutet, dass die User von uns erwarten, auch bei noch komplizierteren Suchanfragen gute Resultate zu liefern. Wir bekommen also laufend kompliziertere Suchanfragen, die zunächst als unlösbare Aufgabe erscheinen, und sobald wir diese Herausforderungen geschafft haben, können wir sicher sein, dass die
Suchanfragen der User noch komplexer
werden.
Frage: Was sind deine Empfehlungen an die Besitzer kleinerer Websites für das Ranking in den Google Suchergebnissen?
Matt: Ein zentrales Element ist es, kreativ zu sein. Die meisten Webmaster kleiner Sites rechnen sich beim Start einer neuen Site keine besonderen Chancen aus, mit großen Sites bei allgemeineren Suchanfragen konkurrieren zu können. Deshalb sollten sie sich beispielsweise zunächst auf eine bestimmte Nische konzentrieren. Wenn ihr eine Site über Schuhe starten wollt, könnt ihr euch z. B. zuerst auf Schuhe für Leute mit besonders großen Füßen konzentrieren. Ich habe schon einige Webmaster kleiner Sites gesehen, die das erfolgreich angewandt haben. Ihr könnt euch dann zunächst ganz auf diese Nische konzentrieren und dadurch zu einer Art Experte auf diesem Gebiet werden. Darauf basierend könnt ihr eure Website ausbauen. Ein weiterer Vorteil bei kleineren Sites ist, dass ihr damit viel kreativer sein und schneller reagieren könnt, als es Betreibern einer sehr großen Site möglich ist. Ich habe mit einigen Webmastern großer Sites gesprochen, die mir von riesigen, jahrelangen Projekten erzählten und auf Nachfrage erklärten, dass eigentlich nur ein bestimmter Teil im oberen Bereich der Site auf allen Seiten geändert werden sollte. Es erforderte viele Monate, um die Zustimmung aller Beteiligten innerhalb der Firma zu bekommen. Als kleiner Webmaster kann man solche Änderungen hingegen schnell umsetzen, mit verschiedenen Versionen experimentieren und Dinge, die gut funktionieren, sehr schnell einbauen. Der Vorteil ist also die Möglichkeit, sehr schnell reagieren zu können und den Freiraum für Experimente zu haben, was bei großen Firmen so meist nicht der Fall ist. Ebenso haben kleinere Webmaster den Vorteil, sich eine kleine Nische suchen zu können, wo sie schnell ein Experte werden und den Status einer Autorität erreichen können.
Frage: Um bei Google gut zu ranken, sollte jeder Webmaster...
Matt: ...die
Google Webmaster-Zentrale
kennen. Ok - ich bin hier vielleicht etwas voreingenommen. Mit den Tools der Webmaster-Zentrale könnt ihr die Backlinks eurer Site prüfen, die Keywords erkennen, mit denen User nach eurer Site suchen, und ihr könnt Crawling-Fehler identifizieren, wie z. B. fehlerhafte Links oder Bereiche der Site, die nicht gecrawlt werden können. Es ist praktisch, wenn man einfach eine Übersicht haben kann, z. B. wo 404-Fehler auftreten. Außerdem könnt ihr mit den Webmaster-Tools verschiedene Statistiken aufrufen: Was ist der Abstand zwischen den Besuchen von Googlebot oder wieviele Seiten werden pro Tag gecrawlt. Eine meiner Lieblingsfunktionen ist, dass ihr eine Benachrichtigung bekommt, wenn wir glauben, dass ihr z. B. verborgenen Text habt oder sonstige Spam-Signale vorliegen - wenn eure Site beispielsweise gehackt wurde. Wir zeigen euch in solchen Fällen eine Mitteilung in unserem
Nachrichten-Center
an, das in verschiedenen Sprachen angeboten wird. So werdet ihr beispielsweise über URLs informiert, bei denen wir versteckten Text identifiziert haben. Wenn ihr das Problem behoben habt, könnt ihr direkt von den Webmaster-Tools aus einen
Antrag auf erneute Überprüfun
g stellen. Es gibt hier also eine Menge praktischer Tools, mit denen ihr euch auf jeden Fall vertraut machen solltet - und sie sind alle kostenlos!
Frage: Gibt es Unterschiede zwischen den einzelnen Ländern, wie Google mit seinen Usern umgeht?
Matt: Jeder Markt ist verschieden. Ich denke, Google tut gut daran, diese Unterschiede wahrzunehmen und inzwischen gibt es bei Google auch eine Menge Leute, die sich mit solchen Fragen beschäftigen. Ich glaube, Google muss so aufmerksam wie möglich auf die Anforderungen und Besonderheiten der individuellen Märkte reagieren. Im Deutschen werden beispielsweise häufig mehrere Worte zu neuen Worten zusammengesetzt, was im Englischen nicht der Fall ist. Es werden also unterschiedliche Techniken angewandt, was sich auch in einer unterschiedlichen Rechtschreibprüfung niederschlägt und der Art und Weise, wie wir die jeweils relevantesten Dokumente in den verschiedenen Sprachen bestimmen. Ich finde es wunderbar, dass wir so international sind und wir unsere Webmaster-Tools in einer Vielzahl unterschiedlicher Sprachen anbieten - von Deutsch bis Chinesisch. Ich finde, wir sind sehr darum bemüht, auf die Besonderheiten der verschiedenen Märkte einzugehen und herauszufinden, wie wir dort ausgezeichnete Resultate liefern können. Einige unserer Mitarbeiter beteiligen sich aktiv an Diskussionsforen und ebenso bieten wir kostenlose Foren an, wo alle Webmaster ihr Feedback hinterlassen können. Wir nehmen euer Feedback aus allen Märkten sehr ernst - diese Art der offenen Kommunikation fand großen Zuspruch auf Seiten der Webmaster und User. Wir haben einige sehr talentierte Kollegen, die sich um diese Dinge kümmern und wir freuen uns, auf diese Weise mehr darüber zu erfahren, wie wir unsere Dienste verbessern können.
Frage: Schaust du bei allen Websites, die du besuchst, auch nach gekauften Links, die PageRank weitergeben?
Matt: Wir machen immer Witze darüber, dass, wenn du einmal gelernt hast, Spam zu erkennen, es so ist, als ob du alle Seiten mit einer Art Röntgenblick betrachtest und dich fragst, warum jemand genau diese Links gesetzt hat - das kann also ein Segen und Fluch zugleich sein, wenn einem ständig Dinge auffallen, die dem gewöhnlichen User vielleicht verborgen bleiben. Das ist etwas, was mir ständig passiert: Bei allen Websites schaue ich fast automatisch, was diese Site gut macht und was nicht. Manchmal beeinträchtigt das einfach auch den Genuss beim Surfen, da ich mir gar keine Site mehr ganz "unschuldig" anschauen kann - aber es hilft natürlich dabei, ständig etwas dazuzulernen. Wir bekommen auch viele
Spam-Reports
von Usern, was sehr nützlich für uns ist. Es hilft uns sehr, wenn User feststellen, wie wir unsere Suche noch weiter verbessern können und uns entsprechend Feedback geben.
Frage: Was ist die lustigste Frage, die dir bisher bei einer Konferenz gestellt wurde?
Matt: Eine meiner Lieblingsfragen war: "Ich habe hier eine Menge verschiedener Sites und habe sie auch gegenseitig verlinkt, aber sie ranken einfach nicht so gut in Google und eigentlich auch nicht bei Yahoo! und ich frage mich, was ich machen muss, um das Ranking meiner Sites zu verbessern." Auf der Konferenz saß ein Kollege von Yahoo! neben mir und fragte mit einem zynischen Blick: "Ok, du sprichst von vielen Sites - um wie viele handelt es sich genau? Sind es 5 oder 10? Wie viele denn?" Der Fragende machte daraufhin einen etwas betroffenen Blick und schaute sich kurz im Raum um, nur um dann zu verkünden, dass er 1500 Sites hat - woraufhin natürlich gleich ein großes Raunen durch den Saal ging.
Ebenso ist es immer wieder amüsant, wenn Leute Fragen stellen, um herauszufinden, wieviele Tricks man anwenden kann, ohne von uns entdeckt zu werden. Es ist so wie in der Schule, wenn der Schüler fragt, was denn die Fragen im nächsten Test sind. Diese Fragen gehen dann soweit, dass ich einfach nur sagen möchte: Ok - erstellt einfach eine gute Site, vermarktet sie gut und wendet "White-Hat" Optimierungstechniken an, dann könnt ihr auch ruhig schlafen und müsst euch nicht darum kümmern, wie weit ihr gehen könnt.
Frage: Angenommen, Google hätte alle Spam-Probleme gelöst und du hättest auf einmal eine Menge Zeit - was würdest du dann tun?
Matt: Ich bin total begeistert von Gadgets aller Art. Außerdem liebe ich Open Source, Ubuntu, Linux und all diese Dinge. Eine andere Sache, die ich wirklich mag, und das klingt vielleicht merkwürdig, sind alle Arten von Plug-ins: z. B. Firefox-Erweiterungen und Add-ons, Photoshop Plug-ins oder Wordpress Add-ons. Ich würde also viel Zeit damit verbringen, derartige kleine Plug-ins und Erweiterungen für alle möglichen Arten von Software zu schreiben. Es macht mir großen Spaß zu sehen, wie jemand ein Produkt bereitstellt, das von Usern erweitert, verändert und verbessert werden kann, um so die Funktionalitäten weit über den Rahmen des ursprünglichen Produkts auszuweiten. Wenn ich also unbegrenzt Zeit zur Verfügung hätte, würde ich sicher viel im Open Source Bereich machen und alle möglichen Plug-ins entwickeln.
Post von Juliane Stiller, Search Quality (Übersetzung des Interviews von Sven, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster