Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Welche SEO-Fehlinformationen gibt es?
Dienstag, 1. März 2011
Heute klärt Matt Cutts einige Missverständnisse, die bezüglich Google und SEO kursieren, und geht dabei auf Links und nofollow, Meta-Tags und das Google Webspam-Team näher ein.
Die heutige Frage kommt von Tom S. aus Seattle und lautet : "Nenne fünf Beispiele für falsche SEO-Informationen aus dem letzten Jahr, die aus seriösen Quellen stammen und dich an den Rand der Verzweiflung brachten. Du musst keine Namen nennen."
Okay. Mir fallen mindestens zwei Beispiele ein, denen ich noch weitere Trugschlüsse hinzufügen möchte. Am meisten kopfschütteln musste ich bei der Meinung, dass die Links automatisch zählen, wenn sich Kunden bei negativen Erfahrungen auf entsprechenden Websites beschweren. Diese Idee ist gefährlich: Je schlechter man seine Kunden behandelt, desto mehr Links erhält man und desto höher das Ranking bei Google. Das ist ganz eindeutig ein Trugschluss. Thor von getsatisfaction.com schrieb in einem Blog, dass diese Links ein "nofollow"-Attribut erhalten. Der "nofollow"-Mechanismus weist darauf hin, dass man diesen Link zu einem Drittanbieter nicht unbedingt befürwortet. Man kann damit also sagen: Auch wenn dies eine namhafte Website ist, vertrauen wir diesem "nofollow"-Link nicht unbedingt. Wir überspringen sie in unserem Link-Graph, damit sie keine Rolle beim Ranking spielt. Durch diesen Link fließt kein Ankertext. Daher hat keine der Beschwerde-Websites zu den Such-Rankings einer bestimmten Website beigetragen.
Ein weiterer Trugschluss ist, dass das Google-Webspam-Team dieses Jahr etwas nachlässiger sei. Nur weil manche SEOs nicht sehen, an was das Webspam-Team arbeitet, heißt das nicht, dass wir nicht aktiv sind. Eine der größten Herausforderungen im Jahr 2010 waren gehackte Websites. Es gibt viele Leute da draußen, die im Grunde illegale Aktivitäten tätigen. Manche versuchen, Websites zu hacken und eigene Links einzufügen, oder Malware, Viren und Trojaner zu verbreiten. Auf diese bösartigen Aktivitäten wollten wir uns konzentrieren und diese verhindern. Daran mussten viele Mitarbeiter mehrere Monate arbeiten und andere Veränderungen wurden nicht so richtig wahrgenommen. Solange wir gegen gehackte Spam-Websites vorgehen, sieht man vom normalen Kampf gegen Spam vielleicht nicht mehr viel. Die meisten Veränderungen wegen gehackter Websites sind mittlerweile eingeführt, sodass wir uns wieder dem normalen Web-Spam zuwenden können.
Ein weiterer Trugschluss ist, dass nur Links zählen. Manch einer denkt: "Ich brauche nur Links und sonst gar nichts." Guter Inhalt auf der Website spielt aber auch eine Rolle. Baut also nicht nur auf Links. Achtet auch auf die Architektur eurer Website, ihre Crawlbarkeit, wie gut durchsuchbar sie ist, ob ihr gute interne Links habt, ob die Begriffe auf eurer Seite stehen, nach denen die Nutzer wirklich suchen. All das ist wirklich wichtig.
Ein spezieller Trugschluss, auf den ich hinweisen will, ist, dass das Meta-Tag der Keywords im Such-Ranking von Google irgendeine Rolle spielen würde. Tut es einfach nicht. Wir verwenden das Meta-Keywords-Tag nicht.
Außerdem höre ich immer wieder, dass das Web-Spam-Team entweder nur mit Algorithmen oder nur manuell arbeitet. Wir behalten uns vor, Websites manuell zu entfernen, wenn wir Spam oder andere Probleme feststellen. Wir haben ein manuelles Team in vielen Sprachen auf der ganzen Welt. Wir sind stolz auf dieses Team, das tolle Arbeit leistet. Auch die anderen großen Suchmaschinen haben ein Team, das manuell nach Spam sucht. Die Teams entfernen nicht nur Spam, sondern geben auch Übungsdaten an Entwickler weiter, die an der Spam-Bekämpfung arbeiten. Es sind also nicht nur Entwickler und es sind nicht nur manuelle Prüfer, die sich mit Spam-Meldungen beschäftigen. Mit einer Kombination aus diesen beiden geht Google gegen Web-Spam vor.
Das waren also ein paar Dinge, die ich gerne richtigstellen wollte.
Veröffentlicht von Daniela Loesser, Search Quality Team
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster