Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Erinnerung zu Links in groß angelegten Artikelkampagnen
Dienstag, 6. Juni 2017
In letzter Zeit sind wir vermehrt auf Spamlinks in Artikeln gestoßen, die als Kommentatorbeiträge, Gastbeiträge, Partnerbeiträge oder syndizierte Beiträge gekennzeichnet sind. Diese Artikel werden für gewöhnlich von einem Websiteinhaber oder in dessen Namen geschrieben und auf einer anderen Website veröffentlicht.
Google will euch nicht von solchen Arten von Artikeln abhalten, falls sie eine effektive Möglichkeit darstellen, um die Zielgruppe einer anderen Seite zu informieren oder ein Bewusstsein für euer Anliegen oder Unternehmen zu schaffen. Die
Richtlinien von Google zu Linktauschprogrammen
werden jedoch dann verletzt, wenn der Hauptzweck eines Artikels darin besteht, viele Links zu erstellen, um die Nutzer zur Website des Autoren weiterzuleiten. Im Folgenden findet ihr Faktoren, die bei gehäuftem Auftreten auf diesen Fall hindeuten können:
Links in euren Artikeln, die voller überflüssiger Keywords sind und auf eure Website verweisen.
Das Veröffentlichen der Artikel auf vielen verschiedenen Websites beziehungsweise eine große Anzahl von Artikeln auf wenigen großen, unterschiedlichen Websites.
Der Einsatz von Artikelautoren, die sich nicht mit den Themen auskennen, über die sie schreiben.
Die Nutzung desselben oder ähnlichen Contents in all diesen Artikeln beziehungsweise das Duplizieren des gesamten Contents eurer eigenen Website in Artikeln. Dabei wird die Verwendung sowohl von
rel="canonical"
als auch von
rel="nofollow"
empfohlen.
Wenn Google feststellt, dass auf einer Website Artikel mit Spamlinks veröffentlicht werden, kann das Auswirkungen darauf haben, wie Google die Qualität der Website einschätzt und wie hoch das Ranking ist. Websites, die solche Artikel akzeptieren und veröffentlichen, sollten diese sorgfältig prüfen und sich beispielsweise folgende Fragen stellen: Kenne ich diese Person? Passt ihre Botschaft zur Zielgruppe meiner Website? Enthält der Artikel hilfreichen Content? Wenn der Artikel Links mit fragwürdigen Absichten enthält, hat der Autor darin
rel="nofollow"
verwendet?
Sollten auf Websites spezielle Artikel für Links erstellt werden, ergreift Google Maßnahmen, da dieses Verhalten dem Web insgesamt schadet. Wenn es in erster Linie darum geht, Links zu erstellen, kann die Qualität der Artikel und damit die Nutzerfreundlichkeit leiden. Des Weiteren möchten Webmaster keine aggressiven oder wiederholten Anfragen wie "Poste meinen Artikel!" erhalten. Wir ermutigen Webmaster auch, solche Fälle über unser
Formular zum Melden von Spam
zu melden. Wenn ein Link eine Art Empfehlung ist und ihr selbst die meisten Empfehlungen für eure eigene Website erstellt, solltet ihr euch auch fragen, ob eure Website dadurch einen optimalen Eindruck hinterlässt. Unser bester Rat im Zusammenhang mit der Linkerstellung lautet daher, sich auf die Verbesserung des Contents eurer Website zu konzentrieren. Alles andere, einschließlich Links, folgt von ganz alleine.
Post vom Google Webspam-Team
Bessere Snippets für eure Nutzer
Montag, 5. Juni 2017
Bevor jemand ein Buch kauft, möchte er sich einen Eindruck davon verschaffen, womit er beim Lesen einige Stunden verbringen wird. Er sieht sich den Klappentext, das Vorwort oder sogar die Einleitung an, um herauszufinden, ob er das Buch mag.
Snippets von Suchergebnissen haben einen recht ähnlichen Zweck. Sie helfen den Nutzern zu entscheiden, ob sie die Zeit zum Lesen der Seite investieren wollen, zu der das Snippet gehört.
Je aussagekräftiger und relevanter ein Suchergebnis-Snippet ist, desto wahrscheinlicher werden Nutzer darauf klicken und mit der Seite zufrieden sein, auf die sie weitergeleitet werden. Bisher gab es drei Quellen für
Snippets:
Den Content der Seite
Die Meta-Beschreibung
Die DMOZ-Einträge
Der Content der Seite ist bei Suchergebnis-Snippets eine sehr naheliegende Option – die extrahierbaren Inhalte sind für die Suchanfragen der Nutzer oft am relevantesten. Manchmal liefert jedoch der Content nicht das beste Material für ein Snippet. Dies ist beispielsweise der Fall, wenn ein Nutzer ein Buch geschrieben hat und dafür einen Verlag sucht. Die Startseiten seiner Suchergebnisse enthalten dann unter Umständen nur ein paar Bilder, die den Verlag und seine Aktivitäten beschreiben, ein Logo und eventuell einige Links. Dies ist alles nicht besonders hilfreich für ein Snippet.
In Fällen, in denen der Content einer Seite nicht genügend Text für ein Suchergebnis-Snippet liefert, wird als logische Alternative die Meta-Beschreibung verwendet. Dabei handelt es sich um einen kurzen Text, der den Content treffend und präzise zusammenfasst.
Wenn eine Seite nicht genug Text für die Erstellung eines Snippets enthält und die Meta-Beschreibung entweder fehlt oder keinen Bezug zur Seite hat oder von geringer Qualität ist, haben wir bisher auf
DMOZ (auch als Open Directory Project bekannt)
, zurückgegriffen. Wir nutzen DMOZ schon seit über zehn Jahren, da die Qualität der DMOZ-Snippets oft viel besser war als die der Snippets, die von Webmastern in ihrer Meta-Beschreibung bereitgestellt wurden, oder die DMOZ-Snippets deutlich aussagekräftiger waren als der Content der Seite.
Da das DMOZ-Projekt
leider eingestellt
wurde, verwenden wir für die Snippets auch keine Einträge mehr aus diesem Projekt. Um so wichtiger ist es nun, dass Webmaster gute Meta-Beschreibungen bereitstellen, falls das Hinzufügen von weiterem Content auf einer Seite keine Option darstellt.
Was zeichnet eine gute Meta-Beschreibung aus?
Gute Meta-Beschreibungen sind kurze Texte, die den Content einer Seite zutreffend beschreiben. Sie dienen zugleich als Werbetexte, die die Nutzer überzeugen sollen, dass die betreffenden Seiten genau ihrer Suche entsprechen. Weitere Tipps zu diesem Thema findet ihr in diesem nützlichen
Search Console-Hilfeartikel
. Denkt daran, dass sowohl eure Seiten für Desktop- als auch für Mobilgeräte einen Titel und eine Meta-Beschreibung enthalten sollten.
Welche Probleme treten bei Meta-Beschreibungen am häufigsten auf?
Da Meta-Beschreibungen normalerweise nur für Suchmaschinen und andere Software sichtbar sind, werden sie manchmal von Webmastern vergessen und komplett leer gelassen. Aus demselben Grund passiert es auch häufig, dass dieselbe Meta-Beschreibung gleich für mehrere (und teilweise sehr viele) Seiten verwendet wird. Wenn eine Meta-Beschreibung gegeben wird, kommt es auch vor, dass die Beschreibung überhaupt nicht zum Thema passt, von niedriger Qualität ist oder sogar von manchen Spamfiltern als Spam betrachtet wird. Da sich derartige Probleme negativ auf das Sucherlebnis unserer Nutzer auswirken, ziehen wir es vor, solche Meta-Beschreibungen zu ignorieren.
Gibt es eine Zeichenbeschränkung für Meta-Beschreibungen?
Es gibt keine festgelegte Zeichenbeschränkung für Meta-Beschreibungen, allerdings werden die Suchergebnis-Snippets bei Bedarf gekürzt, normalerweise, um den Text an die Gerätebreite anzupassen.
Was passiert mit den Richtlinien in der
"NOODP"-Robots-Anweisung
?
Da DMOZ (ODP) eingestellt wurde, verwenden wir auch nicht mehr die zugehörigen Daten. Aus diesem Grund verliert die NOODP-Anweisung ihre Bedeutung.
Kann ich verhindern, dass Google den Content der Seiten als Snippet verwendet?
Ihr könnt verhindern, dass Google überhaupt Snippets erstellt, indem ihr die
"nosnippet"-Robots-Anweisung
festlegt. Es kann jedoch nicht verhindert werden, dass Seitencontent als Snippet verwendet wird, wenn gleichzeitig auch andere Quellen zulässig sind.
Wie immer könnt ihr eure Fragen in unserem
Webmaster Forum
stellen!
Gepostet von
Gary
, Search Team
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster