Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Sind 100 Links pro Seite zuviel?
Dienstag, 19. April 2011
Heute geht Matt Cutts auf eine (etwas veraltete) Empfehlung zur Anzahl von ausgehenden Links pro Seite ein.
Die heutige Frage ist von Blind Five Year Old in San Francisco, Kalifornien, der wissen möchte: "Gilt die 100-Links-pro-Seite-Richtlinie von Google noch immer, vor allem in Anbetracht der Tatsache, dass fortschrittliche CSS-Funktionen Tabs, Einblendungen und andere Möglichkeiten bieten, die mehr Inhalte und Links auf einer Seite ermöglichen, ohne die Nutzererfahrung negativ zu beeinflussen?"
Über diese Frage freue ich mich sehr. Der ursprüngliche Grund für die Empfehlung von 100 Links pro Seite ist ziemlich einfach. Zu einem bestimmten Zeitpunkt indexierte Google nur 101 Kilobyte einer Seite. Also brauchten wir eine Heuristik, um sagen zu können: "Macht eure Seite nicht so lang, dass wir sie nicht komplett indexieren können und Wörter am Ende weglassen müssen." Also legten wir fest: 101 Kilobyte, 100 Links. Das ist zwar eine recht grobe Schätzung, sollte man diese aber überbieten, ist dies doch ein wenig ungewöhnlich.
Diese 100-Links-pro-Seite-Richtlinie reicht allerdings 8 bis 9 Jahre zurück. Das Web hat sich verändert, und heutige Seiten sind oft viel reichhaltiger als früher. Sie beinhalten oft viel mehr Informationen. Vergleicht zum Beispiel Seiten von heute mit gängigen Seiten von vor 10 Jahren im Web. Wenn ihr euch also die Richtlinien noch einmal genau anseht, glaube ich, dass ihr die Richtlinie für 100 Links pro Seite nicht mehr finden werdet.
Bedeutet dies nun, dass ihr sofort 5000 Links auf eine Seite packen sollt? Das ist wohl eher eine schlechte Idee. Das wäre nicht nur schlecht für den Nutzer, es könnte auch der Eindruck entstehen, dass ihr eine Linkfarm betreibt oder einfach nur Links in die Seite stopft. Ich würde mich aber auch nicht unbedingt an dem Konzept von 100 Links auf einer Seite festhalten. Das stand auch schon immer in unseren Richtlinien. Damit möchte ich sagen, dass wir euch nicht für Spammer halten, wenn ihr mehr als 100 Links habt, möglicherweise aber nicht alle davon indexieren. Wir haben die Richtlinie jedenfalls entfernt. Es ist also absolut okay, wenn eine reichhaltige Seite viele Links enthält, bevor ihr euch Sorgen machen müsst, dass es ein Problem deshalb gibt oder wir nicht allen Links folgen.
Es sollte aber nicht vergessen werden, dass der PageRank einer Seite eine Rolle spielt. Die Formel für den PageRank besagt, dass eine Division durch die Anzahl ausgehender Links erfolgt. Wenn ihr also 500 Links auf einer Seite habt, führt dies zur Teilung des PageRank dieser Seite durch 500, wenn ihr euch die ausgehenden Links anseht. Dies findet gemäß der ursprünglichen PageRank-Spezifikation statt. Man sollte das also im Hinterkopf behalten. Es ist nicht unbedingt die beste Lösung, Hunderte oder Tausende von Links auf einer Seite zu platzieren. Denkt aber darüber nach, welche Seiten wirklich wichtig sind, und versucht, eure Nutzer nicht mit Links zu überschütten, die ihnen nicht unbedingt einen Mehrwert oder Vorteil bieten.
Veröffentlicht von Daniela Loesser, Search Quality Team
Unsere Eindrücke von der SMX München 2011
Freitag, 15. April 2011
Letzte Woche haben wir die
SMX München
besucht.
Wie angekündigt
, waren wir gleich mit mehreren Sprechern vor Ort.
Maile Ohye
, die ihr wahrscheinlich aus unserem Blog kennt - wir haben unter anderem ihr
Video zu SEO mit den Webmaster-Tools
hier veröffentlicht - hielt eine der Keynotes. Thema: ”Das Aktuellste zur Google-Suche.” Sie betonte die Bedeutung von HTML5 für die Zukunft des Webs und machte vor allem eines klar, dass Suchmaschinen und Webmaster ein gemeinsames Ziel haben: die Aufmerksamkeit und das Wohlwollen der Nutzer. Wir hoffen natürlich, dass wir euch unter anderem mit
unseren
Tools
dabei helfen, das zu erreichen und so zum weiteren Wachstum des Netzes beitragen können.
Johannes Müller
, Webmaster Trends Analyst, der Besuchern unserer
Hilfe-Foren
ein Begriff sein sollte, kam auch mehrmals zu Wort. Er zeigte nicht nur, wie HTML5 einsetzbar ist, sondern gab auch Hinweise zu suchmaschinenfreundlichem Design.
Außerdem sprach
Uli Lutz
aus unserem Team über usergenerierten Content. Besonders seine Erfahrungen im Google-Hilfe-Forum, kamen dabei immer wieder zur Sprache. Wir werden in einem zusätzlichen Blogpost weiter darauf eingehen.
Uns hat es auch sehr gefreut, dass unsere neue und frisch übersetzte
Einführung in Suchmaschinenoptimierung
, unser SEO-Guide, bereits mehrfach in den Panels empfohlen und zitiert wurde. Selbst fortgeschrittene Webmaster scheinen da noch viele sinnvolle Tipps zu finden.
Auch unsere
Position zu Linkkauf und Linktausch aus den Richtlinien für Webmaster
ist zum Glück bei jedem angekommen. Die Sprecher in den großen Panels sehen die Zukunft von SEO eindeutig in kreativen Ideen und dem Anbieten von guten Inhalten.
Dass “Social” in der Zukunft der Suche eine große Rolle spielen wird, ist auch unübersehbar. Gute Inhalte werden auch durch Nutzerempfehlungen nochmals stärker in den Mittelpunkt rücken, so der Tenor der Panel-Sprecher.
Rich Snippets
sind ein weiteres Thema, dass euch sehr interessiert. Falls ihr zu diesem Thema Fragen habt, zahlt sich ein Blick in die
Dokumentation zur Auszeichnung von Websites
aus. Unser (englischsprachiges)
Testtool für Rich Snippets
ist ebenfalls äußerst hilfreich. Ihr könnt damit auch deutschsprachige Inhalte testen.
Viele Webmaster machen sich zudem Gedanken darüber, Videoinhalte in ihre Website einzubauen. Auch zu
Video-XML-Sitemaps
könnt ihr bei uns Ressourcen finden.
Wir bedanken uns bei allen Leuten, mit denen wir uns nett unterhalten durften und hoffen, dass ihr viel Interessantes erfahren habt - sei es vor Ort bei der SMX München, oder hier im Blogpost. Weitere Fragen beantworten wir gerne im
Hilfe-Forum
.
Blogpost von Jörg Pacher (Search Quality Analyst) und
Uli Lutz
(Search Quality Strategist)
Bessere englischsprachige Suchergebnisse dank des neuen Algorithmus - jetzt weltweit
Mittwoch, 13. April 2011
Vor über einem Monat haben wir Verbesserungen am Algorithmus vorgenommen, sodass unsere Nutzer
mehr qualitativ hochwertige Websites in den Suchergebnissen
erhalten. Seitdem haben wir viel Zuspruch für die Veränderung erhalten: Die Suchergebnisse haben sich verbessert und viele gute Publisher verzeichnen höhere Zugriffszahlen.
Nach weiteren Tests auf internationaler Ebene führen wir diese Verbesserung nun global für alle Google-Nutzer in englischer Sprache ein. Zusätzlich verwenden wir auch neue Signale, die auf Nutzer-Feedback basieren. In einigen Fällen beginnen wir damit, die Daten über
Websites, die von Nutzer geblockt werden
, in unseren Algorithmus einzubauen. Zusätzlich betrifft die Änderung auch den Long Tail von Websites niedrigerer Qualität und führt so zu qualitativ besseren Ergebnissen in Bereichen, die der Algorithmus vorher nicht so gut einschätzen konnte. Der Einfluss dieser neuen Signale ist geringer als die Änderung vor einem Monat: ungefähr 2% der US-amerikanischen Suchanfragen sind merklich betroffen - im Vergleich zu den beinahe 12%, auf die die ursprüngliche Änderung Einfluss hatte.
Unsere Tests haben ergeben, dass der Algorithmus die Qualität einer Website äußerst genau erkennen kann. Falls ihr den Eindruck habt, dass eure Website von hoher Qualität ist, und dennoch von der Änderung betroffen ist, würden wir euch bitten die einzelnen Aspekte der Website genau zu überprüfen. Die
Richtlinien für Webmaster
von Google enthalten hilfreiche Information, wie ihr eure Website verbessern könnt. Änderungen auf Websites werden in den algorithmischen Rankings widergespiegelt. Wir freuen uns außerdem, wenn ihr zusätzlich einen Beitrag in unserem
Webmaster-Forum
postet. Wir machen zwar keine manuellen Ausnahmen, aber wir werden dieses Feedback bei der weiteren Verfeinerung unserer Algorithmen berücksichtigen.
Die Änderung wird weiter getestet und verfeinert, bevor sie auf zusätzliche Sprachen ausgeweitet wird. Natürlich halten wie euch diesbezüglich auf dem Laufenden.
High-quality sites algorithm goes global, incorporates user feedback (English version)
Blogpost von Amit Singhal, Google Fellow (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality Analyst)
Sind Keywords im Domain-Namen ein Muss?
Freitag, 8. April 2011
Heute beschäftigt sich Matt Cutts mit Domain-Namen und den Vorteilen und Nachteilen, die Keyword-Domains gegenüber eingängigeren Markennamen-Domains haben.
Die heutige Frage kommt von McDot aus Berlin. McDot fragt: "Wie würdest du jemandem, der sich für einen Domaintypen entscheiden möchte, die Vorteile von Keyword-Domains erklären?".
Was McDot damit meint, ist, dass ihr, wenn ihr einen neuen Domain-Namen registrieren und euch damit in einer bestimmten Nische der SEO durchsetzen möchtet, unterschiedliche Strategien verfolgen könnt. Ihr könnt euch etwas sehr Eingängiges überlegen, wie Twitter, etwas, das sich die Leute merken, wobei es sich aber nicht um Keywords im Domain-Namen handeln muss. Oder aber ihr konzentriert euch auf Keywords im Domain-Namen.
Die Leute machen das in den verschiedensten Bereichen. Etwa "kaufviagra.org" oder "kaufviagra.net". Es gibt verschiedene Meinungen darüber, ob es nun besser sei, eine mit Keywords gespickte Domain oder eine Domain zu nutzen, die nicht unbedingt die Keywords enthält, dafür aber eingängiger ist. Das muss man sich überlegen. Es ist auf jeden Fall und ohne Probleme möglich, ohne Keywords in der Domain Erfolg zu haben. Dafür gibt es einige gute Bespiele, etwa Zynga. Nichts in der Domain verrät etwas über den sozialen Aspekt oder Spiele. Twitter, Facebook, Google, Yahoo!. Ich meine, die Namen, die eingängig sind, an die ihr euch sofort erinnert, wenn ihr daran denkt, das sind garantiert keine Domains voll mit Keywords.
Für Keywords könnte sprechen, dass, wenn man auf den Namen eines Unternehmens verweist, ihr darauf verlinken könntet und anschließend mit denselben Wörtern, die sich im Keyword befinden. Die Sache ist also etwas ungewiss und hängt davon ab, welche Ziele ihr verfolgt und woran ihr interessiert seid. Ich persönlich tendiere eher zu den eingängigen Domains.
Wenn ihr zum Beispiel 15 Websites über Android habt und alle haben Android, Android, Android,Android, Android darin, könnte es etwas schwer fallen, sich hervorzutun und sich von den anderen abzugrenzen. Aber sobald etwas ein wenig eingängiger ist, werden sich die Leute daran erinnern und in der Lage sein, darauf zurückzukommen. Selbst bei Websites wie TechCrunch weist nichts auf TechNachrichten hin. Oder nehmen wir exotische URLs. Hacker News ist unter news.ycombinator.com zu finden. In Reddit steckt nichts, das suggeriert: "Hier gibt es sehr interessante Social News." Digg, absolut eingängig. Wenn ihr also den ganz großen Coup landen wollt, ist es vielleicht keine schlechte Idee, sich etwas Eingängiges zu überlegen.
Solltet ihr euch nun immer noch unsicher sein, dann lasst mich noch hinzufügen, dass wir uns die Rankings und Gewichtungen angesehen haben, die wir Keyword-Domains geben. Einige Leute haben sich beschwert, dass wir zu viel Wert auf Keywords in Domains legen. Daher haben wir uns überlegt, dass wir die Mischung etwas anpassen und sozusagen den Regler im Algorithmus herunterdrehen, sodass es bei zwei verschiedenen Domains nicht mehr unbedingt so sehr von Vorteil ist, eine Domain mit einem Haufen Keywords darin zu haben.
Dies sind also einige der Faktoren. So würde ich jemandem, der eine neue Domain starten und wissen möchte, welchen Weg er einschlagen soll, den Unterschied erklären.
Veröffentlicht von Daniela Loesser, Search Quality Team
Jetzt auf Deutsch: unsere erweiterte Einführung in Suchmaschinenoptimierung
Freitag, 1. April 2011
Wir freuen uns darüber, dass der vor einiger Zeit überarbeitete SEO-Guide ab jetzt in zehn weiteren Sprachen verfügbar ist: Spanisch, Französisch, Deutsch, Russisch, Türkisch, Finnisch, Schwedisch und Ungarisch, sowie in traditionellem, als auch vereinfachtem Chinesisch.
Für die jetzt erstmals auf Deutsch erhältliche 32seitige Fassung haben wir den Inhalt nochmals durchgesehen und aktualisiert. Außerdem gibt es ein völlig neues Kapitel über Mobile-Websiten.
Ihr könnte die PDF-Datei unter
goo.gl/seoguide-de
runterladen und ausdrucken, um sie so jederzeit griffbereit zu haben.
Blogpost von Esperanza Navas und Mariya Moeva, Dublin Search Quality Team (Veröffentlichung von Jörg Pacher, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster