Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Leere Seiten im Index
Montag, 31. August 2009
Zu Beginn des Jahres gab euch Matt Cutts in einem
Post auf seinem Blog
die Gelegenheit, Wünsche zu äußern, womit sich das Search Quality Team im Jahr 2009 beschäftigen sollte. Die Antworten darauf sind für uns sehr nützlich. Sie ermöglichen uns, neue Perspektiven zu Themen zu gewinnen, die viele User stören.
Die meisten Kommentare gab es zu Seiten, die "leere Suchergebnisse" präsentieren. Viele User haben zum Ausdruck gebracht, dass sie nicht zufrieden sind, wenn sie dieser Art von Seiten begegnen, zum Beispiel: "Wenn ich nach einem Test oder einer Kritik zu [Produktname] suche und auf ein Ergebnis klicke, mag ich es nicht, wenn ich auf eine leere Seite komme, die mir sagt, 'es gibt noch keine Meinung / Kritik / Ergebnisse für Ihre Anfrage'".
Mehr Details
Meist werden diese Seiten nicht mit böser Absicht erstellt, aber solche leeren Suchergebnisseiten können stören und führen zu einer schlechten User Experience.
Wenn eine Website grundsätzlich eigenen Content anbietet, ist es unser Ansatz, nur diese leeren und automatisch generierten Suchergebnisseiten aus dem Google Suchindex zu entfernen.
Um die Indexierung solcher Seiten zu vermeiden, beachtet bitte die folgenden Tipps:
Verwendet eine
robots.txt
-Datei, um zu verhindern, dass Seiten mit Suchergebnissen oder andere automatisch generierte Seiten gecrawlt werden, wenn sie für Nutzer nicht von besonderem Interesse sind.
Erstellt nicht mehrere Seiten, Subdomains oder Domains, deren Inhalte zum großen Teil
identisch
sind.
Vermeidet
Doorway-Pages
(auch Brückenseiten genannt), die nur für Suchmaschinen erstellt werden.
Eure Hilfe ist willkommen!
Angesichts der großen Zahl von Rückmeldungen, die wir zu diesen "leeren Ergebnisseiten" erhalten haben, möchte das Google Search Quality Team euch bitten, uns weitere Beispiele von "leeren Ergebnisseiten" oder leeren Testergebnissen, Kritiken, Anzeigen und Meinungen zu schicken. Unser Team prüft alle URLs, die ihr meldet.
Geht dazu bitte folgendermaßen vor:
Besucht unsere
Spamreport-Seite
. Dafür müsst ihr euch in den Webmaster-Tools mit eurem Google-Konto anmelden. Oder ihr verwendet die
Basisversion des Spamreports
.
Achtet darauf, in dem Abschnitt "Weitere Informationen" das Wort "noresults" zu verwenden - in einem Wort und in Kleinbuchstaben.
Gebt die Details zu eurem Beispiel für "leere Ergebnisseiten" in den verschiedenen Kategorien an.
Wenn ihr weitere Fragen zur Indexierung eurer Website oder zu anderen Themen habt, besucht doch unser
Webmaster-Diskussionsforum
!
Précisions sur l'indexation des pages sans contenu et votre compte AdSense (version française)
Post von Ambroise Fensterbank, Search Quality (Übersetzung von Florian, Search Quality)
Google SERPs und AJAX
Freitag, 28. August 2009
Im heutigen Video spricht Matt Cutts über AJAX auf Google Suchergebnisseiten.
Transkript:
Hier ist eine Frage aus Übersee. Owen aus London fragt:
Kannst du bestätigen, dass die Google SERPs (search engine result pages)
nach AJAX (asynchronous JavaScript) übertragen werden und wenn dem so ist, wie wirkt sich das deiner Meinung nach auf Analytics aus, was sich auf die Keywordinformationen in der URL stützt?
Google hat vor einigen Wochen eine Änderung eingeführt, die - allerdings nur für einen sehr kleinen Anteil an Usern, im Moment liegt er bei unter 1% - beinahe so etwas wie mit JavaScript angereicherte Suchresultate bewirkt.
Ihr geht also auf Googles Seite und während ihr tippt könnt ihr nette Dinge mit JavaScript machen. Ihr könnt versuchen, Dinge schneller zu machen, ihr könnt versuchen, Dinge geschmeidiger für User zu machen. Es gibt eine Menge wirklich cleverer Sachen, die ihr tun könnt.
Das Team hat nicht wirklich an Referrer gedacht und wie dies Analyse-Tools und dergleichen zu Fall bringen könnte. Es ist zunächst ein sehr kleiner Anteil von Leuten, die dies gerade testen,
und Leute denken darüber nach, welche Möglichkeiten es gibt, Referrer zu haben.
Für alles, was ihr tun könnt, ist es sehr hilfreich Referrer zu haben. Falls in 10 Jahren Referrer da angelangt sind, wo konventionelle Browser stehen, dann können Browser vielleicht alles nach einem Pfund-Zeichen zurückgeben. Beispielsweise würde dies - auch wenn alles nach dem Hash- oder dem Pfund-Zeichen nicht offiziell Teil der URL oder Teil der URI ist - wenn Browser in der Lage wären, dies zu übergeben, dann würde dies allen Arten von Referrern und Analyse-Tools zugute kommen.
Wie ich also im Moment darüber denke, müssen wir weiterhin experimentieren, um die Suchergebnisse besser, schneller und sauberer zu machen. Es liegt nicht in der Absicht, Referrer außer Kraft zu setzen, aber wir müssen weiterhin versuchen, neue Dinge auszuprobieren.
Und wir wollen gerne gewährleisten, dass Analyse-Tools weiterhin funktionieren.
Übersetzung von Claudia, Search Quality Team
Wird es in 5 Jahren noch SEO geben?
Donnerstag, 27. August 2009
In diesem Video spricht Matt Cutts darüber, wie er die Zukunft von SEO sieht.
Transkript:
Kevin aus Marseille in Frankreich fragt: wird es in 5 Jahren noch SEO geben?
Vier Leute mochten die Frage, 45 mochten die Frage nicht - ich werde sie trotzdem beantworten!
Ja, ich glaube, dass es SEO in 5 Jahren noch geben wird. Google versucht alles so zu machen, dass keiner ein SEO-Experte sein muss, aber SEO ist in gewisser Weise wie ein Lebenslauf, nicht?
In derselben Weise, wie ihr euren Lebenslauf aufpoliert und versucht, euch von der besten Seite zu zeigen, so versucht SEO, eure Website von der besten Seite zu zeigen.
SEO ist nicht Spam, es gibt viele Möglichkeiten, White Hat SEO zu machen. Kanonisierung - worüber wir in der letzten Zeit viel gesprochen haben - kann helfen, sicherzustellen, dass all eure URLs die Backlinks erhalten, die sie verdienen, so dass ihr möglichst wenig Duplicate Content habt.
Dementsprechend gibt es viele großartige Dinge, die ihr als Entwickler oder SEO tun könnt, um dafür zu sorgen, dass eure Site gut aufgestellt ist und einen guten Eindruck macht und wirklich nützlich für Besucher ist. Das sind alles tolle Sachen, die ihr tun könnt. Daher denke ich, dass es diese Dinge in der Praxis auf jeden Fall in 5 Jahren noch geben wird.
Ich hoffe, dass Black Hat, oder illegale Machenschaften, oder wie ihr das auch immer nennen wollt, alles, was einem als Webmaster auf die Nerven geht, alles, was das Web verschmutzt oder blockiert, dass all das weniger produktiv sein wird.
Und ich hoffe, dass mehr und mehr Leute zu White Hat übergehen werden, mehr und mehr Leute über SEO lernen, ohne jedoch notwendigerweise zum Experten werden zu müssen.
Und sie können Selfservice-Tools wie die Webmasterkonsole oder Konsolen anderer Suchmaschinen nutzen, die ihnen mit SEO aushelfen.
Aber wir bieten eine kostenlose Einführung in Suchmaschinenoptimierung an, es ist ein 20seitiges PDF, und wir würden dies nicht tun, wenn wir keinen Wert darin sehen würden, wenn wir keinen Wert in SEO sehen würden.
SEO muss nicht Spam bedeuten, SEO muss nicht Black Hat bedeuten - SEO kann euch dabei helfen, eure Website in ihrem besten Licht zu zeigen, genau wie ihr euren Lebenslauf aufpoliert.
Daher denke ich, dass es SEO in 5 Jahren noch geben wird und ich denke nicht, dass das eine schlechte Sache ist.
Übersetzung von Claudia, Search Quality Team
Die Lizenz eines Bildes mit RDFa festlegen
Montag, 24. August 2009
Wir haben kürzlich ein neues Feature in der Google Bilder-Suche eingeführt, welches euch erlaubt eure Suchresultate auf solche zu beschränken, die zur kostenlosen Weiterverwendung freigegeben wurden. Als Webmaster könntet ihr daran Interesse haben, Google mitzuteilen unter welcher Lizenz ihr Bilder veröffentlicht. Deshalb habe ich eine kurzes Video vorbereitet, das erklärt wie ihr RDFa-Markup verwendet.
Falls ihr Fragen zum Markup eurer Bilder habt, dann fragt doch gerne im Webmaster-Diskussionsforum nach!
Transkript:
Hallo. Letzte Woche haben wir in der Google Bilder-Suche Usern die Möglichkeit eröffnet ihre Resultate zu filtern - nach solchen Bildern, die unter einer bestimmten Lizenz veröffentlicht wurden - wie Creative Commons, GNU License, und sogar Public-Domain-Bilder. Als Webmaster fragt ihr euch jetzt sicherlich: "Hm, ich habe Bilder, und wie arrangiere ich sie so, dass die Google Bilder-Suche das alles analysieren kann und weiß welches Bild von welcher Lizenz abgedeckt ist?"
Das ist eine sehr gute Frage. Der einfachste Weg - den stelle ich heute vor - ist die Verwendung von RDFa. RDFa ermöglicht existierende HTML-Elemente mit semantischen Metadaten auszustatten. Hier seht ihr den Image-Source-Tag wie ihr ihn eventuell zur Zeit auf eurer Seite verwendet. Der nächste Schritt ist, einen Anchor für die entsprechende Lizenz, die ihr verwendet, hinzuzufügen. Ihr seht das hier. Der letzte Schritt um das Bild zuzuordnen, wäre es zu versuchen es einzubinden, denn das Problem, das wir als Suchmaschine mit dem Markup haben - wie ihr hier seht - ist, dass wir nicht wirklich wissen, ob sich die Lizenz tatsächlich auf dieses Bild auf der Seite bezieht, oder auf ein anderes, oder gar nur auf den Text der Seite. Dafür ist die Lösung, dass ihr z.B. ein div-Element einführt, und "about=" verwendet und danach das Bild, das ihr meint, um diese beiden Elemente zu verbinden.
So, jetzt haben wir:
Hier ist eine Gruppe.
Die Gruppe bezieht sich auf das Bild.
Hier ist das Bild.
Und hier ist die entsprechende Lizenz.
Das sollte hoffentlich ausreichen, damit die Google Bilder-Suche erkennen kann, was los ist, wie ihr dieses Bild zugeordnet haben wollt, und wie es weiterverwendet werden soll. Eine weitere Anmerkung wäre: falls ihr eine bestimmte Attributierung wünscht, solltet ihr das auf der Seite klarstellen oder einen Link zu einer anderen Seite auf eurer Website haben, auf der steht "So will ich zitiert werden, wird mein Bild weiterverwendet."
So einfach ist das. Wir sind alle sehr euphorisch über den Launch. Wir freuen uns darauf euer Feedback zu hören.
Specifying an image's license using RDFa (English version)
Post von Peter Linsley, Product Manager (Übersetzung von Jörg, Search Quality)
Wie wirkt sich der Serverstandort aufs Ranking aus?
Mittwoch, 19. August 2009
Im heutigen Video spricht Matt Cutts darüber, wie sich der Serverstandort aufs Ranking auswirkt.
Transkript:
Wir haben eine Frage von Rob Lewicki aus Toronto, Ontario.
Rob fragt: Welche Auswirkung hat der Serverstandort auf die Platzierung bei Google?
Also, vor langer Zeit als Google anfing, war es recht witzig, weil Leute verschiedener Länder nur nach Top Level Domain rankten. .fr bedeutete, dass du in Frankreich warst. Das war alles, was sie damals wußten.
So um 2000-2001 begannen wir den Serverstandort, also die IP-Adresse in Betracht zu ziehen, um sagen zu können: oh, das endet nicht mit .fr, aber der Standort nach diesem Kriterium ist Frankreich, deshalb könnte es für französische User nützlich sein.
Also das ist ein Hauptkriterium für die Rankings bei Google. Wenn man sich nur in den USA aufhält, die Website dort ist, und man niemals die USA verlassen hat, bemerkt man diese Faktoren wahrscheinlich nicht.
Aber wo euer Server steht, ob es in den USA, in Frankreich, Deutschland, England, Kanada oder sonstwo ist, kann unsere Rankings beeinflußen.
Beispielsweise: auf google.com, wenn man "Bank" eintippt, bekommt man andere Resultate, als wenn man auf google.com.au "Bank" oder auf google.co.uk "Bank" eintippt.
Wir versuchen auf jeden Fall die relevantesten Resulte für jeden User in jedem Land zu liefern und der Serverstandort über die IP-Adresse spielt dabei eine Rolle.
Übersetzung von Jörg, Search Quality Team
PageRank von Twitter-Seiten - Video von Matt Cutts
Montag, 17. August 2009
Im heutigen Video spricht Matt Cutts darüber, welche Faktoren bei der Bestimmung des PageRank einer Twitter-Seite eine Rolle spielen.
Transkript:
Wir haben eine Twitter-Frage von Atul Arora aus Fremont, Kalifornien:
"Was sind die Faktoren, die bei der Bestimmung des PageRank einer Twitter-Seite eine Rolle spielen, sind es z. B. die Zahl der Follower oder die Backlinks?"
Ich habe in einer Antwort zu Twitter mal erwähnt, dass wir Twitter-Seiten wie gewöhnliche Seiten betrachten. Es ist also genau das Gleiche - wir schauen nicht auf die Zahl der Follower die ihr auf Twitter habt, sondern wir schauen auf die Zahl der Links, die ihr zu eurem Profil oder bestimmten Tweets bekommt.
Wenn ihr z. B. viel PageRank oder viele Links zu einer bestimmten interessanten Statusmeldung habt, dann ist diese eventuell interessanter und taucht ggf. häufiger in unseren Suchergebnissen auf. Aber wir schauen nicht auf die Zahl eurer Follower oder ähnliches.
Wir haben auf vielen Sites gesehen, dass die Zahl der Follower einfach manipuliert werden kann, und haben deshalb festgestellt, dass die Backlinks und die Reputation der Backlinks für uns der Weg ist um die Bedeutung einer Seite zu bestimmen - bei Twitter wie bei jeder anderen Site im Netz.
Übersetzung von Sven, Search Quality Team
Neue Tools bei Google Services for Websites
Freitag, 14. August 2009
Wir haben
dieses Jahr
bereits
Google Services for Websites
gestartet, ein Service, das Partner, wie zum Beispiel Web-Hosting- und Access-Provider, dabei unterstützt, ihren Kunden hilfreiche und leistungsstarke Tools zur Verfügung zu stellen. Services wie Webmaster-Tools, benutzerdefinierte Suche (Custom Search), Site Search und AdSense, werden damit über das Control-Panel des jeweiligen Hosting-Unternehmens für jeden Webmaster einfach zugänglich gemacht. Diese Tools helfen Website-Besitzern dabei, die Such-Performance zu verstehen, Userbindung zu intensivieren und ihre Website zu monetarisieren - insgesamt also ihre Websites effektiver zu gestalten.
Seit dem Start des Programms haben
mehrere Hosting-Plattformen
ihr Angebot durch Integration der entsprechenden APIs erweitert. Webmaster können Accounts konfigurieren, benutzerdefinierte Suchboxen in ihre Websites einbauen und mit Hilfe von AdSense mit ihrem Content Geld verdienen - das alles über wenige Klicks im Control-Panel ihres Hosters. Noch mehr Partner sind gerade dabei, die Tools zu implementieren.
Wir haben vor kurzem einige neue Tools hinzugefügt:
Web Elements
erlaubt den Kunden ihre Websites einfach via Cut&Paste aufzupeppen. Webmaster können Karten, News in Echtzeit, Kalender, Präsentationen, Spreadsheets und Youtube-Videos auf ihrer Seite zur Verfügung stellen. Mit dem "Conversation Element" können Websites mehr Interaktion mit ihrer Community erzeugen. Das "Custom Search Element" stellt eine integrierte Suche auf eurer eigenen Website (oder auf anderen, die ihr listet) zur Verfügung, ohne dass ihr auch nur eine Zeile Code schreiben müsst. Stattdessen gibt es jede Menge Optionen
zur weiteren Anpassung
.
Page Speed
erlaubt Webmastern die Performance ihrer Websites zu messen. Schnellere Websites helfen Usern dabei, flotter das Gewünschte zu finden; die Empfehlungen der Latency-Tools ermöglichen Hostern und Webmastern die Geschwindigkeit einer Website zu optimieren. Diese Technologie kann Hostern dabei helfen die benötigten Ressourcen zu reduzieren und die Bandbreite des Netzwerks zu optimieren.
Auf der "
Tips for Hosters
"-Seite gibt eine Reihe von Vorschlägen um umfassenderes Website-Hosting anzubieten. Hoster können den Komfort und die Zugänglichkeit der Tools verbessern, während sie gleichzeitig ihre Kosten verringern und an Referrals verdienen. Es gibt beispielsweise Tipps für die Verwendung von Analyse-Tools wie Google-Analytics, die Webmastern dabei helfen, ihren Traffic zu verstehen und Sprachtools wie Google Translate, die Websites einem breiterem Publikum gegenüber öffnen.
Falls ihr Hoster seid und euch gerne an Google Services für Websites beteiligen wollt,
bewerbt euch bitte hier
. Ihr werdet die Service-APIs integrieren müssen, bevor ihr die Tools für eure Kunden zugänglich machen könnt. Deshalb zahlt es sich aus, sich so früh wie möglich anzumelden.
Falls euer Hosting-Anbieter Google Services für Websites noch nicht verwendet, weist ihn doch auf
diese Seite
hin. Sobald er Partner ist, könnt ihr die Services, die ihr verwenden wollt über das Control-Panel eures Hosters schnell konfigurieren (ohne bei Google vorbeischauen zu müssen).
Wie immer freuen wir uns über
Feedback
darüber, wie das Angebot euch hilft, und wie wir es eurer Meinung nach verbessern könnten.
New tools for Google Services for Website (English version)
Post von Rajat Mukherjee, Group Product Manager (Übersetzung von Jörg, Search Quality)
Optimiert das Crawling und die Indexierung eurer Website
Donnerstag, 13. August 2009
Viele Fragen zur Architektur von Websites, dem Crawling und der Indexierung und sogar zum Ranking hängen mit einer zentralen Frage zusammen:
Wie leicht fällt es Suchmaschinen, eure Site zu crawlen?
Wir haben uns zu diesem Thema schon häufiger geäußert und hier findet ihr unsere Präsentation mit einigen wichtigen Aussagen dazu.
Das Internet ist
riesig
: Ständig wird neuer Content erstellt. Google verfügt nur über endliche Ressourcen - wenn wir also einer nahezu unendlichen Menge an Content, der online verfügbar ist, gegenüberstehen, dann kann Googlebot naturgemäß nur einen Anteil davon finden und crawlen. Von all dem Content, den wir gecrawlt haben, können wir ebenfalls nur einen Teil indexieren.
URLs sind wie die Brücken zwischen eurer Site und den Suchmaschinen-Crawlern: Die Crawler müssen diese Brücken finden und überqueren können (d. h. eure URLs finden und crawlen) um zum Content eurer Site zu gelangen. Wenn eure URLs kompliziert oder redundant sind, werden die Crawler viel Zeit damit verbringen, den Weg hin und zurück zu finden. Wenn eure URLs hingegen gut organisiert sind und direkt zum passenden Content führen, dann können die Crawler ihre Zeit damit verbringen, euren Content zu erfassen anstatt durch leere Seiten zu navigieren oder den gleichen Content wieder und wieder über verschiedene URLs zu crawlen.
In der obigen Präsentation könnt ihr einige Beispiele sehen, was ihr eher nicht tun solltet - es sind reale Beispiele (auch wenn die Namen im Rahmen unseres Schutzprogramms geändert sind ;) von selbstgebastelten URL-Hacks und Codierungen, Parameter-Verschleierung als Teil des URL-Pfades, "endlose Weiten" und mehr. Ihr findet auch einige Empfehlungen dazu, wie ihr dieses Labyrinth aus URLs glätten könnt und so den Crawlern dabei helft, mehr eures Contents noch schneller zu finden.
Dazu gehört:
Entfernt User-spezifische Details aus den URLs.
URL-Parameter, die keinen Einfluß auf den Seiteninhalt haben, wie z. B. Session-IDs oder Sortierungsparameter, können aus einer URL entfernt werden und beispielsweise in einem Cookie platziert werden. Indem diese Informationen in ein Cookie geschrieben werden und per 301-Weiterleitung auf eine "saubere" URL verwiesen wird, behaltet ihr einerseits die Besucherrelevanten Informationen und reduziert andererseits die Zahl der URLs die auf den gleichen Content zeigen.
Haltet eure "endlosen Weiten" im Zaum.
Habt ihr einen Kalender, der auf eine unendliche Zahl vergangener und zukünftiger Daten verweist (jedes mit einer eigenen, einzigartigen URL)? Oder habt ihr Daten über mehrere Seiten verteilt, die einen
Statuscode "200"
liefern, wenn ihr z. B. &seite=3563 an die URL anhängt - selbst, wenn es gar nicht so viele Seiten gibt? Falls ja, dann habt ihr in Bezug auf das Crawling "
endlose Weiten
" auf eurer Website und die Crawler verschwenden möglicherweise ihre (und eure!) Bandbreite beim Versuch, das alles zu crawlen. Beachtet einfach
diese Tipps
um eure endlosen Weiten im Zaum zu halten.
Verhindert Aktionen, die Googlebot gar nicht ausführen kann.
Indem ihr eine
robots.txt-Datei
verwendet, könnt ihr das Crawling von Login-Seiten, Kontakt-Formularen, Warenkörben oder anderen Seiten verhindern, deren einzige Funktionalität von einem Crawler nicht ausgeführt werden kann. (Crawler sind notorisch geizig und zurückhaltend - in der Regel werden sie nichts "in den Warenkorb legen" und kein Kontakt-Formular ausfüllen). Dies lässt den Crawlern mehr Zeit, den Content zu crawlen, mit dem sie tatsächlich etwas anfangen können ;)
Eine URL, ein bestimmter Content
In einer perfekten Welt gibt es eine 1:1-Beziehung zwischen URL und Content: Jede URL führt zu einzigartigem Content, und jeder Teil des Contents kann nur mittels einer URL erreicht werden. Je näher ihr diesem Ideal kommen könnt, desto besser ist eure Site für das Crawling und die Indexierung geeignet. Falls euer CMS oder das aktuelle Setup eurer Site dies erschweren, könnt ihr das
rel=canonical Element
verwenden um die bevorzugte URL für einen bestimmten Content zu definieren.
Falls ihr weitere Fragen zur Optimierung eurer Site hinsichtlich Crawling und Indexierung habt, könnt ihr einige
unserer älteren Artikel
(Englisch) dazu lesen oder auch in unserem
Forum für Webmaster
vorbeischauen.
Optimize your crawling & indexing (English version)
Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Sven, Search Quality)
Testet unsere neue Infrastruktur
Mittwoch, 12. August 2009
Um eine ausgezeichnete Suchmaschine zu entwickeln, muß man:
Einen Großteil des Webs crawlen.
Die dabei gefundenen Seiten indexieren und berechnen, wie bedeutsam sie sind.
Ein Ranking erstellen und so schnell wie möglich die relevantesten Seiten einer Anfrage anzeigen.
Über die letzten Monate hinweg hat ein großes Team von Googlern an einem geheimen Projekt gearbeitet: Einer neuen Generation der Architektur für unsere Websuche. Es ist der erste Schritt eines Prozesses, der es uns ermöglichen wird, bisherige Grenzen zu überwinden - in Bezug auf Indexierungsgeschwindigkeit, Genauigkeit, Vollständigkeit und weitere Punkte. Die neue Infrastruktur arbeitet "im Verborgenen" hinter unserer Suchmaschine, so dass die meisten User keine Unterschiede in den Suchergebnissen bemerken werden. Web-Developer oder Power-User hingegen werden vielleicht ein paar Veränderungen bemerken - deshalb bieten wir eine Vorschau für Web-Developer, damit ihr schon Feedback geben könnt.
Einige Teile dieses Systems sind noch nicht ganz fertig, wir freuen uns daher über jegliches Feedback zu Problemen aller Art. Wir möchten euch dazu einladen, unsere Vorschau der neuen Infrastruktur unter
http://www2.sandbox.google.com/
zu besuchen und einfach mal einige Suchen auszuprobieren.
Im Moment sind wir vor allem an Feedback zu den Unterschieden zwischen unseren aktuellen Suchergebnissen und den neuen interessiert. Außerdem interessiert uns noch allgemeineres Feedback dazu ("Diese Arten von Sites scheinen im neuen System jetzt besser oder schlechter zu ranken"), zusätzlich zu Punkten wie "Diese spezifische Site sollte oder sollte nicht für diese Anfrage ranken". Unsere Software-Ingenieure werden das Feedback lesen - wir werden aber nicht die Ressourcen haben, individuelle Antworten zu schicken.
Und so könnt ihr uns Feedback geben: Wenn ihr auf
http://www2.sandbox.google.com/
eine Suche macht, erscheint am Ende der Seite mit dem Suchergebnissen der Text: "Unzufrieden? Helfen Sie uns bei der Verbesserung". Klickt einfach auf den Link und hinterlasst euer Feedback. Im Text sollte irgendwo das Stichwort "
caffeine
" auftauchen, damit wir das Feedback richtig zuordnen können. Und falls ihr Sprach- oder Länderspezifisches Feedback zu unseren neuen Suchergebnissen habt, freuen wir uns natürlich auch darüber! Es erfordert allerdings ein klein wenig mehr Aufwand von eurer Seite aus, um sprachzpezifische Ergebnisse von unserer
Sandbox-URL
zu bekommen, da ihr manuell ein paar Anfrage-Parameter anpassen müsst.
Diese Werte könnt ihr anpassen:
hl = Sprache
gl = Landeskennung
Beispiele:
Deutsche Sprache in Deutschland: &hl=de&gl=de
http://www2.sandbox.google.com/search?hl=de&gl=de&q=alle+meine+entchen
Deutsche Sprache in Österreich: &hl=de&gl=at
http://www2.sandbox.google.com/search?hl=de&gl=at&q=alle+meine+entchen
Nur deutsche Sprache (ohne Länderkennung): &hl=de
http://www2.sandbox.google.com/search?hl=de&q=alle+meine+entchen
Und denkt daran, das Stichwort "caffeine" im Kommentar-Feld zu erwähnen :)
Vielen Dank dafür im Voraus!
Help test some next-generation infrastructure (English version)
Post von Sitaram Iyer, Staff Software Engineer, und Matt Cutts, Principal Engineer (Übersetzung von Sven, Search Quality)
Webmaster-Videos mit Matt Cutts - jetzt auf deutsch
Montag, 10. August 2009
Seit einiger Zeit schon veröffentlicht Matt Cutts (Software Ingenieur im Search Quality Team) auf dem englischen
Google Webmaster-Channel auf Youtube
kurze Videos, in denen er Fragen von Webmastern und Usern beantwortet.
Diese Videos wollen wir euch mit deutschen Untertiteln und einem übersetzten Transkript nun regelmäßig hier auf dem Blog zur Verfügung stellen!
Beginnen wollen wir diese Woche mit der Frage: "Kann übermäßige Optimierung einer Website schaden?"
Transkript:
Robert aus Charlotte (USA) hat eine interessante Frage: Kann übermäßige Optimierung einer Website schaden? Zum Beispiel bei exzessiver Verwendung von nofollow.
Eine sehr gute Frage. Also zu erst: Wenn es eure Website ist, dann könnt ihr nofollow verwenden, so viel ihr wollt. Ihr braucht euch keine Sorgen über eine mögliche "Abstrafung" für die übermäßige Verwendung von nofollow machen. Ihr werdet deswegen keinerlei Probleme bekommen.
Andererseits geht es um Überoptimierung. Es gibt bei Google nichts, was man als Penalty für Überoptimierung bezeichnen könnte, aber häufig ist Überoptimierung eine beschönigende Beschreibung für etwas, dass ein bisschen in Richtung Spam geht. "Oh, meine Keyword-Dichte ist ein wenig hoch" - "ich habe in Bezug auf Keyword-Dichte überoptimiert" bedeutet oft: Ok, hmm, ich wiederhole meine Keywords so oft, dass sich gewöhnliche User genervt fühlen und Wettbewerber sich fragen, woher all dieser Content stammt.
Es gibt aber nichts, wo wir klar sagen: Ok, das sieht eindeutig wie eine SEO-optimierte Site aus. Wenn ihr aber häufig überoptimiert habt, kann es sein, dass ihr schließlich eine Site habt, die die User nicht unbedingt mögen oder eine, die billig, schäbig oder einfach irgendwie schlecht wirkt.
Es ist also nicht so, dass wir sagen: Oh, da gibt es Zeichen von SEO-Aktivität auf der Site. Dennoch könnt ihr es in diesem Aspekt übertreiben und z. B. viel zu viele Keywords haben, riesige Keyword-Ansammlungen bilden oder Text verstecken - all diese Dinge.
Falls ihr euch also über so etwas Sorgen macht, könnt ihr einfach einen Gang zurückschalten und es etwas langsamer angehen - versucht einfach, eure Site für eure User besser zu machen anstatt euch Sorgen darüber zu machen: Oh, ich habe zu viele nofollow-Tags oder ähnliches - sowas hat keinerlei Penalty zur Folge.
Post von Sven Naumann, Search Quality Team
SMX Advanced: Q&A für Fortgeschrittene
Freitag, 7. August 2009
Letzten Monat fand wieder die
SMX Advanced
in Seattle statt - und sie war wirklich "advanced". Zur Beantwortung einer Reihe von Fragen vom Q&A-Panel musste ich erst ein wenig Recherche anstellen. Hier sind nun aber wie versprochen die Antworten:
Q.
Wir haben gehört, dass sich Google inzwischen
leichter damit tut
, Flash zu indexieren. Falls ich eine Flash-Datei habe, die Content aus einer externen Datei bezieht und die externe Datei durch
robots.txt
geblockt wird, wird dann der Flash-Inhalt (der nicht durch robots.txt geblockt wird) indexiert? Oder ist es Google unmöglich diesen Inhalt zu indexieren?
A.
Wir haben keine Möglichkeit, Zugang zum Content zu erhalten, wenn er in einer Datei ist, die durch robots.txt geblockt wird. Selbst wenn der Inhalt für Menschen sichtbar wäre (via Flash), können die Crawler von Suchmaschinen nicht auf ihn zugreifen. Für detailliertere Auskunft werft einen Blick auf unseren Blogpost zur "
Indexierung von Flash-Content mit externen Ressourcen
"!
Q.
Websites, die Content an Userverhalten oder Clickstream anpassen, werden immer populärer. Falls ein User über Suchergebnisse auf meine Site kommt, kann ich den Inhalt der Webseite anpassen oder den User weiterleiten - abhängig vom Suchbegriff? Oder wird dies als
Cloaking
betrachtet? Wenn jemand beispielsweise nach [alte Schmuckanhänger] sucht, aber auf meine allgemeinere Seite zu altem Schmuck kommt, kann ich ihn dann zu meiner Seite für alte Schmuckanhänger weiterleiten, weil ich ja weiß, was er sucht?
A.
Falls ihr Redirects verwendet oder dem User anderen Content für eine URL zeigt als dem Googlebot (zum Beispiel über den google.com-Referrer oder den Suchstring), verstehen wir das als Cloaking. Wenn ein suchender User sich entschließt, auf den Link zu 'alter Schmuck' zu klicken, solltet ihr ihm die Seite zeigen, die er angeklickt hat, selbst wenn ihr denkt, dass eine andere Seite besser wäre. Ihr könnt immer zwischen den verwandten Seiten eurer Website verlinken. (Verlinkt zum Beispiel von eurer 'alter Schmuck'- zu eurer 'alte Schmuckanhänger'-Seite und umgekehrt. Auf diese Weise kann jeder, der auf einer der beiden Seiten landet, zur anderen navigieren.) Wir glauben nicht, dass ihr diese Entscheidung für die User treffen solltet.
Q.
Obwohl Website-Testing (wie A/B- oder Multivarianten-Tests) unterschiedlichen Usern unterschiedlichen Content zeigt, betrachtet Google dies als legitime Praktik, die nicht gegen die
Richtlinien für Webmaster
verstößt. Einer der Gründe dafür ist, dass Suchmaschinen zwar die originale Fassung der Seite zu sehen bekommen und nicht die Variationen, es aber trotzdem eine gewisse Prozentzahl User gibt, die denselben Content geliefert bekommen. Diese Technik ziehlt also nicht speziell auf Suchmaschinen ab.
Einige Testing-Services empfehlen aber den gesamten Traffic einer Website für eine Weile durch die erfolgreichste Kombination laufen zu lassen, nachdem das Experiment abgeschlossen wurde - um sicherzustellen, dass die Conversion-Rate hoch bleibt. Wie passt das mit Googles Standpunkt zu Cloaking zusammen?
A.
Den gesamten Traffic für eine kurze Zeit durch eine Variation laufen zu lassen ist in Ordnung. Wie aber unser
Artikel zu diesem Thema
besagt: "Wir entfernen unter Umständen eine Website von unserem Index, falls auf der Website z. B. eine einzelne nicht ursprüngliche Kombination über mehrere Monate hinweg ausschließlich angezeigt wird." Falls ihr die Resultate eures Experiments bestätigen wollt, euch aber Sorgen macht, "wie lange zu lange ist", führt doch ein weiteres Experiment durch, in welchem ihr den Großteil eures Traffics durch die erfolgreiche Variation laufen lässt, während eine kleine Anzahl der User noch die ursprüngliche Seite sieht.
Genau das empfiehlt Google
mit dem Website-Optimierungstool, unserem eigenen Testing-Tool.
Q.
Wenn das Schriftzeichen-Encoding im HTTP-Header einer Seite anders ist als jene im Tag <meta http-equiv="Content-Type">, was verwendet Google?
A.
Wir schauen uns beide an, berücksichtigen aber unter Umständen auch den Content der Seite als zusätzlichen Faktor. Die meisten gängigen Browser geben dem Encoding im HTTP-Header den Vorzug gegenüber jenem im HTML-Code, wenn beide gültig aber unterschiedlich sind. Wenn euch bewusst ist, dass sie sich unterscheiden, ist es aber am sinnvollsten, einen der beiden zu ändern!
Q.
Wie geht Google in internationalen UTF-8-verschlüsselten Drei-Byte-Schriftzeichen (wie beispielsweise chinesischen und japanischen Schriftzeichen) in einer URL um? Solche URLs funktionieren nicht in allen Anwendungen. Ist Google in der Lage sie korrekt zu verarbeiten? Versteht Google Keywords, die so codiert sind? Wird also erkannt, dass www.example.com/%E9%9D%B4 genauso relevant wie www.example.com/shoes ist?
A.
Wir sind in der Lage mittels %-Zeichen maskierte UTF8-Schriftzeichen im URL-Pfad und in Suchparametern korrekt zu interpretieren, und wir verstehen Keywords, die auf diese Art und Weise codiert sind. Für internationale Schriftzeichen in Domainnamen empfehlen wir die Verwendung von
Punycode
statt %-Encoding, weil einige ältere Browser (wie IE6) Nicht-ASCII-Domain-Namen nicht unterstützen.
Habt ihr selbst Fragen? Schaut doch in unser
Webmaster-Dikussionsforum
.
Advanced Q&A from (the appropriately-named) SMX Advanced (English version)
Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Jörg, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster