In den vergangenen Monaten hat es einen deutlichen Anstieg an kompromittierten Websites gegeben. Wir erklären es uns damit, dass nun verstärkt Websites gehackt werden, um Malware in Umlauf zu bringen oder Suchergebnisse zu spammen. Wie dem auch sei, jetzt ist jedenfalls ein guter Zeitpunkt für uns, um ein paar hilfreiche Sicherheitstipps für Webmaster anzusprechen.
Obligatorischer Disclaimer: Auch wenn wir hier viele Tipps und Links zusammengestellt haben und wir Webmaster ermuntern wollen, diese "bitte zu Hause nachzumachen", so stellt diese Liste in keiner Hinsicht eine erschöpfende Aufzählung dar. Wir hoffen, dass sie nützlich ist, aber wir empfehlen auch, weitergehende Nachforschungen anzustellen.
Wir hoffen, dass ihr diese Tipps hilfreich findet. Wenn jemand von euch selbst ein paar gute Tipps hat, nutzt doch die Kommentarfunktion unten oder beginnt eine Diskussion im Google Diskussionsforum für Webmaster.Gebt Hackern keine Chance!
Original
Post von Nathan Johns (Übersetzung von Manuel, Search Quality)
Weshalb ist dies von Bedeutung?
Wenn Suchmaschinen identischen Content über verschiedene URLs crawlen, kann dies verschiedene Konsequenzen haben:
Zahlreiche URLs für ein- und dieselbe Seite können die Link-Popularität verschlechtern. Im obigen Beispiel könnten sich z. B. 50 Links auf 3 verschiedene URLs verteilen, anstatt ausschließlich auf eine einzige URL gerichtet zu sein.
In Suchergebnissen können unter Umständen wenig benutzerfreundliche URLs angezeigt werden (sehr lange URLs mit Tracking- oder Session-IDs): - Die Wahrscheinlichkeit, dass User auf ein derartiges Suchergebnis klicken, ist geringer - Die Markenbildung kann dadurch erschwert werden
Wie wir Usern und Webmastern bei Duplicate Content helfen
Wir haben Algorithmen entworfen, die dazu beitragen, dass Duplicate Content keine Beeinträchtigung für User und Webmaster darstellt.Wenn wir feststellen, dass Duplicate Content vorliegt, der beispielsweise durch Variationen von URL-Parametern hervorgerufen wird, dann fassen wir diese duplizierten URLs zu einer Gruppe zusammen.
Wir wählen dann jene URL aus, die als am besten geeignet erscheint, die jeweilige Gruppe in den Suchergebnissen zu vertreten.
Schließlich werden bestimmte Eigenschaften der URLs aus der Gruppe, wie z. B. die Link-Popularität, vereinigt und auf die im vorigen Schritt ermittelte URL übertragen.
Wie könnt ihr in solchen Fällen von Duplicate Content dazu beitragen, dass Suchmaschinen eure Site richtig interpretieren?
Zunächst gibt es keinen Grund zur Sorge, da die Verwendung von URL-Parametern eine gängige und sinnvolle Praxis ist.
Jedoch gibt es folgende Punkte, die dabei helfen, mögliche Probleme für Suchmaschinen zu minimieren:
Entfernt alle unnötigen URL-Parameter – haltet die URL so einfach wie möglich.
Übermittelt eine Sitemap mit der von euch gewünschten Version jeder URL. Wir können zwar nicht garantieren, dass unsere Algorithmen immer exakt die URL aus der Sitemap in den Suchergebnissen anzeigen, jedoch ist die Sitemap ein guter Hinweis darauf, welche URL von euch bevorzugt wird.
Wie könnt ihr eure Website gestalten, um Duplicate Content zu vermeiden?
Aufgrund der Art und Weise, mit der Google mit Duplicate Content umgeht, müsst ihr euch keine besonderen Sorgen um einen Verlust der Link-Popularität oder des PageRanks machen. Dennoch schlagen wir folgende Schritte vor, um Duplicate Content im Allgemeinen zu reduzieren:
Beim Tracking von Nutzer-Informationen solltet ihr 301-Weiterleitungen verwenden, um von URLs mit Parametern auf die gewünschte Ziel-URL weiterzuleiten.
Nutzt Cookies, um Werte für Affiliate-IDs oder Tracking-IDs zu setzen.
Wenn ihr diese Methode anwendet, könnte ein Auszug aus dem Logfile des Webservers folgendermaßen aussehen:
127.0.0.1 - - [19/Jun/2007:14:40:45 -0700] "GET /product.php?category=gummy-candy&item=swedish-fish&affiliateid=ABCD HTTP/1.1" 301 -127.0.0.1 - - [19/Jun/2007:14:40:45 -0700] "GET /product.php?item=swedish-fish HTTP/1.1" 200 74
Und das Session-Cookie mit der Nutzer- bzw. Affiliate-ID könnte so aussehen:
category|s:11:"gummy-candy";affiliateid|s:4:"ABCD";
Falls ihr Cookies verwendet, solltet ihr stets darauf achten, dass der eigentliche Content (z.B. die Produkt-Seiten) problemlos angezeigt wird, auch wenn im Browser die Cookies deaktiviert sind.Wie können wir euch zukünftig noch besser unterstützen?
Vor kurzem haben wir einige Ideen von der „SMX Advanced“-Konferenz veröffentlicht, wo wir das Thema behandeln, wie Suchmaschinen den Webmastern in Bezug auf Duplicate Content helfen können. Falls ihr bei diesem Thema mitreden möchtet, könnt ihr das gerne in unserem Diskussionsforum tun.
Post von Maile Ohye (Übersetzung von Sven, Search Quality)
Es freut mich, euch mitteilen zu können, dass die Webmaster-Tools nun eine verbesserte Funktionalität für Webmaster aus nicht-englischsprachigen Ländern bieten, da jetzt der sogenannte IDNA-Standard (Internationalizing Domain Names in Applications) unterstützt wird. Dies wird im deutschsprachigen Raum häufig als "Umlautdomain" bezeichnet. IDNA ermöglicht Seitenbetreibern die Verwendung von Domains, die Buchstaben und Zeichen enthalten, welche nicht im Englischen vorhanden sind. Vor der Einführung von IDNA konnten Internet-Host-Namen ausschließlich aus den 26 Buchstaben des englischen Alphabets, den Ziffern 0-9 und einem Bindestrich bestehen. Mit Hilfe von IDNA seid ihr nun in der Lage, auch Sites anzumelden, die andere Zeichensätze verwenden. Diese könnt ihr in den Webmaster-Tools wie gewohnt verwalten.
Je weniger Einschränkungen es für Seiten im Supplemental Index gibt, desto höher ist die Chance, dass Webseiten, die nicht im Hauptindex enthalten sind, im Supplemental Index erfasst werden. Dies sind oft Seiten mit einem niedrigeren PageRank oder einer komplizierteren URL. So gesehen dient der Supplemental Index einem wichtigen Zweck: nämlich so viel relevanten Content wie möglich zu crawlen. Mehr darüber könnt ihr hier lesen und hier einen Vortrag von Matt Cutts sehen.
Jegliche Veränderungen, die wir durchführen, müssen auf eine verbesserte Sucherfahrung abzielen. Seit 2006 haben wir unser System, welches die Supplemental Results crawlt und indexiert, vollständig überholt. Das momentane System gewährleistet eine umfassendere und kontinuierlichere Indexierung. Zudem indexieren wir URLs mit mehreren Parametern und legen weniger Beschränkungen an Sites an, die wir crawlen. Als Resultat ist unser Supplemental Index nun aktueller und transparenter als jemals zuvor. Ebenso arbeiten wir darauf hin zunehmend mehr Supplemental Results anzuzeigen, indem wir sicherstellen, dass jede Anfrage im Supplemental Index durchgeführt werden kann. Wir haben vor, diese Neuerungen im Laufe des Sommers zu implementieren.
Der Unterschied zwischen dem Hauptindex und dem Supplemental Index wird daher zunehmend geringer. In Anbetracht der bisherigen Fortschritte und im Hinblick auf zukünftige Verbesserungen haben wir uns entschieden, diese URLs zukünftig nicht mehr als „Supplemental Results“ zu kennzeichnen. Trotzdem werdet ihr natürlich weiterhin in den Genuss von Googles umfassenden und aktuellen Supplemental Results kommen.