Anfang Juni nahm ich an der Duplicate Content-Session auf der SMX Advanced in Seattle teil. Ich konnte der Versuchung nicht widerstehen zu demonstrieren, wie sich Buffy in der alltäglichen Search Marketing Welt wiederfindet. Aber hauptsächlich war ich dort, um von euren Duplicate Content-Problemen zu erfahren und Ideen zu sammeln, wie Suchmaschinen dabei helfen können.
Vor einigen Monaten verfasste Adam einen großartigen Beitrag zum Umgang mit Duplicate Content. Dies sind die wichtigsten Dinge, die man über Duplicate Content wissen sollte:
Auf der SMX Advanced-Konferenz fragten wir, welche Duplicate Content-Probleme für euch am gravierendsten sind. Das Publikum war am meisten besorgt über Scraper-Sites, die Mehrfachverwendung von Content mittels Feeds (d.h. syndication) und über interne Duplizierung. Wir haben dazu eine Menge potenzieller Lösungen diskutiert und werden diese – wie auch andere – bei der Weiterentwicklung unseres Toolsets berücksichtigen. Für diejenigen, die nicht an der Diskussionsrunde teilnehmen konnten, ist hier die Liste mit den möglichen Lösungen, die wir besprochen haben:
Festlegung der bevorzugten Version einer URL in der Sitemap-Datei
Eine Möglichkeit, die wir diskutierten, ist die Festlegung der bevorzugten Version einer URL in einer Sitemap-Datei. Wenn wir eine Vielzahl an URLs finden, die zu ein und demselben Content zeigen, könnten wir die Links zu der bevorzugten Seite bündeln und nur diese indexieren, so der Vorschlag.
Angebot einer Methode zur Kennzeichnung von Parametern, die bei der Indexierung wegfallen sollen
Wir diskutierten darüber, dies entweder in einem Interface wie den Webmaster-Tools oder aber über die robots.txt-Datei einer Website anzubieten. Falls eine URL zum Beispiel Session-IDs enthält, könnte der Webmaster die Variable der Session-ID als solche kennzeichnen. Dies würde Suchmaschinen helfen, eine sauberere Version der URL zu indexieren und die Links zusammenzufassen. Das Publikum tendierte zu einer Erweiterung der robots.txt-Datei für diese Zwecke.
Angebot einer Authentifizierungsmethode für Content-Eigentum
Dies würde Suchmaschinen mit zusätzlichen Informationen versorgen um sicherzustellen, dass wir die Originalversion eines Artikels indexieren statt eine gescrapte oder eine über Feeds verbreitete Version. Bitte beachtet, dass wir hier bereits einen ziemlich guten Job machen und nicht viele Teilnehmer im Publikum dies als ein Hauptproblem ansahen. Das Publikum war jedoch interessiert an einer Form der Authentifizierung als zusätzlichem Schutz. Einige schlugen vor, jeweils die Seite mit dem frühesten Datum zu verwenden; aber Erstellungszeitpunkte sind nicht immer zuverlässig. Es schlug auch jemand vor, dass Website-Inhaber ihren Content registrieren lassen können. Dies könnte aber auch Probleme hervorrufen, da nicht so findige Website-Inhaber vielleicht nicht wissen, wie man Content registriert. Dadurch könnte passieren, dass jemand anderes den Content stattdessen für sich registriert. Im Moment stützen wir uns auf eine Anzahl von Faktoren wie etwa die Autorität einer Website und die Anzahl an Backlinks. Für die Weiterverbreitung von Content mittels Feeds schlagen wir vor, dass ihr die Websites, die euren Content verwenden wollen, dazu anhaltet, ihre Version mittels der robots.txt-Datei zu blocken. So stellt ihr sicher, dass nur eure Version in den Suchergebnissen erscheint.
Bereitstellung eines Duplicate Content-Berichts für Website-Inhaber
Es gab großen Zuspruch für die Idee eines Duplicate Content-Berichts, in welchem aufgelistet würde, welche Seiten innerhalb eurer Website von Suchmaschinen als Duplikate angesehen werden, wie auch, welche Seiten auf anderen Websites Duplikate eures Contents sind. Außerdem diskutierten wir die Möglichkeit einer Alarmfunktion in diesem Bericht, so dass Website-Inhaber via Email oder RSS über neue Duplicate Content-Probleme benachrichtigt werden könnten (vor allem bei externer Duplizierung).
Zusammenarbeit mit Blogging-Software und Content Management Systemen an Duplicate Content-Fragen
Einige Probleme um Duplicate Content begründen sich darauf, wie eine Software eine Website erstellt und die URLs strukturiert. Zum Beispiel könnte ein Blog denselben Content auf der Homepage, einer Permalink-Seite, einer Kategorieseite und einer Archivseite haben. Wir sind auf jeden Fall bereit, mit Software-Herstellern über Wege zu sprechen, wie man den Usern einfache Lösungen bereitstellen kann.
Neben der Diskussion potenzieller Lösungen für Duplicate Content-Probleme hatte das Publikum auch einige Fragen.
Q: Wie reagieren Suchmaschinen darauf, wenn ich eine ganze Reihe von internen Links mit dem NoFollow-Attribut versehe, um Probleme mit Duplicate Content zu reduzieren?
Die Anzahl an Nofollow-Links auf einer Website wird nicht als negatives Signal bewertet. Es ist jedoch möglicherweise nicht die beste Methode, Suchmaschinen vom Crawlen duplizierter Seiten abzuhalten, weil ja auch andere Websites zu dieser Seite linken könnten. Eine bessere Methode wäre es, Seiten, die nicht gecrawlt werden sollen, mittels der robots.txt-Datei zu blocken.
Q: Werden Suchmaschinen weiterhin mit Sitemaps zusammen arbeiten?
Wir haben sitemaps.org im November letzten Jahres gelauncht und uns seitdem weiterhin regelmäßig getroffen. Im April fügten wir die Option hinzu, dass ihr uns in der robots.txt-Datei über eure Sitemap informieren könnt. Wir wollen weiterhin zusammen an solchen Initiativen arbeiten, um euch das Leben als Webmaster einfacher zu machen.
Q: Viele Seiten auf meiner Website bestehen hauptsächlich aus Schaubildern, die auf jeder Seite unterschiedlich sind. Wie kann ich sicherstellen, dass Suchmaschinen diese Seiten nicht für Duplikate halten, weil sie die Bilder nicht interpretieren können?
Um sicherzustellen, dass Suchmaschinen diese Seiten als Unikate erkennen, solltet ihr auf jeder Seite unterschiedlichen Text einfügen (zum Beispiel unterschiedliche Titel, Bildunterschriften oder Beschreibungen für jedes Schaubild) sowie Alt-Texte für jedes Bild. (Zum Beispiel alt=“Bild, das Willows Entwicklung zum Bösen zeigt” statt einfach alt=“Bild”)
Q: Ich habe meinen Content an viele Affiliates weitergegeben, und nun ranken einige dieser Sites besser als meine Website. Was kann ich tun?
Wenn eurer Content verteilt ist, mag es notwendig sein, den Content auf eurer Seite aufzuwerten und zu erweitern, um eure Website einzigartig zu machen.
Q: Bei der Websuche möchte ich Duplikate in den Suchergebnissen sehen. Könnt ihr das als eine Option anbieten?
Wir wissen, dass die meisten User es vorziehen, keine Duplikate in den Suchergebnissen zu sehen. Die Fragestellerin meinte im Besonderen, dass sie eine Information möglicherweise nicht von einer bestimmten Website bekommen möchte und daher gern andere Optionen hätte. In diesem Fall haben andere Websites jedoch wahrscheinlich nicht identischen Content und würden daher in den Suchergebnissen erscheinen. Denkt daran, dass ihr den “&filter=0”-Parameter hinter der Google Web Search-URL angeben könnt, um weitere ähnliche Resultate zu erhalten.
Ich habe alle diese Fragen und mögliche Lösungen zurück in mein Team und zu anderen Googlern gebracht. Wir werden weiterhin daran arbeiten, die besten Suchergebnisse zu liefern und die Zusammenarbeit mit euch, den Webmastern, auszuweiten. Wenn ihr weitere Gedanken hierzu habt, wir würden sie liebend gern hören!
Original
Links sind ein wichtiger Faktor in unserer PageRank-Berechnung, da sie angeben, wie nützlich jemand eine Seite findet. Gekaufte Links sind zwar wunderbar für Werbung und Traffic, jedoch weniger hilfreich für die Berechnung des PageRank. Das Kaufen und Verkaufen von Links mit dem Ziel, die Suchergebnisse zu manipulieren und Suchmaschinen in die Irre zu führen, verstößt gegen unsere Richtlinien.
Falls ihr Links zu Werbezwecken verkauft, dann gibt es viele Möglichkeiten, dies zu kennzeichnen, wie zum Beispiel:
Post von Vanessa Fox (Übersetzung von Claudia, Search Quality)
Wir möchten euch aufregende Neuerungen bei unseren Suchergebnissen vorstellen. Mit der universellen Suche (universal search) haben wir damit begonnen, weitere Suchergebnisse zu integrieren, um die besten und nützlichsten Suchergebnisse darzustellen. Zusätzlich zu Webseiten können die Suchergebnisse nun z.B. Videos, Nachrichten, Bilder, Landkarten oder Bücher enthalten. Im Laufe der Zeit werden wir die Verschmelzung unterschiedlicher Informationsquellen in den Suchergebnissen fortsetzen, so dass genau die gewünschten Informationen direkt von der Ergebnisseite aus erreichbar sind.
Dies sind ausgezeichnete Neuigkeiten für die Nutzer der Google-Suche, aber was bedeutet das für euch, die Webmaster? Ebenfalls gute Nachrichten! Viele Nutzer der Google-Suche führen ausschließlich eine reine Suche nach Webseiten durch, weil sie unsere weiteren Such-Werkzeuge z.B. für Bilder, Nachrichten, Videos, Landkarten oder Bücher noch nicht kennen. Da mit der universellen Suche nun mehr Ergebnisse aus diesen Bereichen bei einer Suche nach Webseiten erscheinen, kann dies bedeuten, dass mehr Besucher eure Seite finden, falls ihr Inhalte aus diesen Bereichen bereitstellt.
Ihr wollt alle Vorteile der universellen Suche nuzten? Hier sind einige Tipps:
Ergebnisse von Google News
Wenn eure Webseite Nachrichten enthält, könnt ihr die Seite in Google News aufnehmen lassen. Sobald eure Seite aufgenommen wurde, könnt ihr uns über die neuesten Artikel auf eurer Seite mittels einer „News Sitemap“ informieren. (Hinweis: News Sitemaps werden aktuell nur für englischsprachige Webseiten unterstützt.)
Ergebnisse aus archivierten Nachrichten
Wenn ihr ältere Nachrichten in Form eines Archivs anbietet (kostenlos oder gegen Gebühr), könnt ihr diese für die Aufnahme in die Suche in Nachrichten-Archiven bereitstellen.
Ergebnisse der Bildersuche
Wenn eure Seite Bilder enthält, könnt ihr euch in den Webmaster-Tools für die erweiterte Bildersuche anmelden, was es uns ermöglicht, zusätzliche Informationen über eure Bilder zu erhalten, indem ihr unser „Image Labeler“-Tool verwendet. Dies ermöglicht es, eure Bilder bei passenden Suchanfragen anzuzeigen. Ihr solltet sicherstellen, dass ihr alle Vorteile der Bilder auf eurer Seite nutzt.
Suchergebnisse mit lokalem Bezug
Wenn eure Seite einen bestimmten geografischen Bezug hat, könnt ihr uns dies mittels des lokalen Branchencenters mitteilen. Dadurch ermöglicht ihr es, die besten Suchergebnisse mit Bezug zu bestimmten geografischen Regionen zu liefern, die in der Web-Suche und in Google-Maps erscheinen.
Ergebnisse der Videosuche
Falls ihr Video-Inhalte zeigen möchtet, könnt ihr diese auf Google Video, Youtube und einer Vielzahl weiterer Anbieter hosten. Wenn eines eurer Videos ein sinnvolles Ergebnis auf eine Suchanfrage ist, können die Nutzer der Google-Suche das Video direkt von der Ergebnisseite aus aufrufen (falls das Video auf Google Video oder Youtube liegt) oder sie können ein Vorschaubild sehen und dann zur Seite des jeweiligen Videohosting-Anbieters wechseln. Ihr könnt eure Videos ganz einfach bei Google Video oder Youtube hochladen.
Unser Ziel mit der universellen Suche ist es, die besten und nützlichsten Suchergebnisse zu liefern. Deshalb lautet unser Ratschlag an alle, die über die Web-Suche gefunden werden möchten: Erstellt nützlichen und einzigartigen Content, denn das ist es, wonach gesucht wird.
Post von Vanessa Fox (Übersetzung von Sven, Search Quality)
Seit Juni 2005 gibt es die deutsche Sitemaps User to User (u2u) Group, das Google Diskussionsforum Webmaster. Über 1400 Webmaster haben sich schon registriert und tauschen sich über Webmaster-Themen wie Crawling, Indexierung und Ranking von Sites aus. Die u2u Gruppe ist so gut bei euch angekommen, dass wir sie nun weiterentwickeln wollen. Da sich der Fokus nicht mehr nur auf Sitemaps beschränkt, könnt ihr sie nun unter der neuen url http://groups.google.com/group/Google_Webmaster_Help-de finden. Falls ihr die alte url gebookmarked habt, werdet ihr automatisch auf die neue url weitergeleitet.Ähnlich wie bei der englischen Webmaster Gruppe könnt ihr eure Posts jetzt in bestimmten Kategorien veröffentlichen:
Außerdem werden wir die alte Sitemaps Gruppe zu den o.g. Untergruppen als eine weitere Untergruppe hinzufügen. In 2 Wochen werden wir die vorherige Sitemaps Gruppe archivieren, wodurch diese Gruppe nur noch als read-only verfügbar sein wird. Ihr habt also noch 2 Wochen Zeit, um in einem der alten threads zu posten! Für neue threads könnt ihr ab sofort die entsprechenden Untergruppen benutzen.Was ändert sich noch mit dem Relaunch?Neben dem neuen Look-and-Feel und den thematischen Kategorien für eure Posts werden wir unsere Präsenz in der u2u Gruppe erhöhen und uns in manche Diskussionen einschalten. Das heißt wir werden nur auf einige Posts bzw. Threads antworten, denn die Grundidee einer u2u Gruppe ist ja schließlich, euch eine Plattform zu geben, in der ihr euch untereinander austauschen und bei euren Fragen unterstützen könnt. Aber wir werden alle eure Posts lesen! Denn ihr könnt uns dabei helfen, die Webmaster Tools auf eure Bedürfnisse hin zu optimieren und das Crawling und die Indexierung weiter zu verbessern. Also haltet die Augen offen für Posts von Google Mitarbeitern (erkennbar an dem blauen Google-Zeichen)!Wir hoffen, dass ihr viel von euren Webmaster Kollegen lernen könnt (und natürlich auch von unseren Posts :-). Wir freuen uns auf euer Feedback zu allen Themen, die euch unter den Nägeln brennen!Viel Spass beim Posten!
Eine der Fragen, die wir regelmäßig gestellt bekommen, lautet: Sollten wir als Webmaster, SEOs, SEMs oder User Bedenken gegenüber der personalisierten Suche haben?
Unsere Antwort: Ein definitives NEIN! Die personalisierte Suche analysiert das Suchverhalten eines Users und stimmt mit der Zeit die Suchergebnisse auf dessen Interessen ab. Für den User bedeutet das Folgendes: Wenn er/sie beispielsweise ein Insektenkundler unter Sportfans ist und gerade nach dem Begriff „Kricket“ sucht, dann wird er/sie immer die Suchergebnisse bekommen, die jeweils am relevantesten sind.
Aus Sicht des Webmasters ermöglicht dies, dass Themennischen, in denen identische Suchbegriffe vorkommen, nun anhand des Userprofils differenziert werden können. Und das stellt wirklich eine große Möglichkeit für Präsenz dar. Wenn man sich die Zusammenhänge betrachtet, dann stellt man fest, dass sich Suchmaschinen schon seit Jahren in Richtung einer gewissen Personalisierung bewegen. Die Tatsache, dass Suchmaschinen landes- und sprachbezogene Suchergebnisse liefern, stellt bereits eine Art von Personalisierung dar. Der nächste logische Schritt ist in diesem Fall die Verfeinerung einer solchen Personalisierung. Kleinere Marktnischen haben somit die Chance, in der Trefferliste besser in Erscheinung zu treten, um von Usern besser gefunden zu werden.
Eine weitere Frage, die häufig gestellt wird, ist die Folgende: Wie stelle ich bei einer Migration meiner Website von Domain X auf Domain Y sicher, dass meine schwerverdiente Reputation nicht verloren geht?
Hier eine Reihe von wichtigen Ansatzpunkten:
Gekürzte Version des ursprünglichen Posts von Aaron D'Souza (Übersetzung von Caroline, Search Quality)