Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Ein Jahr deutsches Forum für Webmaster
Dienstag, 27. Mai 2008
Vor einem Jahr haben wir das deutsche Forum für Webmaster neu eröffnet. Wir haben dem Forum eine neue Struktur gegeben und verschiedene Untergruppen eingerichtet, damit ihr euch noch besser zurechtfindet.
Das Forum ist eine Anlaufstelle für Webmaster, um Fragen zu Indexierung, Crawling, Ranking und unseren Webmaster-Tools zu diskutieren. Hier habt ihr auch die Möglichkeit, uns eure eigenen Ideen für neue Features näher zu bringen. In der Community gibt es viele erfahrene Webmaster, mit denen ihr diese Dinge besprechen könnt und die euch Hilfestellung geben. Außerdem überschauen unsere offiziellen Google Guides das Forum, sammeln euer Feedback und springen ein, falls es Missverständnisse gibt.
Wir möchten uns bei allen Mitgliedern bedanken, die immer bereit sind, anderen Webmastern im Forum beratend zur Seite zu stehen. Danke
luzie
,
das alpaka
,
beejees
,
Zombi
,
Garzosch
und
mikki
, um nur einige Namen zu nennen!
Im Folgenden haben wir Antworten zu einigen häufig im Forum gestellten Fragen gesammelt:
F: Meine Site ist seit einiger Zeit online, aber immer noch nicht indexiert. Was kann ich tun?
A:
Lasst uns wissen, dass es eure Site gibt und informiert uns über eure Site in
diesem Formular
. Außerdem könnt ihr euch bei den
Webmaster-Tools
anmelden und eure Sitemap an uns übermitteln. Denkt daran, dass es eine Weile dauern kann, bis eure Site gecrawlt wird. Normalerweise findet der Googlebot Sites, die von mehreren externen Websites aus verlinkt sind, relativ schnell. Ihr solltet weiterhin darauf achten, dass ihr den Googlebot nicht blockt, zum Beispiel mit der robots.txt-Datei. In unseren Webmaster-Tools gibt es die Möglichkeit zur Analyse eurer robots.txt, um festzustellen, ob sie so aufgesetzt ist, wir ihr es vorgesehen habt.
In unserer
Hilfe für Webmaster
findet ihr weitere gute Tipps, wie man eine
Google-freundliche Site
erstellen kann. Eventuell solltet ihr auch die Vergangenheit eurer Site checken: Hat eure Site möglicherweise schon mal gegen die
Richtlinien für Webmaster
verstoßen? Wenn dies der Fall ist, solltet ihr kontrollieren, ob sie nun den Richtlinien entspricht und eine erneute Überprüfung der Website beantragen. Wenn diese Tipps nicht helfen, könnt ihr in unserem Forum posten. Die Forumsmitglieder können euch sicherlich weitere Hinweise geben.
F: Wie sollte man eine mehrsprachige Site aufbauen?
A:
Stellt euch vor, ihr besitzt eine Website, die Platten an eine kleine, über ganz Europa zerstreute Fangemeinde verkauft. Um die Reichweite eurer Site zu vergrößern, wollt ihr vielleicht den Content eurer Site in mehreren Sprachen anbieten, zum Beispiel in Englisch und Deutsch.
Als erstes solltet ihr sicherstellen, dass bei jeder Seite die Sprache von Content und Navigation übereinstimmt.
JohnMu
hat in
diesem Thread
einige weitere interessante Hinweise gegeben. Hier sind ein paar seiner Tipps:
In unseren Webmaster-Tools kann man nicht-länderspezifische Top-Level-Domains wie z. B. .com oder .net - oder Subdomains bzw. Verzeichnisse - einem Land zuordnen und so eine
bestimmte Zielgruppe
ansprechen. Wenn ihr ein neues Projekt beginnt, könnt ihr also eine nicht-länderspezifische Top-Level-Domain wählen und für jedes Land eine eigene Subdomain oder ein eigenes Verzeichnis wählen.
Versucht, eine klare URL-Struktur einzuhalten (z.B. /de/, /en/, /it/ Ordner).
F: Ich habe den gleichen Content auf mehreren Seiten meiner Site. Bekomme ich deshalb Probleme wegen Duplicate Content?
A:
Eine Site wird nicht deshalb nicht indexiert, weil sie den gleichen Content auf mehreren Seiten enthält. Wir können Duplicate Content ziemlich gut automatisch erkennen und feststellen, welche URL die wichtigste ist.
Wenn ihr mehr Kontrolle darüber haben wollt, welche der URLs wir in unseren Suchresultaten anzeigen, haben wir zwei Vorschläge für euch:
Versucht, hauptsächlich auf die von euch präferierte URL zu verlinken.
Reicht die bevorzugte URL in eurer Sitemap ein.
Wenn ihr mehr über Duplicate Content wissen wollt:
Adam
,
Vanessa
und
Maile
haben sehr ausführliche Posts zu diesem Thema geschrieben.
Ihr seid noch nie im
Google Diskussionsforum für Webmaster
gewesen? Schaut doch mal vorbei, vielleicht wurden eure Fragen dort schon beantwortet, und wenn nicht, postet sie einfach und findet heraus, was andere Forumsmitglieder zu dem Thema zu sagen haben!
Post von Uli Lutz und Juliane Stiller, Search Quality Team
Eine Einführung in Google Search Quality
Montag, 26. Mai 2008
Search Quality ist der Name des Teams, welches für das Ranking der Google Suchergebnisse verantwortlich ist. Unsere Aufgabe ist eindeutig: Einige hundert Millionen Mal am Tag stellen User Anfragen an Google, und innerhalb eines Bruchteils einer Sekunde muss Google entscheiden, welche unter den Milliarden an Seiten im Netz angezeigt werden sollen - und in welcher Reihenfolge. In letzter Zeit haben wir auch an anderen Dingen gearbeitet, aber dazu später mehr.
Dafür, dass es so oft von so vielen Leuten benutzt wird, ist erstaunlich wenig über Googles Ranking bekannt. Die Schuld liegt hier vollkommen bei uns, und das ist auch beabsichtigt. Wir halten uns ehrlich gesagt ziemlich bedeckt im Hinblick darauf, was wir tun. Dafür gibt es zwei Gründe: die Konkurrenz und den Missbrauch. Hinsichtlich der Konkurrenz ist es ziemlich eindeutig. Keine Firma will der Konkurrenz Einsicht in ihre Geheimrezepte geben. Was Missbrauch angeht, so würden wir es für Leute einfacher machen das System zu hintergehen, falls wir die Rankingformeln zu offen legen würden. Sicherheit durch Unklarheit ist nie das stärkste Mittel, und wir verlassen uns auch nicht ausschließlich darauf, aber es verhindert einen Großteil des Missbrauchs.
Die Details des Rankingalgorithmus sind in vieler Hinsicht Googles Kronjuwelen. Wir sind sehr stolz auf sie und hüten sie wie unseren Augapfel. Grob geschätzt, sind mehr als 1000 Jahre Arbeit von Programmierern und Wissenschaftlern allein auf ihre Entwicklung verwendet worden, und die Innovationsrate hat sich nicht verlangsamt.
Jedoch ist es nicht ideal, vollkommene Unklarheit beizubehalten, und dieser Blog ist Teil eines wiederaufgenommenen Versuchs uns etwas mehr zu öffnen, als wir es in der Vergangenheit getan haben. Wir werden euch in Abständen über neue Entwicklungen berichten, alte Dinge erklären, Tipps geben, Neuigkeiten mitteilen und in Dialog treten. Lasst mich mit einigen allgemeinen Informationen über unseren Bereich beginnen. Weitere Blogposts werden folgen.
Ich möchte mich kurz vorstellen: Mein Name ist Udi Manber, und ich bin Engineering VP bei Google und verantwortlich für Search Quality. Ich bin seit mehr als zwei Jahren bei Google und bin seit fast 20 Jahren im Bereich Suchtechnologie tätig.
Das Herz unseres Bereichs ist das Team, das am Kern des Ranking arbeitet. Ranking ist eine schwierige Sache - viel schwieriger als den meisten bewusst ist. Einer der Gründe dafür ist, dass Sprachen von Natur aus nicht eindeutig sind, und Dokumente keinen festen Regeln folgen. Es gibt tatsächlich keine Standards dafür, auf welche Weise Informationen übermittelt werden, weshalb wir alle Webseiten verstehen müssen, egal von wem und für welchen Zweck sie geschrieben wurden. Und dies ist erst ein Teil des Problems. Wir müssen zudem die Anfragen der User verstehen, welche im Schnitt weniger als drei Wörter ausmachen, und wir müssen diese Anfragen nach unserem besten Verständnis mit allen Dokumenten verknüpfen. Ganz abgesehen davon haben unterschiedliche User unterschiedliche Bedürfnisse. Und all das müssen wir in ein paar Millisekunden erledigen.
Der berühmteste Teil unseres Rankingalgorithmus ist
PageRank
, ein Algorithmus, der von den Google-Gründern Larry Page und Sergey Brin entwickelt wurde. PageRank wird heute noch gebraucht, aber er ist nur Teil eines viel größeren Systems. Andere Teile beinhalten Sprachmodelle (die Fähigkeit Sätze, Synonyme, diakritische Zeichen, Schreibfehler etc. zu interpretieren), Anfragemodelle (hier geht es ist nicht nur Sprache, sondern auch um die Art, in der sie heutzutage verwendet wird), Zeitmodelle (manche Anfragen sind mitunter am besten mit einer 30 Minuten alten Seite zu beantworten und manche sind besser mit einer alten und etablierten Seite bedient) sowie personalisierte Modelle (nicht alle Leute erwarten dasselbe).
Ein anderes Team unseres Bereichs ist dafür verantwortlich, zu bewerten, wie gut wir unsere Sache machen. Dies geschieht auf viele unterschiedliche Arten, aber das Ziel ist immer dasselbe: die Sucherfahrung unserer User zu verbessern. Dies ist nicht nur das Hauptziel, es ist sogar das einzige Ziel. Es finden minütlich automatisierte Evaluierungen statt (um sicherzustellen, dass nichts schief geht), zudem periodische Evaluierungen unserer gesamten Qualität, und, was am wichtigsten ist, Evaluierungen spezifischer algorithmischer Verbesserungen. Wenn ein Programmierer neue Ideen hat und einen neuen Algorithmus entwickelt, dann testen wir diese Ideen ausführlich. Wir haben ein Team von Statistikern, die auf alle Daten schauen und den Wert der neuen Idee bestimmen. Wir treffen uns wöchentlich (mitunter zweimal pro Woche) um diese neuen Ideen zu diskutieren und neue Markteinführungen zu befürworten. Im Jahr 2007 haben wir über 450 Verbesserungen eingeführt, im Schnitt also neun pro Woche. Manche dieser Verbesserungen sind einfach und offenkundig - beispielsweise haben wir die Art und Weise korrigiert, in der im Hebräischen Akronym-Anfragen gehandhabt wurden (im Hebräischen ist ein Akronym durch ein (") vor dem letzten Buchstaben gekennzeichnet - IBM wäre also IB"M). Andere Änderungen sind wiederum sehr kompliziert - beispielsweise haben wir im Januar einschneidende Änderungen im PageRank-Algorithmus vorgenommen. Meistens sind wir mit Verbesserungen der Relevanz beschäftigt, aber wir arbeiten ebenso an Projekten, deren einziger Zweck darin besteht, den Algorithmus einfacher zu gestalten. Einfach ist gut.
Die internationale Suche ist in den letzten beiden Jahren eine unserer größten Schwerpunkte gewesen. Damit beziehen wir uns auf alle gesprochenen Sprachen, nicht nur die größten. Letztes Jahr haben wir beispielsweise mehrere Verbesserungen im Aserbaidschanischen implementiert, welches von rund acht Millionen Menschen gesprochen wird. In den letzten Monaten haben wir die Rechtschreibprüfung für Estonisch, Katalanisch, Serbisch, Serbo-Kroatisch, Ukrainisch, Bosnisch, Lettisch, Tagalog, Slovenisch und Farsi gelauncht. Wir haben ein weltweites Netzwerk an Leuten zusammengestellt, über welches wir Feedback erhalten, und wir haben eine große Gruppe an Freiwilligen aus allen Bereichen von Google, die verschiedene Sprachen sprechen und uns dabei helfen, die Suche zu verbessern.
Ein anderes Team beschäftigt sich mit neuen Features und Userinterfaces. Für ein gutes Auto ist ein guter Motor notwendig, aber nicht ausreichend. Das Auto muss bequem und einfach zu fahren sein. Das Interface der Googlesuche ist sehr einfach. Sehr wenige unserer User lesen unsere
Google-Hilfe
, und sie kommen gut ohne sie zurecht (obwohl es sich trotzdem lohnt sie zu lesen, und wir arbeiten daran, sie zu verbessern.) Wenn wir neue Features hinzufügen, dann versuchen wir sicherzustellen, dass sie intuitiv und einfach von jedem zu benutzen sind. Eine der sichtbarsten Veränderungen, die wir im vergangenen Jahr gemacht haben, war die
Universelle Suche
. Andere sind beispielsweise
Google Notizbuch
,
benutzerdefinierte Suchmaschinen
, und natürlich viele Verbesserungen in iGoogle. Das UI-Team wird von einem Team von Usability-Experten unterstützt, die Studien durchführen und helfen, neue Features zu bewerten. Sie sind durch die ganze Welt gereist, und haben sogar User zu Hause besucht, um deren Gewohnheiten zu studieren. (Keine Sorge - unsere Mitarbeiter tauchen nicht unangemeldet und uneingeladen auf!)
Es gibt ein ganzes Team, das sich auf die Bekämpfung von
Webspam und andere Arten von Missbrauch
konzentriert. Dieses Team arbeitet an vielen Bereichen, von verborgenem Text über irrelevante Seiten, die mit unverständlichen Keywords vollgestopft sind, sowie viele andere Methoden, die anwendet werden, um höher in unseren Suchergebnissen zu ranken. Das Team erkennt neueste Spamtrends und arbeitet daran, diesen Trends effektiv entgegenzuwirken; wie auch alle anderen Teams, arbeitet es international. Die Webspamgruppe arbeitet eng mit dem Team der
Google Webmaster-Zentrale
zusammen, so dass sie ihre Erkenntnisse mit jedem teilen können und auch das Feedback von Webmastern in Betracht ziehen können.
Es gibt andere Teams, die sich speziellen Projekten widmen. Im Allgemeinen ist unsere Organisationsstruktur recht informell. Wir sind flexibel, und ständig entstehen neue Projekte.
Einer der Schlüsselaspekte der Suche ist, dass die Erwartungen der User schnell steigen. Die Anfragen von morgen werden schwieriger sein als die Anfragen von heute. Genau wie Moore's Gesetz alle 18 Monate eine Verdoppelung der Rechengeschwindigkeit besagt, gibt es ein unsichtbares, ungeschriebenes Gesetz, welches besagt, dass sich die Komplexität unserer schwierigsten Anfragen binnen kurzer Zeit verdoppelt. Dies ist unmöglich genau zu berechnen, aber wir können es alle bemerken. Wir wissen, dass wir uns nicht auf unseren Lorbeeren ausruhen können, wir müssen umso härter arbeiten, um den Herausforderungen standzuhalten. Wie ich bereits vorher erwähnt habe, werden wir euch über die nächsten Monate weitere Updates über Search Quality geben - stay tuned!
Introduction to Google Search Quality (English version)
Post von Udi Manber, VP Engineering, Search Quality (
Übersetzung von Claudia, Search Quality
)
Webmaster-Tools jetzt in 26 Sprachen
Donnerstag, 15. Mai 2008
Vor einigen Monaten haben wir euch
Googler
vorgestellt, die dazu beitragen, das Google Diskussionsforum für Webmaster in 15 Sprachen zu betreuen. Mittlerweile sind es durch die
Einführung des chinesischen Diskussionsforums für Webmaster
bereits 16 Sprachen. Es ist uns sehr wichtig, Webmastern auf der ganzen Welt helfen zu können. Heute freue ich mich bekannt geben zu können, dass die
Webmaster-Tools
in vier weiteren Sprachen verfügbar sind:
Arabisch
Hebräisch
Hindi
Thailändisch
Darüber hinaus sind die Webmaster-Tools bereits in 22 Sprachen verfügbar: US-amerikanisches Englisch, britisches Englisch, Französisch, Italienisch, Deutsch, Spanisch, Dänisch, Holländisch, Norwegisch, Finnisch, Schwedisch, Russisch, vereinfachtes Chinesisch, traditionelles Chinesisch, Koreanisch, Japanisch, Portugiesisch, Polnisch, Türkisch, Rumänisch, Tschechisch und Ungarisch.
Webmaster Tools now in 26 languages (English version)
Post von Liza Ma, Webmaster-Tools Team (Übersetzung von Michael, Search Quality)
Designempfehlungen für zugänglichen Content, der gecrawlt und indexiert werden kann
Mittwoch, 14. Mai 2008
In Anknüpfung an meinen
vorherigen Post
über Accessibility habe ich hier einige
Designempfehlungen für Web-Content zusammengestellt, der für eine größtmögliche Anzahl von Usern nutzbar ist und gleichzeitig gut gecrawlt und indexiert werden kann.
Vermeidet störende XML-HTTP-Anfragen
Seiten, die es Usern ermöglichen Informationen nachzuschlagen, verwenden häufig XML-HTTP-Anfragen, um die Seiten mit zusätzlichen Informationen anzureichern, nachdem sie geladen haben. Wenn ihr diese Technik gebraucht, dann stellt sicher, dass eure ursprüngliche Seite nützliche Informationen enthält - ansonsten riskiert ihr, dass sowohl Googlebot als auch solche User, die Scripting in ihrem Browser ausgeschaltet haben, glauben, dass eure Site nur die Nachricht "loading..." enthält.
CSS-Sprites und Navigationslinks
Aussagekräftiger Text für Navigationslinks ist ebenso wichtig für Googlebot wie für User, die die Bedeutung eines Bildes nicht interpretieren können. Vielleicht habt ihr euch beim Design des "Look and Feel" der Navigationslinks eurer Site dafür entschieden, Bilder als Links zu einzusetzen, indem ihr
<img>-Tags innerhalb des <a>-Elements verwendet. Dieses Design ermöglicht es, beschreibenden Text dem <img>-Tag als Alt-Attribut hinzuzufügen.
Was aber, wenn ihr
CSS-Sprites
benutzt, um das Laden der Seiten zu verbessern? Es ist immer noch möglich, den äußerst wichtigen Bildtext zu verwenden, wenn ihr CSS-Sprites benutzt; als Beispiel für eine mögliche Lösung könnt ihr euch anschauen, wie das Google-Logo und die verschiedenen Navigationslinks am Ende der Google-Ergebnisseite kodiert sind. Kurz gesagt: wir haben den Bildtext direkt unter das in CSS-Sprite eingefügte Bild gesetzt.
Google Suchregebnisse, bei denen CSS aktiviert ist
Google Suchergebnisse, bei denen CSS ausgeschaltet ist (Das in CSS-Sprite eingebundene "Google"-Bild ist verschwunden, der beschreibenden "Google"-Link bleibt erhalten)
Verwendet "unobtrusive JavaScript"
Wir haben über das Konzept von
schrittweiser Enwicklung
gesprochen, wenn es darum geht, vielfältige und interaktive Seiten zu erstellen. Wenn ihr Features hinzufügt, dann verwendet auch
"unobtrusive JavaScript"-Techniken
um JavaScript-basierte Webseiten zu erstellen, die auch bei ungenügender Darstellung noch gut nutzbar sind. Mit diesen Techniken könnt ihr dafür sorgen, dass euer Content für den größtmöglichen Anteil der User zugänglich bleibt, ohne die interaktiveren Features von Web 2.0-Applikationen opfern zu müssen.
Macht eure Druckversionen leicht zugänglich
Websites, die ein sehr interaktives Design verwenden, bieten oft den Content einzelner Themen als Druckversion an. Diese Version basiert auf demselben Content wie die interaktive Version, und sie ist eine optimale Grundlage für Content von hoher Qualität sowohl für Googlebot als auch für sehbehinderte User, die nicht in der Lage sind, alle interaktiven Features eine Website zu verwenden. Viel zu oft bleiben diese Druckversionen hinter Links, die ein Script aufrufen, versteckt:
<a href="#" onclick="javascript:print(...)">Print</a>
Indem ihr diese Druckversionen über eine URL erreichbar macht und zu dieser über einfache HTML-Anchor linkt, wird die Qualität des Contents, der gecrawlt wird, erheblich verbessert.
<a href="http://example.com/page1-printer-friendly.html" target="_blank">Print</a>
Falls ihr besonders über
Duplicate Content
besorgt seid, dann könnt ihr euch für eine bevorzugte Version entscheiden und eine Sitemap einreichen, die diese bevorzugte URL enthält, und ihr könnt zusätzlich intern zu dieser Version linken. Dies kann es für Google eindeutiger machen, falls Teile desselben Artikels auf verschiedenen URLs auftauchen.
Erstellt URLs für nützlichen Content
Als Webmaster seid ihr in der Lage, eure URLs exakt auf den nützlichen Content, den ihr veröffentlicht, abzustimmen. Sorgt dafür, dass ihr dies auch so weit wie möglich ausnützt - URLs regieren das Web. Indem ihr eure URLs für jeden wertvollen Teil eures Contents zielgerichtet auswählt und zu diesem über gute alte HTML-Hyperlinks verlinkt, könnt ihr sicherstellen, dass
Googlebot von eurem Content erfährt
User euren Content finden
und ein Bookmark für einen späteren Besuch setzen können.
Wenn ihr diese Methode nicht anwendet, sind eure User oft dazu gezwungen, sich an komplizierte Klickfolgen zu erinnern, um die wertvollen Informationen auf eurer Site wiederzufinden.
Design patterns for accessible, crawlable and indexable content (English version)
Post von
T.V. Raman
, Research Scientist (Übersetzung von Claudia, Search Quality)
Suchoperatoren für Webmaster
Donnerstag, 8. Mai 2008
Wir bieten unseren Usern eine Reihe von
erweiterten Operatoren
an. Einerseits können durch deren Verwendung Suchanfragen genauer gestaltet werden. Andererseits ist es möglich Operatoren einzusetzen, um Informationen über die eigene Site, aber auch über konkurrierende, bei Google indexierte Sites zu ermitteln. Ebenfalls können sich die im Folgenden dargestellten fünf Operatoren bei Schwierigkeiten mit der Indexierung von Websites als hilfreich erweisen. Sie bieten einen Eindruck, wie Google die Site sieht, und ermöglichen eine oberflächliche Konkurrenzanalyse.
cache:
Mit dem Operator cache: könnt ihr eine bei Google gespeicherte Kopie einer Site aufrufen, z. B. zeigt
[cache:google.de]
die zuletzt indexierte Version der deutschsprachigen Google-Homepage an. Interessant dabei ist die Information des letzten Crawldatums, die ganz oben in der ersten Zeile über der eigentlichen Seitenkopie angezeigt wird. Dort könnt ihr auch zwei Links finden, einen zur aktuellen Seite und einen zweiten zur reinen Textversion, wie sie vom Googlebot "gesehen" wird. Dies kann insbesondere für Webmaster, die viele Grafiken oder Animationen auf ihrer Site haben, sehr hilfreich sein, da es zeigt, wie viel indexierbaren Inhalt die Seiten für Suchmaschinen bereithalten.
Wenn ihr vermeiden wollt, dass eine eurer Seiten als Kopie im Cache bei Google erreichbar ist, solltet ihr das
Meta-Tag
noarchive verwenden (<meta content="noarchive">). Seiten, die mit dem Meta-Tag noarchive versehen sind, werden von Google nach wie vor gecrawlt und tauchen in den Ergebnissen für relevante Anfragen auf. Allerdings haben User keinen Zugriff auf den Link zur zwischengespeicherten Cache-Version dieser Sites.
Wie bei allen anderen Operatoren von Google solltet ihr darauf achten, dass ihr zwischen dem Doppelpunkt und der URL keine Leerstelle einfügt. Ob ihr das http:// vor der eigentlichen Domain verwendet, spielt keine Rolle. Suchanfragen mit bzw. ohne das www. können aber unterschiedliche Ergebnisse liefern.
site:
Wahrscheinlich der von Webmastern am häufigsten genutzte Operator. Während dieser ursprünglich dafür gedacht war, eine Suche auf eine bestimmte Site zu beschränken, wird er nun von vielen Webmastern genutzt, um herauszufinden, ob und wie viele
ihrer Seiten in etwa indexiert
wurden. Ihr könnt eure Suche auf eine komplette Site ausweiten oder aber auf eine bestimmte Subdomain oder ein bestimmtes Verzeichnis beschränken. Wenn ihr eine Subdomain oder ein Verzeichnis aus euer Suche ausschließen wollt, so könnt ihr dies mit einem Minus vor dem Operator tun. Beispielsweise bezieht sich die Suche
[site:google.de -site:adwords.google.de]
auf die Google.de Domain, ohne die Subdomain adwords.google.de anzuzeigen.
link:
Der Operator link: hilft dabei, eine Auswahl von Seiten zu finden, die auf die angegebene URL verweisen. Das funktioniert mit der Homepage einer Website ebenso gut wie mit einem bestimmten Pfad, zum Beispiel
[link:groups.google.com/group/Google_Webmaster_Help-de]
. Mithilfe dieses Operators können sich Webmaster einen Überblick darüber verschaffen, welche Seiten zu einer Site linken. Bitte beachet, dass der Operator link: nur einige aber nicht alle Links zur gesuchten Website oder Seite anzeigt. Für eine vollständige Analyse eurer Backlinks empfehlen wir euch die
Google Webmaster-Tools
.
related:
Der Operator related: gibt Websites aus, die der gesuchten Site ähnlich sind. Er liefert dieselben Ergebnisse wie der Link
"Ähnliche Seiten"
neben einem Suchresultat. Wie Google eine Beziehung zwischen verschiedenen Sites bestimmt, hängt von mehreren Faktoren ab, die auch über den inhaltlichen Kontext hinausgehen können. So könnten beispielsweise Bücher, die dem ersten Band von Harry Potter ähnlich sind, Kinderbücher sein, eine Biographie über J.K. Rowling oder aber auch ein Lexikon über die beliebtesten Kinderbücher des 20. Jahrhunderts. Grundsätzlich könnt ihr mit diesem Operator weitere Quellen zu einer Website entdecken. Die besten Resulte erreicht ihr mit Sites, die ein weites thematisches Spektrum abdecken. Je spezialisierter eine Site ist, desto schwieriger wird es, ähnlichen Content zu finden. Wenn ihr beispielweise nach Websites sucht, die Google.de ähnlich sind, dann erhaltet ihr eine Liste, die hauptsächlich andere Suchmaschinen aufzeigt.
Viele Webmaster sind besorgt, was der Operator related: über ihre Website aussagen könnte und ob Google ihre Site danach bewertet. Ihr könnt beruhigt sein - die Qualität der als ähnlich angezeigten Websites hat keinen Einfluss auf das Ranking oder die Indexierung eurer Site.
info:
Der Operator info: zeigt an, was Google alles über eure Site weiß. Er liefert euch die Homepage mit Snippet sowie verschiedene Links zu weiteren Informationen über eure Site. Dies kann die Cache-Version der gesuchten Site sein, Websites, die zu dieser Site linken oder dieser ähnlich sind. Im Grunde zeigt euch dieser Operator auf einen Blick alle Suchresultate der hier aufgeführten erweiterten Operatoren an, sofern diese Informationen Google vorliegen.
Mithilfe der hier beschriebenen Operatoren könnt ihr eine Menge an Informationen über eure Website erfahren und sehen, wie eure Site bei Google indexiert ist. Wie ihr vielleicht schon wisst, verwenden wir diese
Operatoren
auch innerhalb der Webmaster-Tools im Abschnitt
Statistiken und Diagnose
, um euch Informationen über eure Website anzuzeigen.
Falls ihr Fragen zu diesem Thema habt, dann postet diese bitte in unserem
Forum für Webmaster
.
Post von Juliane Stiller und Kaspar Szymanski, Search Quality Team
Sitemaps sorgen für eine bessere Erfassung eurer Site für die benutzerdefinierte Suchmaschine
Dienstag, 6. Mai 2008
Wenn ihr Webmaster oder Betreiber einer Website seid, dann wisst ihr, wie wichtig es ist, qualitativ hochwertige Suchergebnisse auf eurer Site anzubieten, damit eure User problemlos die gewünschten Informationen finden.
Wir haben
heute angekündigt
, dass
AdSense für Suchergebnisseiten
von nun an auf der benutzerdefinierten Suche (Custom Search Engine, CSE) aufbaut. Die
benutzerdefinierte Suche
(ein Google-Suchfeld, das ihr innerhalb weniger Minuten in eure Site einbauen könnt) hilft euren Usern, schnell die gewünschten Informationen zu finden. Euch Webmastern bietet die benutzerdefinierte Suche erweiterte Einstellungsmöglichkeiten, um die Genauigkeit der Suchergebnisse auf eurer Site zu verbessern. Ihr habt damit auch die Möglichkeit, aus eurem Traffic Einnahmen zu erzielen, indem ihr Anzeigen passend zum Thema eurer Site darstellt. Falls ihr keine Anzeigen wollt, könnt ihr die
Business Edition der benutzerdefinierten Suche
verwenden
.
Neuerdings versuchen wir, noch mehr Content eurer Site für die Aufnahme in eure benutzerdefinierte Suchmaschine zu indexieren. Wir ermitteln, welche Sites und URLs in eurer benutzerdefinierten Suchmaschine vorkommen, und verwenden die Informationen eurer
Sitemaps
- falls ihr diese bereitgestellt habt -, um ein noch umfassenderes Sucherlebnis für die Besucher eurer Site zu bieten. Ihr müsst dafür nichts Besonderes tun, sondern einfach eine Sitemap für eure Site einreichen (mittels der
Webmaster-Tools
), falls ihr das nicht ohnehin bereits getan habt. Beachtet dabei bitte, dass diese Änderung nicht dazu führt, dass auf Google.com die Zahl eurer indexierten Seiten steigt und sich dadurch auch keine Änderungen im Ranking eurer Seiten ergeben. Ihr werdet jedoch eine deutlich bessere Bandbreite an Ergebnissen innerhalb eurer benutzerdefinierten Suchmaschine erhalten.
Die benutzerdefinierte Suche setzt auf dem Google-Index auf. Dies bedeutet, dass alle Seiten, die von Google.com gefunden werden, auch für eure Suchmaschine verfügbar sind. Zusätzlich verwenden wir jetzt einen spezifischen Index für die benutzerdefinierte Suchmaschine als Ergänzung zum Google-Index, damit die Performance der Suche auf eurer Site erhöht wird. Wenn ihr eine Sitemap bereitstellt, besteht eine hohe Wahrscheinlichkeit, dass wir diese Seiten crawlen und dann diesem zusätzlichen Index hinzufügen.
Damit wir diese zusätzlichen Seiten indexieren können, müssen unsere Crawler sie finden und crawlen können. Eure Sitemap hilft uns auch dabei, diejenigen URLs zu bestimmen, die wichtig sind. Stellt dabei bitte sicher, dass ihr Seiten, die indexiert werden sollen, nicht für das
Crawling blockiert
.
Der verbesserte Umfang des Indexes ist nicht unmittelbar sichtbar, da es einige Zeit dauert, bis die jeweiligen Seiten gecrawlt und indexiert sind.
Also, worauf wartet ihr noch?
Reicht eure Sitemap ein!
Sitemaps offer better coverage for your Custom Search Engine (English version)
Post von Rajat Mukherjee, Group Product Manager, Search (Übersetzung von Sven, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster