Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Den Wert eures kostenlosen Hosting-Dienstes für Nutzer aufrechterhalten
Donnerstag, 29. März 2012
Kostenlose Webhosting- Dienste
sind meistens etwas sehr Nützliches. Viele von ihnen helfen Webmastern, Kosten zu senken und technische Barrieren zu überwinden. Vielen Neulingen unter den Webmastern ermöglichen sie überhaupt erst den Einstieg in ihr Onlineprojekt. Leider sind diese niedrigeren Barrieren, die eigentlich weniger technisch versierte Nutzer zum Einrichten einer Website ermutigen sollen, auch für zweifelhafte Charaktere wie Spammer leichter zu überwinden. Diese suchen nach günstigen, einfachen Möglichkeiten,
Dutzende oder gar Hunderte von Websites einzurichten
, die im Web nur wenig oder überhaupt keinen Nutzen darstellen. Unsere Haltung gegenüber automatisch generierten Websites bleibt unverändert: Wenn diese keinen nennenswerten Wertgewinn darstellen, betrachten wir sie als Spam und ergreifen entsprechende Maßnahmen, um zu verhindern, dass unsere Nutzer solche Websites in den Ergebnissen der organischen Suche sehen.
Automatisch generierte Websites wie diese werden als Spam betrachtet.
Wenn auf einem kostenlosen Hosting-Dienst an Spam erinnernde Muster auftauchen, achten wir sehr darauf, dies differenziert zu beurteilen und nur gegen wirkliche Spam-Seiten oder -Websites vorzugehen. Manchmal kommt es jedoch so weit, dass Spammer den kostenlosen Webhosting-Dienst komplett oder größtenteils beherrschen. In solchen Fällen sehen wir uns gezwungen, entschiedene Maßnahmen zum Schutz unserer Nutzer zu ergreifen. Dann kann es dazu kommen, dass wir den Webhosting-Dienst komplett aus unseren Suchergebnissen entfernen. Um dies zu vermeiden, möchten wir die Inhaber kostenloser Webhosting-Dienste unterstützen, indem wir ihnen Tipps dazu geben, wie sie wertvolle Ressourcen wie Bandbreite und Rechenleistung sparen und ihren Hosting-Dienst vor Spammern schützen können:
Veröffentlicht eindeutige Richtlinien gegen Missbrauch und teilt sie euren Nutzern mit, etwa bei der Registrierung. So könnt ihr unmissverständlich klarstellen, was ihr als Spam betrachtet.
In Anmeldeformularen ist der Einsatz von
Captchas
(auf Englisch) oder
vergleichbaren Verifizierungstools sinnvoll
(auf Englisch). So sind nur Anmeldungen von Personen möglich und automatische Skripts werden an der Erstellung zahlreicher Websites auf eurem Hosting-Dienst gehindert. Diese Methoden bieten zwar keinen hundertprozentigen Schutz, halten jedoch viele Übeltäter fern.
Versucht, euren kostenlosen Hosting-Dienst auf andere Signale für Spam zu überwachen, etwa Weiterleitungen, eine große Anzahl von Anzeigenblöcken, bestimmte Spam-Keywords oder große Abschnitte von JavaScript-Code mit Escape-Sequenzen. Wenn ihr eine einfache, kostengünstige Lösung sucht, solltet ihr die
site:-Operator
-Abfrage oder
Google Alerts
(auf Englisch) in Betracht ziehen.
Protokolliert Registrierungen und versucht, typische Spam-Muster zu erkennen, beispielsweise die für das Ausfüllen von Formularen aufgewendete Zeit, die Anzahl der vom selben IP-Adressbereich gesendeten Anfragen, während der Registrierung verwendete User-Agents oder über Formulare eingereichte Werte wie Nutzernamen. Auch dies führt nicht immer zu eindeutigen Ergebnissen.
Überprüft eure Webserver-Protokolle auf plötzlich ansteigende Besucherzahlen, insbesondere wenn diese auf einer neu erstellten Website verzeichnet werden, und versucht herauszufinden, warum ihr mehr Bandbreite und Rechenleistung verbraucht.
Überwacht euren kostenlosen Webhosting-Dienst auf Phishing und mit Malware infizierte Seiten. Mit dem
Google Safe Browsiführtng API
(auf Englisch) könnt ihr zum Beispiel URLs von eurem Dienst regelmäßig testen.
Ihr könnt euch auch registrieren, um Benachrichtigungen für euer autonomes System (AS) zu erhalten
(auf Englisch).
Überlegt euch ein paar Möglichkeiten für eine Statusüberprüfung. Wenn ihr beispielsweise einen kostenlosen, lokalen polnischen Webhosting-Dienst unterhaltet, wie wahrscheinlich ist es dann, dass jemand in Japan über Nacht Tausende neue legitime Website erstellt? Es gibt ein paar hilfreiche Tools für die Erkennung der Sprache neu erstellter Websites, etwa
Spracherkennungsbibliotheken
oder das
Google Translate API v2
(auf Englisch).
Und zu guter Letzt, wenn ihr einen kostenlosen Webhosting-Dienst betreibt, überwacht eure Dienste unbedingt auf plötzliche Aktivitätszunahmen. Diese können auf einen Spam-Angriff hindeuten.
Weitere Tipps zum Betreiben eines Qualitäts-Hosting-Dienstes findet ihr in
unserem vorherigen Post
. Registriert eure Website außerdem unbedingt in den
Google Webmaster-Tools
und bestätigt sie, sodass wir euch gegebenenfalls über Probleme benachrichtigen können.
Autoren:
Fili Wiese
(Ad Traffic Quality Team) &
Kaspar Szymanski
(Search Quality Team), (Veröffentlicht von
Uli Lutz
, Search Quality)
Crawling-Fehler: die nächste Generation
Dienstag, 27. März 2012
"Crawling-Fehler" ist eine der beliebtesten Funktionen in den Webmaster-Tools. Heute zeigen wir euch einige maßgebliche Verbesserungen, mit denen die Funktion für euch noch nützlicher werden soll.
Es werden nun viele neue Fehlertypen erkannt und gemeldet. Um diese neuen Informationen übersichtlich zu gestalten, haben wir sie in zwei Gruppen aufgeteilt: Website-Fehler und URL-Fehler.
Website-Fehler
Website-Fehler sind Probleme, die nicht eine bestimmte URL betreffen, sondern die ganze Website. Dazu gehören Fehler bei der DNS-Auflösung, Verbindungsprobleme mit dem Webserver und Schwierigkeiten beim Abrufen der "robots.txt"-Datei. Diese Fehler wurden bisher nach URL aufgelistet. Das ist jedoch nicht sehr sinnvoll, da die Probleme nicht URL-spezifisch sind und der Googlebot sogar vom Anfordern der URLs abgehalten wird. Nun halten wir die Häufigkeit der einzelnen Website-Fehlertypen fest. Wir versuchen auch Warnungen zu geben, wenn diese Fehler so häufig vorkommen, dass eure Aufmerksamkeit gefragt ist.
Verlauf von Website-Fehlern und ihrer Häufigkeit
Solltet ihr in diesem Bereich keine Probleme haben oder in letzter Zeit gehabt haben – und dies ist bei den meisten Websites der Fall – steht der entsprechende Abschnitt nicht im Vordergrund. Daher werden hier auch nur ein paar grüne Häkchen angezeigt, damit ihr wisst, dass alles wie geschmiert läuft.
URL-Fehler
URL-Fehler sind Probleme mit einer bestimmten Seite. Das heißt, dass beim Versuch des Googlebots, die URL zu crawlen, das DNS aufgelöst, eine Verbindung mit dem Server hergestellt und die "robot.txt"-Datei abgerufen und gelesen wird. Anschließend wird die URL angefordert, doch in diesem Moment scheint etwas schiefzugehen. Die URL-Fehler werden je nach Ursache des Fehlers in verschiedene Kategorien unterteilt. Sollte eure Website Daten für Google News oder für Mobilgeräte (CHTML/XHTML) bereitstellen, zeigen wir Fehler dementsprechend in separaten Kategorien an.
Weniger ist mehr
Wir haben euch bisher bis zu 100.000 Fehler pro Fehlertyp angezeigt. Das war nicht gerade eine leicht verdauliche Anzahl. Ihr hattet keine Möglichkeit herauszufinden, welche dieser Fehler kritisch (Startseite ist ausgefallen) oder nicht so wichtig waren (auf einer privaten Website wird der Link zu eurer Website falsch geschrieben). Es war unmöglich, alle 100.000 Fehler anzusehen, und ihr konntet sie auch nicht sortieren, durchsuchen oder markieren. In der neuen Version dieser Funktion möchten wir euch nun die wichtigsten Fehler zuerst zeigen. In jeder Kategorie seht ihr die 1000 nach unserer Meinung wichtigsten Fehler, die eure Aufmerksamkeit benötigen. Ihr könnt diese 1000 wichtigsten Fehler sortieren und filtern, behobene Fehler markieren und Details zu den einzelnen Fehlern anzeigen.
Einige Websites weisen jedoch mehr als 1000 Fehler in einer bestimmten Kategorie auf. Ihr könnt euch in diesem Fall natürlich die Gesamtanzahl aller einzelnen Fehlertypen ansehen. Außerdem wird in einem Diagramm der Verlauf der letzten 90 Tage angezeigt. Für diejenigen, die befürchten, dass Details zu den wichtigsten 1000 Fehlern und die Gesamtanzahl der Fehler nicht ausreichen, überlegen wir einen programmatischen Zugriff über eine API zu ermöglichen. Damit könntet ihr dann sämtliche Fehler herunterladen. Lasst uns wissen, ob das für euch von Nutzen wäre.
Wir haben außerdem die Liste der Seiten entfernt, die durch eine "robots.txt"-Datei blockiert werden. Diese Informationen können zwar in manchen Fällen bei der Diagnose eines Problems mit robots.txt hilfreich sein, doch meistens habt ihr diese Seiten ja absichtlich blockiert. Wir wollten uns erst einmal ganz auf das Thema Fehler konzentrieren. Weitere Informationen zur Blockierung durch eine "robots.txt"-Datei findet ihr also bald in der Funktion "Crawler-Zugriff" unter "Website-Konfiguration".
Mehr Details bitte
Wenn ihr auf eine Fehler-URL in der Liste klickt, wird ein Detailfenster mit weiteren Informationen geöffnet. Dort erfahrt ihr zum Beispiel, wann zum letzten Mal versucht wurde, die URL zu crawlen, und wann wir das Problem zu ersten Mal entdeckt haben. Es wird auch eine kurze Beschreibung des Fehlers angegeben.
Im Detailfenster wird der Link der URL angezeigt, die für den Fehler verantwortlich ist. Um selbst zu sehen, was beim Aufrufen der URL passiert, klickt einfach auf den Link. Ihr könnt Fehler als "korrigiert" markieren (mehr dazu später), die einzelnen Fehlertypen in der Hilfe nachschlagen, Sitemaps mit der spezifischen URL auflisten sowie andere Seiten ansehen, die auf diese URL verlinken. Ihr könnt die URL sogar wie durch Googlebot abrufen, um entweder weitere Informationen zu erhalten oder zu überprüfen, ob der Fehler behoben wurde.
Nun seid ihr an der Reihe!
Eine der spannendsten Funktionen dieser neuen Version der "Crawling-Fehler" ist, dass ihr euch voll und ganz darauf konzentrieren könnt, die wichtigsten Fehler zuerst zu beheben. Die Fehler sind so angeordnet, dass die ersten Einträge der Prioritätsliste Probleme sind, die ihr selbst beheben könnt: fehlerhafte Links auf der eigenen Website korrigieren, Fehler in der Serversoftware beheben, Sitemaps aktualisieren und veraltete URLs entfernen oder eine 301-Weiterleitung hinzufügen, damit eure Nutzer auf eine "echte" Seite weitergeleitet werden. Bei der Priorisierung der Fehler berücksichtigen wir verschiedene Faktoren, zum Beispiel ob die URL in einer Sitemap enthalten ist, wie viele Seiten auf die URL verlinken, ob diese Seiten Teil eurer Website sind und ob die URL kürzlich über Suchanfragen aufgerufen wurde.
Sobald ihr den Fehler behoben habt (ihr könnt dies durch den "Abruf wie durch Googlebot" testen), könnt ihr den Fehler als "korrigiert" markieren. Diese Funktion ist nur für
Nutzer mit umfassenden Zugriffsrechten
möglich. Damit wird der Fehler aus der Liste entfernt. Diese als "korrigiert" markierten Fehler werden in Zukunft nicht mehr in der Fehlerliste angezeigt, außer wir entdecken den gleichen Fehler erneut beim Crawlen einer URL.
Wir haben viel Aufwand in die neue Funktion "Crawling-Fehler" gesteckt und hoffen natürlich, dass sie euch nützlich erscheint. Gebt uns Bescheid, was ihr davon haltet und lasst uns eure Vorschläge im
Forum
hören.
Autor:
Kurt Dresner
, Webmaster-Tools-Team (Veröffentlicht von
Uli Lutz
, Search Quality)
Zugriff auf eure Website in Webmaster-Tools sicher teilen
Mittwoch, 21. März 2012
Wir haben eine neue Funktion eingeführt, mit der ihr als bestätigte Website-Inhaber anderen Nutzern eingeschränkten Zugriff auf die Daten und Einstellungen eurer Website in Webmaster-Tools gewähren könnt. In den letzten Jahren konntet bereits ihr
anderen Nutzern uneingeschränkten bestätigten Zugriff gewähren
. Viele Website-Inhaber haben seitdem den Wunsch geäußert, dass sie Nutzern eingeschränkten Zugriff zum Abrufen von Website-Daten in Webmaster-Tools gewähren möchten, ohne dass diese dabei alle Einstellungen ändern können. Genau das ist jetzt mit unserer neuen Funktion zur Nutzerverwaltung möglich.
Auf der Startseite im Dropdown-Menü "Verwalten" seht ihr jetzt die Menüoption "Nutzer hinzufügen oder entfernen" (vorher "Eigentümer hinzufügen oder entfernen").
Wenn ihr die Option "Nutzer hinzufügen oder entfernen" wählt, gelangt ihr zur Seite "Nutzerverwaltung". Dort könnt ihr bis zu hundert Nutzer hinzufügen oder entfernen und die Zugriffsrechte jedes Nutzers als "Uneingeschränkt" oder "Eingeschränkt" festlegen. Auf der Seite "Nutzerverwaltung" hinzugefügte Nutzer sind an eine bestimmte Website gebunden. Falls eure Bestätigung für diese Website aufgehoben wird, verlieren alle hinzugefügten Nutzer ihren Zugriff auf diese Website in Webmaster-Tools. Bestätigte Website-Inhaber könnt ihr weiterhin auf der Seite "Bestätigung von Inhabern" hinzufügen oder entfernen. Auf der Seite "Nutzerverwaltung" findet ihr einen Link dorthin.
Nutzer mit uneingeschränkten Berechtigungen können alle Daten ansehen und die meisten Aktionen ausführen, zum Beispiel Einstellungen einer Website ändern oder Sitelinks abwerten. Nutzer mit eingeschränkten Berechtigungen können die meisten Daten ansehen und einige Aktionen ausführen, zum Beispiel "Abruf wie durch Googlebot" verwenden und die Nachrichtenweiterleitung ihres Kontos konfigurieren. Nutzer mit eingeschränkten Berechtigungen sehen an verschiedenen Stellen von Webmaster-Tools den Hinweis "Eingeschränkter Zugriff".
In unserem
Hilfeartikel zu Berechtigungen
erhaltet ihr einen Überblick darüber, welche Funktionen und Aktionen Nutzern mit eingeschränkten und uneingeschränkten Berechtigungen sowie Website-Inhabern zur Verfügung stehen.
Wir hoffen, dass euch die Einführung von eingeschränkten und uneingeschränkten Berechtigungen die Nutzerverwaltung eurer Website in Webmaster-Tools erleichtert. Jetzt könnt ihr genau festlegen, welchen Nutzern ihr Zugriff gewähren möchtet, und somit unerwünschte oder unbefugte Änderungen vermeiden. In unserem
Hilfeforum
könnt ihr jederzeit Fragen stellen oder Feedback zur neuen Nutzerverwaltung geben.
Autor:
Jonathan Simon
, Webmaster Trends Analyst
(Veröffentlicht von
Uli Lutz
, Search Quality)
Können Cookies oder Tracking-Pixel das Ranking beeinflussen?
Mittwoch, 14. März 2012
Die heutige Frage an Matt Cutts stellt Biz aus den USA: "Gibt es bei Google Richtlinien zu Tracking-Cookies und Tracking-Pixeln? Kann eine Website zu viele Cookies setzen?"
Sehr gute Frage! Das hat mich bisher noch niemand gefragt. Mir sind keine Richtlinien bekannt, die einschränken, wie viele Tracking-Cookies jemand setzen darf.
Wenn ihr so viele Tracking-Pixel einbaut, dass es den Nutzer bremst, oder ihr so viel Tracking einsetzt, dass ihr damit ins Wall Street Journal kommt und die Nutzer euch deshalb nicht mehr mögen, dann kann sich das zwar auf euer Geschäft auswirken, auf das Ranking wirkt sich das aber nicht aus.
Denn Cookies können für verschiedenste Zwecke eingesetzt werden: für Tracking, oder auch, um Vorlieben der Nutzer zu speichern und so weiter. Soweit ich weiß, unterscheidet Google nicht nach der Anzahl der Cookies oder danach, wie viele Tracking-Pixel ihr auf eurer Website einsetzt. Dies hat meines Wissens also keinen Einfluss auf das Ranking bei Google.
Veröffentlicht von
Uli Lutz
, Search Quality
Sollte ich Dateiendungen erfinden, um meine Rankings zu verbessern?
Donnerstag, 8. März 2012
Diese Frage an Matt Cutts kommt aus London. IanVisits möchte wissen: "Die Keywords einer URL beeinflussen das Ranking einer Website. Welchen Einfluss hat das Suffix eines Dateinamens? Wenn ich .php durch .free ersetzen würde, würde das die Suchergebnisse beeinflussen?"
Soweit würde ich gar nicht gehen. Wir crawlen normalerweise fast alle Suffixe eines Dateinamens. Von Erweiterungen wie .zero oder .exe raten wir allerdings ab. Bei einer URL .php oder .html durch .free oder .cheap zu ersetzen, geht wahrscheinlich etwas zu weit. Das würde ich an eurer Stelle nicht tun.
Ich würde eher versuchen, das Keyword in die Kopie auf der Website bzw. ins H1- oder title-Tag einzuarbeiten. Wenn Nutzer sowas sehen, würde ihnen das wahrscheinlich ziemlich seltsam vorkommen, sodass sie nicht darauf klicken. Dann entstehen euch daraus sowieso keine Vorteile. Außerdem glaube ich nicht, dass es überhaupt funktionieren würde.
Verwendet für den Dateinamen also einfach das Suffix, das ihr für richtig haltet: .php, .cfm, .aspx, .html usw. Aber nicht sowas wie .cheaponlineviagra oder etwas Ähnliches. Das geht dann wohl doch etwas zu weit. Vielen Dank.
Veröffentlicht von
Uli Lutz
, Search Quality
Eine noch sicherere Suche - weltweit
Dienstag, 6. März 2012
Vor einigen Monaten haben wir die voreingestellte Suche auf
google.com
geändert - wir haben
SSL Verschüsselung hinzugefügt
(Blog Post auf Englisch), um Datenschutz und Sicherheit eurer Suchanfragen zu erhöhen, wenn ihr bei Google angemeldet seid. Durch diese Veränderung werden eure Suchanfragen und Suchergebnisseiten verschlüsselt, was besonders wichtig ist, wenn ihr eine offene, unverschlüsselte Internetverbindung benutzt.
Wir fangen jetzt an, diese zusätzliche Sicherheit auszuweiten - in den kommenden Wochen führen wir die SSL Suche über
google.com
hinaus auf unseren lokalen Domains weltweit ein. Wie zuvor hoffen wir, dass die Bemühung, SSL Verschlüsselungen vermehrt einzusetzen, auch andere Unternehmen dazu anregt, selbiges zu tun.
Post von Michael Safyan, Software Engineer (Veröffentlicht von
Uli Lutz
, Search Quality)
Ist gemischter Content auf einer https Seite ein Problem?
Montag, 5. März 2012
Die heutige Frage kommt aus Zürich. Gary Tamas fragt: "Muss ich auf gemischten Content achten, wenn ich meine Seiten in HTTPS anbiete?"
Nein, zumindest nicht wegen Google. Google differenziert nicht zwischen einer gesicherten Version oder SSL-Version einer Seite und unsicherem Content. Das ist derzeit kein Ranking-Faktor.
Ihr solltet allerdings darauf achten, dass euer Content funktioniert – euren Nutzern zuliebe. Unterschiedliche Browser reagieren unterschiedlich. Internet Explorer zeigt vielleicht eine Warnung an, Chrome möglicherweise ein kleines rotes X. Manche Nutzer sind dann gleich besorgt, obwohl es sich um relativ sicheren Content handelt. Chrome lädt seit Neuestem standardmäßig keine unsicheren Skripts mehr. Man muss dem Laden des Skripts ausdrücklich zustimmen.
Im Hinblick auf die Suchmaschinen ist es also egal. Aber aus Sicht der Nutzer und für die allgemeine Sicherheit solltet ihr einheitlichen Content ganz in HTTPS anbieten und wenn möglich keinen gemischten Content unter HTTP und HTTPS erstellen.
Veröffentlicht von
Uli Lutz
, Search Quality
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster