Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
So sind wir gegen Webspam vorgegangen – Webspam-Bericht 2016
Mittwoch, 12. April 2017
Die ersten Monate des Jahres 2017 liegen bereits hinter uns und wir möchten hiermit einige Erkenntnisse mit euch teilen, die wir bei unserem Kampf gegen Webspam 2016 gesammelt haben. Im Verlauf des letzten Jahres haben wir neue Möglichkeiten entdeckt, die negativen Auswirkungen von Spam auf die Nutzererfahrung bei der Suche zu reduzieren, und wir haben mit Webmastern weltweit zusammengearbeitet, um das Web zu verbessern.
Wir arbeiten hinter den Kulissen mit Hochdruck daran, dass unsere Nutzer das Web und die Möglichkeiten, die es heute bietet, vollständig ausschöpfen können, damit alle Menschen auf der Welt Zugang zu relevanten Ergebnissen erhalten. Hierzu gehört auch der Kampf gegen Webspam, der Nutzern potenziell schadet oder sie auch einfach nur belästigt.
Webspam-Trends im Jahr 2016
Die Sicherheit von Websites steht auf der Liste von Problemen weiterhin ganz oben. Im letzten Jahr wurden mehr Websites gehackt als je zuvor. Die Anzahl gehackter Websites stieg im Vergleich zu 2015 um 32 %. Deshalb haben wir weiter in die Verbesserung und Erstellung von Ressourcen investiert, die Webmaster einen
schnelleren Lösungsansatz für den Fall liefern, dass ihre Websites gehackt werden
.
Die Entwicklung, dass Websites nicht nur zum Hosten von Webspam gekapert werden, setzt sich fort. Wir haben beobachtet, dass viele Webmaster von Social Engineering, unerwünschter Software und unerwünschter Anzeigenauslieferung betroffen waren. Wir haben strengere Kriterien für Safe Browsing eingeführt, um Nutzer
vor irreführenden Download-Schaltflächen zu schützen
, haben die Maßnahmen gegen gefährliche Websites verschärft,
von denen wiederholt Bedrohungen ausgingen
, und haben in den
Bericht zu Sicherheitsproblemen in der Search Console noch ausführlichere Hilfetexte aufgenommen
.
Da
immer mehr Nutzer über Mobilgeräte auf die Google-Suche zugreifen
, haben wir einen erheblichen Anstieg der Art von Spam beobachtet, der auf Nutzer von Mobilgeräten abzielt. Besonders auffällig war der Anstieg bei Spam,
der Nutzer ohne Wissen des Webmasters auf andere Websites oder Seiten weiterleitet
und der mithilfe von Widgets oder Anzeigenblöcken aus verschiedenen Werbenetzwerken in Webmaster-Seiten eingeschleust wurde.
So sind wir 2016 gegen Spam vorgegangen
Wir haben unsere Algorithmen zur Bekämpfung von Webspam weiter verbessert. Außerdem gab es mehrere Verbesserungen bei der Methode, mit der wir das Ranking von Websites ermitteln. So haben wir unter anderem
Penguin (einen unserer zentralen Ranking-Algorithmen) so weiterentwickelt, dass er jetzt in Echtzeit arbeitet
.
Spam, den wir nicht mittels Algorithmen erkennen konnten, haben wir manuell bearbeitet. Wir haben über neun Millionen Nachrichten an Webmaster verschickt, um sie auf Probleme mit Webspam auf ihren Seiten aufmerksam zu machen. Darüber hinaus geben wir jetzt
mehr Sicherheitsbenachrichtigungen über Google Analytics
aus.
Wir haben algorithmusgestützte und manuelle Qualitätsprüfungen durchgeführt, um zu gewährleisten, dass Websites mit
Markup zu strukturierten Daten
relevanten Qualitätsstandards entsprechen. Wir haben bei mehr als 10.000 Websites, die die
Qualitätsrichtlinien zur Nutzung von Funktionen, die durch strukturierte Daten ermöglicht werden
, nicht erfüllt haben, manuelle Maßnahmen eingeleitet.
Gemeinsam mit Nutzern und Webmastern für eine bessere Erfahrung im Web
Wir haben im Jahr 2016 weltweit über 180.000
Spamreports
von Nutzern erhalten. Nach sorgfältiger Prüfung der Echtheit kamen wir zu dem Schluss, dass 52 % der gemeldeten Websites Spam darstellten. Wir möchten uns bei allen bedanken, die Meldungen eingereicht und somit dazu beigetragen haben, dass das Web qualitativ besser und sicherer wird.
Wir haben über 170 Stunden in
Onlinesprechstunden und Liveveranstaltungen
auf der ganzen Welt investiert und dabei über 150.000 Website-Eigentümer, Webmaster und Werbetreibende für digitales Marketing erreicht.
Wir haben Website-Eigentümer weltweit weiter mit unseren
Webmaster-Hilfeforen
unterstützt, und das in 15 Sprachen. In diesen Foren wurden über 67.000 Fragen diskutiert, wovon die meisten dank unserer Top-Beitragenden, Aufsteiger und Google-Mitarbeiter geklärt werden konnten.
119 freiwillige Webmaster – Top-Beitragende und Aufsteiger – haben sich beteiligt. Diese haben wir zur Teilnahme an unseren
lokalen Top-Beitragenden-Meetups
an elf verschiedenen Standorten auf vier Kontinenten (Asien, Europa, Nordamerika und Südamerika) eingeladen.
Wir sind der Meinung, dass alle Menschen Zugang zu qualitativ hochwertigen und spamfreien Suchergebnissen haben sollten. Wir hoffen, dass euch dieser Bericht einen kleinen Einblick gegeben hat, wie wir dieses Vorhaben vorantreiben.
Post von Michal Wicinski, Search Quality Strategist, und Kiyotaka Tanaka, User Education
Ähnliche Produkte: Neue Produktfunktion in der Google Bildersuche
Dienstag, 11. April 2017
In der Bildersuche im mobilen Web und in der Google App unter Android gibt es seit Kurzem eine neue Funktion. Mit "Ähnliche Produkte" können Nutzer Produkte finden, die sie auf Fotos in der Google Bildersuche entdeckt haben. Mithilfe von maschinellem Sehen erkennt die Funktion Produkte auf Bildern und zeigt dem Nutzer ähnliche Artikel. Dies funktioniert momentan für Handtaschen, Sonnenbrillen und Schuhe. In den nächsten Monaten werden weitere Produkte aus den Bereichen Bekleidung sowie Haus und Garten dazukommen.
Mit der Funktion "Ähnliche Produkte" können Nutzer sich von Mode- und Produktfotos inspirieren lassen und direkt Infos zu den Produkten erhalten, für die sie sich interessieren. Probiert es mal aus und seht euch zum Beispiel ein paar Bildergebnisse zu [designer handtaschen] an.
Informationen zu Preisen und Verfügbarkeit in der Bildersuche war die am stärksten nachgefragte Funktion von Nutzern. Das Karussell mit ähnlichen Produkten verzeichnet täglich Millionen von Impressionen und Klicks aus aller Welt.
Wenn eure Produkte auch für diese Funktion infrage kommen sollen, achtet darauf,
Schema.org-Produktmetadaten
auf euren Seiten hinzuzufügen. Das
Produkt-Markup
von schema.org hilft Google dabei, Produktangebote im Web zu finden und Nutzern einen Überblick über das Produkt zu geben.
Damit eure Produkte für die neue Funktion infrage kommen, solltet ihr auf Folgendes achten:
Die Produktangebote auf euren Seiten sollten über ein
Schema.org-Produkt-Markup
verfügen, einschließlich eines Bildverweises. Produkte mit Metadaten zu Name, Bild, Preis und Währung sowie Verfügbarkeit auf ihrer Hostseite können in den ähnlichen Produkten erscheinen.
Testet eure Seiten mit unserem
Test-Tool für strukturierte Daten
, um sicherzugehen, dass das Produkt-Markup richtig formatiert ist.
Seht euch eure Bilder in der Bildersuche an, indem ihr nach "site:ihrebeispielurl.de" sucht. Bei Ergebnissen mit gültigem Produkt-Markup können Produktinfos erscheinen, wenn ihr auf Bilder von eurer Website tippt. Es kann bis zu einer Woche dauern, bis der Googlebot eure Website erneut gecrawlt hat.
Momentan ist die Funktion "Ähnliche Produkte" weltweit in mobilen Browsern sowie in der Google App auf Android-Geräten verfügbar. Wir möchten sie 2017 außerdem auf weitere Plattformen ausweiten.
Wenn ihr noch Fragen habt, findet ihr uns im
Webmaster Hilfeforum
. Wenn eure Bilder nicht in den ähnlichen Produkten zu sehen sein sollen, könnt ihr
verhindern
, dass Bilder eurer Seite in den Suchergebnissen erscheinen.
Die neue Funktion trägt dazu bei, dass Nutzer eure Produkte im Web finden. Gemeinsam machen wir Shoppen im Web noch schöner.
Post von Julia E, Product Manager, Bildersuche
Neue Version des Websitestatus-Tools von Google Safe Browsing
Freitag, 7. April 2017
Mit
Google Safe Browsing
können sich Nutzer vor webbasierten Bedrohungen wie Malware, unerwünschter Software und Social Engineering schützen. Die meisten Nutzer kennen vermutlich die Warnmeldungen von Google, die angezeigt werden, wenn sie versuchen, eine schädliche Website aufzurufen oder schädliche Dateien herunterzuladen. Wir bieten aber auch andere Tools an, zum Beispiel das
Websitestatus-Tool
. Damit können Nutzer den aktuellen Sicherheitsstatus einer Webseite überprüfen, ohne die Seite aufrufen zu müssen.
Dieses Tool stellen wir auf der
Safe Browsing-Seite des Transparenzberichts von Google
bereit. Wie auch bei den anderen Informationen im
Google Transparenzbericht
veröffentlichen wir diese Daten, um den Nutzern einen besseren Überblick darüber zu geben, wie sicher das Web ist. Nutzer des
Websitestatus-Tools
geben eine Webseite, das heißt eine URL, Website oder Domain, in das Tool ein und erhalten dann das aktuelle Ergebnis der Safe Browsing-Analyse für diese Website. Zusätzlich werden ihnen Referenzen zur Hilfe bei der Fehlerbehebung und Schulungsunterlagen angezeigt.
Wir haben kürzlich eine neue Version des
Websitestatus-Tools
veröffentlicht. Die Ergebnisse sind jetzt noch einfacher und eindeutiger und das Design des Tools wurde an die größte Zielgruppe angepasst: Nutzer, die das Tool über eine empfangene Safe Browsing-Warnung aufrufen oder allgemeine Informationen zur Erkennung von Malware und Phishing-Inhalten bei Google erhalten möchten. Die Benutzeroberfläche ist übersichtlicher und die Ergebnisse sind einfacher zu verstehen und noch genauer. Die etwas technischeren Angaben zu autonomen Systemen haben wir in den
Abschnitt "Malware-Dashboard" des Transparenzberichts
verschoben.
Wir haben die Benutzeroberfläche optimiert, aber nicht auf Kosten der Diagnoseinhalte: Nutzer, die genauer recherchieren und mehr Details sehen möchten, finden diese Angaben an anderen Stellen im
Safe Browsing-Transparenzbericht
und Websiteinhaber finden zusätzliche Diagnoseinformationen in der
Search Console
. Eines der Ziele des Transparenzberichts ist es, komplexe Richtlinien und Sicherheitsprobleme näher zu beleuchten. Wir hoffen daher, dass das neue Design zu einem besseren Überblick beiträgt.
Post von Deeksha Padma Prasad und Allison Miller, Safe Browsing
#NoHacked: Jahresrückblick
Freitag, 7. April 2017
Wir hoffen, ihr hattet einen sicheren Start ins neue Jahr!
In diesem Beitrag findet ihr eine Zusammenfassung unserer Arbeit im Rahmen unserer #NoHacked-Kampagne 2016. Gehen wir zu Beginn auf einige Trends des vergangenen Jahres bei gehackten Websites ein.
Statusbericht zur Sicherheit von Websites 2016
Fangen wir mit den schlechten Nachrichten an. Die Zahl der gehackten Websites ist im Vergleich zu 2015 um ca. 32 % gestiegen. Und wir rechnen nicht damit, dass sich dieser Trend abschwächt. Die zunehmende Aggressivität der Hacker in Kombination mit der steigenden Zahl veralteter Websites führt dazu, dass Hacker immer mehr Websites infizieren, um daraus Kapital zu schlagen.
Aber es gibt auch gute Nachrichten: 84 % der Webmaster, die eine
erneute Überprüfung
beantragen, können ihre Websites erfolgreich bereinigen. Jedoch haben 61 % der Webmaster, deren Websites gehackt wurden, nie eine entsprechende Benachrichtigung von Google erhalten, weil ihre Websites nicht in der Search Console bestätigt wurden. Vergesst also nicht, euch in der
Search Console
zu registrieren, wenn ihr eine Website besitzt oder verwaltet. Dies ist der primäre Kommunikationskanal, den Google für Warnmeldungen zum Status von Websites nutzt.
Mehr Hilfe für gehackte Webmaster
Wir haben uns euer Feedback zu Herzen genommen, um Webmastern mit Sicherheitsproblemen noch besser helfen zu können. Dabei wurde immer wieder eine verständlichere Dokumentation zu gehackten Websites gefordert. Wir haben daher viel Herzblut investiert, um unsere Dokumentation nützlicher zu machen.
Als ersten Schritt haben wir eine neue Dokumentation erstellt, um Webmastern im Falle einer manipulierten Website mehr Informationen zur Verfügung zu stellen. Hier findet ihr eine Liste der neuen Hilferessourcen:
Die gängigsten Methoden von Spammern beim Hacken von Websites
Glossar für gehackte Websites
FAQs zu gehackten Websites
Woher weiß ich, dass meine Website gehackt wurde?
Anschließend haben wir Leitfäden zur Bereinigung von Websites erstellt, die von gängigen Hacking-Methoden betroffen sind. Wir haben festgestellt, dass die Auswirkungen von gehackten Websites meist ähnlich sind. Nach eingehender Analyse dieser Ähnlichkeiten haben wir für bestimmte Hacking-Angriffe Leitfäden zur Bereinigung erstellt. Unten findet ihr eine kurze Beschreibung der erstellten Leitfäden:
Unsinnige Inhalte:
Bei dieser Hacking-Methode wird automatisch eine Vielzahl von Seiten mit sinnlosen Sätzen voller Keywords auf der Zielwebsite erstellt. Damit möchten Hacker erreichen, dass die gehackten Seiten in der Google-Suche erscheinen. Wenn Nutzer die Seiten dann besuchen möchten, werden sie auf eine völlig andere Seite weitergeleitet, zum Beispiel eine Website mit pornografischen Inhalten.
Weitere Informationen zur Bereinigung
.
Japanische Keywords:
Bei dieser Hacking-Methode werden in der Regel neue Seiten mit japanischem Text in zufällig generierten Verzeichnissen auf der Zielwebsite erstellt. Diese Seiten werden mithilfe von Links zu Online-Stores mit gefälschten Markenprodukten monetarisiert und dann in der Google-Suche angezeigt. Manchmal werden die Konten der Hacker in der Search Console auch als Website-Inhaber hinzugefügt.
Weitere Informationen zur Bereinigung
.
Keyword-Cloaking:
Durch diese Art von Keyword- und Link-Hacking wird automatisch eine Vielzahl von Seiten mit sinnlosen Sätzen, Links und Bildern erstellt. Diese Seiten enthalten manchmal sogar Grundbausteine der Vorlage der Originalwebsite, sodass die Seiten auf den ersten Blick wie ganz normale Bestandteile der Zielwebsite aussehen, bis man den Inhalt liest. Bei einem solchen Angriff verwenden Hacker in der Regel Cloaking-Techniken, um die schädlichen Inhalte zu verstecken und die eingefügte Seite als der Teil der Originalwebsite oder als 404-Fehlerseite aussehen zu lassen.
Weitere Informationen zur Bereinigung
.
Prävention ist der Schlüssel
Wie immer ist es am besten, Präventivmaßnahmen zu ergreifen und die Website zu sichern, anstatt sich nachher mit den Folgen herumschlagen zu müssen. Denkt immer daran: Eine Kette ist nur so stark wie ihr schwächstes Glied. Weitere Informationen dazu, wie ihr Schwachstellen auf eurer Website erkennen könnt, findet ihr in unserem
Leitfaden für gehackte Websites
. Außerdem empfehlen wir, euch im Hinblick auf die neuesten Veröffentlichungen und Bekanntmachungen eurer CMS-Anbieter sowie Software-/Hardwareanbieter auf dem Laufenden zu halten.
Ausblick
Hacking-Methoden entwickeln sich ständig weiter und dank unserer Forschungsbemühungen können wir die neuesten Trends verfolgen und dagegen vorgehen. Weitere Informationen zu unseren neuesten Forschungspublikationen findet ihr auf der
Forschungswebsite
zu Informationssicherheit. Hier haben wir einige Studien zu Websitemanipulationen für euch zusammengestellt:
Cloak of Visibility: Detecting When Machines Browse a Different Web
(Verbergen der Sichtbarkeit: Entdecken, wenn Maschinen ein anderes Web durchsuchen)
Investigating Commercial Pay-Per-Install and the Distribution of Unwanted Software
(Untersuchen der kommerziellen "Pay-Per-Install" Methode und der Verbreitung von unerwünschter Software)
Users Really Do Plug in USB Drives They Find
(Nutzer verwenden wirklich die USB-Speicher, die sie finden)
Ad Injection at Scale: Assessing Deceptive Advertisement Modifications
(Injektion von Anzeigen in großem Still: Beurteilung von irreführenden Werbemanipulationen)
Falls ihr Feedback oder Fragen zu manipulierten Websites habt, steht euch in den
Webmaster-Hilfeforen
eine aktive Gruppe von Google-Mitarbeitern und Technikexperten zur Seite, die Antworten liefern und weiteren technischen Support bieten können.
Veröffentlicht von Wafa Alnasayan, Trust & Safety Analyst und Eric Kuan, Webmaster Relations
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster