Inhaltsverzeichnis
- 03.05.2016: Webspam Report: Mehr Hacks und 4 Millionen manuelle Maßnahmen
- 12.04.2016: Google verhängt Penalties für ausgehende Links
- 16.03.2016: Wann werden Reconsideration Requests bearbeitet?
- 15.03.2016: Google zu Best Practices, manuellen Abstrafungen und separaten Inhalten
- 09.02.2016: Spammige Markups
- 04.02.2016: Schädliche Downloads
- 02.02.2016: Spam Report Bestätigung
- 04.01.2016: Cloaking in der Sitemap
- 09.12.2015: Google’s neue Reconsideration Request
- 03.12.2015: Noch mehr zu Abstrafungen für Subdomains
- 24.11.2015: Kampf gegen täuschende Netzwerke
- 06.11.2015: Spam in Rich Snippets
- 30.10.2015: Google: Manual Action bei irreführenden mobilen Weiterleitungen
- 22.10.2015: Der Google Transparenzreport
- 16.10.2015:Vorgehen gegen Linknetzwerke
- 07.10.2015: Google Algorithmus-Änderung gegen Hacker Spam
- 06.10.2015: Negatives SEO
- 24.09.2015: Hilfe für gehackte Seiten
- 21.09.2015: Strafen bei erneuten Verstößen
- 28.08.2015: Gehackte Website, 404er und Bad Links – True Story
- John Mueller antwortet
- 18.08.2015: Google’s #NoHacked-Kampagne
- 30.07.2015: Google prüft, ob die Desktop- und Mobilversionen unterschiedlich sind
- 30.07.2015: Wird Google CSS und JavaScript indexieren und damit die Sicherheit im Netz gefährden?
- 22.07.2015: Google: Sagt uns, wann eure Seite Down war
- 29.06.2015: Spam in den strukturierten Markups führt zu Manual Action
- 26.06.2015: Google sagt nicht, was Manual Actions auslöst
- 16.06.2016: Thumbtacks Manual Action ist beendet
- 11.06.2015: Trotz Manual Action: Thumbtack behält Knowledge Panel
- 10.06.2015: Thumbtack reagiert auf Manual Action
- 09.06.2015: Google’s Manual Action gegen Thumbtack
- 01.06.2015: Google-Patent zur Spam-Bekämpfung
- 18.08.2014: Google verhängt massiv Penaltys!
- 10.12.2013: Matt Cutts: Wie können sich Websites zügig von Spam Links und einem Google Penalty erholen?
- 02.08.2013: Ab sofort: Beispiel-Links bei manuellem Penalty
03.05.2016: Webspam Report: Mehr Hacks und 4 Millionen manuelle Maßnahmen
Google hat seinen jährlichen Webspam Report für das vergangene Jahr veröffentlicht. Dieser bietet zahlreiche interessante Daten und Fakten darüber, wie Google im abgelaufenen Jahr gegen die Verbreitung von Webspam gekämpft hat. Wir haben die wichtigsten Details für euch zusammengefasst.
Mehr gehackte Seiten
Im vergangenen Jahr wurden weitaus mehr Seiten gehackt als noch 2014 – insgesamt war ein Anstieg von mehr als 180% zu verzeichnen. Leider nennt Google keine grundlegenden Zahlen, aber man kann daraus sicher ableiten, dass Hacking immer noch eines der zentralen Probleme für Webmaster darstellt.
Es ist daher empfehlenswert, sich ausführlich mit der Sicherung der eigenen Seite zu beschäftigen. Dieses Thema muss es einfach wert sein, dass ein Webmaster Ressourcen darin investiert. Denn ein hack schadet nicht nur den Nutzern der Seite, sondern vor allem auch dem Betreiber selbst.
Google hat entsprechend viele Maßnahmen ergriffen, um Webmastern auf diesem Gebiet zu helfen. So gibt es seit dem letzten Jahr einen Algorithmus, der sich nur mit SPam beschäftigt, der aus Hacks resultiert. Zudem gibt es die laufende Kampagne #NoHacked, die sich mit der Sicherung von Websites beschäftigt.
4,3 Millionen manuelle Abstrafungen
Zudem hat Google im vergangenen Jahr mehr als 4,3 Millionen manuelle Abstrafungen ausgesprochen. Diese zielen vor allem auf spammige Seiten ab, von denen es laut Google auch immer mehr gibt – eine Feststellung, die nur die wenigsten unserer Leser überraschen dürfte.
Webmaster können sich nur durch eine Reconsideration Request aus diesen Maßnahmen befreien. Da es immer mehr manuelle Abstrafungen gibt, erhält Google also auch immer mehr solcher Requests. Und im letzten Jahr gab es einen Abstieg von mehr als einem Drittel im Hinblick auf Seiten, die diesen Prozess erfolgreich abgeschlossen haben.
Zudem erhält Google beim Kampf gegen den Spam viel Hilfe von seinen Nutzern. So wurden im Jahr 2015 mehr als 400.000 Spam Reports an den Suchmaschinenbetreiber gesendet. 65% davon wurden von Google ausführlich bearbeitet, wobei bei 80% von diesen Spam gefunden wurde. Google ist also weiter auf diese Art der Hilfe angewiesen.
12.04.2016: Google verhängt Penalties für ausgehende Links
Google hat am Wochenende massenhafte manuelle Abstrafungen an Websites ausgesprochen, die ein unnatürliches Profil bei ausgehenden Links aufweisen. Wer von diesem Penalty betroffen ist, kann in Search Console eine Meldung lesen, die sehr detaillierte Anweisungen gibt.
UPDATE 13.04.2016: Es geht um Produkt-Bewertungen
Es hat sich nun herausgestellt, warum vor allem Blogger von dieser aktuellen Abstrafung betroffen sind. Denn Google hat damit die Webmaster angegriffen, die Bewertungen schreiben und diese mit Follow-Links versehen – und dafür eine Gegenleistung erhalten haben.
Hierbei kann es sich zum Beispiel um kostenlose Produktproben, Rabatte oder ähnliches handeln. Und erst vor wenigen Wochen hatte Google eindringlich darauf hingewiesen, was in solchen Fällen die Best Practice ist: Nofollow-Links und ein Hinweis auf die dahinter stehende Geschäftsbeziehung.
Nun hat Google also ernst gemacht und die Blogger bestraft, die sich nicht an diese Vorgaben gehalten haben. Dies bestätigt John Mueller in mehreren Threads im Google Webmaster Hilfe Forum. Der Tenor dort ist, das bestraft wurde, wer ein Produkt oder eine Leistung erhalten hat und im Gegenzug Follow-Links verteilt hat.
Nicht alle Links auf Nofollow setzen
Um sich aus dieser Abstrafung zu befreien, ist es laut John allerdings nicht nötig – und auch nicht ratsam – sämtliche ausgehenden Links der eigenen Seite auf Nofollow zu setzen. Vielmehr sollte man sich die Zeit nehmen und schauen, welche Links wirklich in die oben genannte Kategorie fallen – und diese dann auf Nofollow umstellen.
Nichtsdestotrotz sollte man, wenn man schon dabei ist, einmal das gesamte Linkprofil durchleuchten. Denn der Hauptansatz dieser Abstrafung sind zwar bezahlte Reviews – um sicher zu gehen, dass die Reconsideration Request aber auch wirklich erfolgreich ist, sollte das Linkprofil bei der Abgabe einwandfrei sein.
Die Meldung in Search Console
“Google hat auf Ihrer Seite ein Muster von ausgehenden Links erkannt, das entweder unnatürlich oder irrelevant ist. Dieses Muster ist dazu gedacht, das Ranking von anderen Seiten in den Google Suchergebnissen künstlich zu verbessern. Ein solch unnatürliches Ranking kann dazu führen, dass Ergebnisse, die für die Suchanfrage des Nutzers nicht relevant sind, bevorzugt angezeigt werden.
Es verstößt darüber hinaus gegen die Google Webmaster Richtlinien. Daher verringern wir das Vertrauen in die Links auf Ihrer Seite. Diese manuelle Abstrafung wurde auf die Website XYZ angewendet. Um dies zu beheben müssen Sie alle unnatürlichen Links entfernen und eine Reconsideration Request abgeben. Nachdem wir feststellen, dass sie sich wieder an unsere Richtlinien halten, werden wir diese manuelle Abstrafung aufheben.”
Spammige Links als Problem
Es wurden also Seiten abgestraft, bei denen man Links einkaufen kann – bzw. die auf die eine oder andere Art unnatürliche Links ausgeben. Die betroffenen Seiten haben nicht unbedingt Rankings verloren, sind für Google aber nicht mehr vertrauenswürdig und geben daher keinen PageRank mehr weiter. Es scheint sich dabei größtenteils um Blogs zu handeln.
Es ist also davon auszugehen, dass sie über kurz oder lang wegen dieser Vertrauensprobleme auch an Rankings einbüßen könnten. Diese Seiten, und es gibt viele, die diese Abstrafung erhalten haben, müssen nun drei Schritte unternehmen, um sich aus dem Penalty zu befreien:
- Unnatürliche Links identifizieren
- Diese abbauen oder auf Nofollow stellen
- Eine Reconsideration Request abgeben
16.03.2016: Wann werden Reconsideration Requests bearbeitet?
Wer nach einer manuellen Abstrafung eine Reconsideration Request einreicht, fragt sich meistens, wann diese denn nun endlich bearbeitet wird. Denn verständlicherweise kann es dann meist nicht schnell genug gehen.
Auf der Search Marketing Expo West hat sich Juan Felipe Rincón von Google nun zu diesem Thema geäußert. Und das Vorgehen auf Google-Seite ist erstaunlich einfach: Die Requests werden chronologisch bearbeitet. Wer zuerst kommt, wird also zuerst behandelt.
Dies heißt aber nicht, dass Webmaster ihre Requests schon einreichen sollten, bevor ihre Aufräumarbeiten abgeschlossen sind. Denn da niemand weiß, wann er dran ist, würde Google dann vielleicht eine noch immer unsaubere Seite sehen und die Request ablehnen.
Es bleibt also dabei: Sobald eine Seite wirklich aufgeräumt ist, sollte eine Reconsideration Request eingereicht werden. Diese sollte übersichtlich gegliedert und in derselben Sprache wie die Website verfasst sein. So kann man dafür sorgen, dass die Bearbeitung so schnell wie möglich geht.
15.03.2016: Google zu Best Practices, manuellen Abstrafungen und separaten Inhalten
Was werbende Blogger beachten müssen?
Oft ist es so, dass Blogger über ein Produkt schreiben. In vielen dieser Fälle haben sie dann ein kostenloses Probeexemplar erhalten oder wurden anderweitig bemustert. Wie sollen sie sich dann bei der Bewertung verhalten?
Für Google liegt der Fall – im Sinne der Nutzer – klar. Webmaster, die kostenlose Exemplare eines Produktes erhalten haben, sollten dies in ihrem Artikel deutlich zur Sprache bringen. Denn nur so kann man ausschließen, eventuell in einen Gewissenskonflikt zu geraten.
Darüber hinaus empfiehlt Google, zu den Produkten wirklich einzigartige Inhalte zu erstellen, um dem Nutzer einen Mehrwert zu bieten. Und Links zu den entsprechenden Unternehmens-oder Produktseiten sollten selbstverständlich immer mit dem NoFollow Tag versehen sein.
Geheime Manual Actions?
Viele Webmaster fragen sich immer wieder, ob ihre Seite eine manuelle Abstrafung erhalten hat. Die Frage ist dann: Werden wirkliche alle Manual Actions transparent in Search Console kommuniziert – oder gibt es auch geheime Varianten?
Juan Felipe Rincón vom Manual Actions Team bei Google hat sich dieser Frage ausführlich gewidmet und sämtliche Spekulationen in diese Richtung ein für alle Mal in das Reich der Fabeln verwiesen.
Auf der SMX West hat er deutlich gesagt: “Es finden keine manuellen Abstrafungen ohne Benachrichtigung statt.” Erhält ein Webmaster nach einem starken Abfall also keine Benachrichtigung, dann handelt es sich um algorithmische Probleme.
09.02.2016: Spammige Markups
Bei Seiten, die Kochrezepte beinhalten, kann der Webmaster ein entsprechendes Markup einstellen. Und wer dies nicht per Hand machen möchte, kann auf eines der zahlreichen WordPress Plugins zurückgreifen.
Das Problem ist, dass viele der Plugins das Markup zu jeder Unterseite hinzufügen – auch wenn auf diesen gar keine Rezepte stehen. Solche Markups werden jedoch von Google als Spam gesehen und daher mit einer manuellen Abstrafung belegt. Webmaster mit entsprechenden Plugins sollten also ganz genau kontrollieren, was dort von Statten geht. Denn
04.02.2016: Schädliche Downloads
Google will dabei helfen, zu verhindern, dass Nutzer auf betrügerische Download Buttons hereinfallen. Denn hinter solchen verstecken sich zumeist wenig vertrauenswürdige Seiten, die schädliche Software verteilen.
Google versucht daher, den Nutzer durch einen Warnhinweis aufzuklären, wenn ein Link ihn glauben machen will, dass er seine Daten eingeben muss oder durch das Klicken etwas von einer vertrauenswürdigen Marke erhält. Es steht zu hoffen, dass dieses Vorgen schon kurzfristig von Erfolg gekrönt sein wird.
02.02.2016: Spam Report Bestätigung
Wer einen Spam Report an Google versendet hat, konnte bisher nie ganz sicher sein, dass dieser auch angekommen ist. Doch ab sofort versendet Google eine Bestätigungsnachricht, um den Eingang der Beschwerde zu quittieren.
Diese weist auch darauf hin, dass Google die eingegangenen Reports im Hinblick auf ihren Einfluss auf die Suchergebnisse prioritisiert. Dinge, die bei wichtigen Keywords auftreten oder große Probleme verursachen, werden also sinnvollerweise bevorzugt abgehandelt.
04.01.2016: Cloaking in der Sitemap
Von Google wird das Cloaking (also das Bereitstellen unterschiedlicher Inhalte für Nutzer und Crawler) als eine ablehnenswerte Technik angesehen, deren Verwendung zu empfindlichen Abstrafungen führen kann.
Doch bei Sitemaps gelten andere Regeln. John Mueller hat bestätigt, dass hier das Cloaking sogar explizit erlaubt ist. Denn die Sitemap ist nur für Crawler und Suchmaschinen gedacht.
Wer nun also bestimmte Crawler verbannen möchte, kann diesen andere Dinge zeigen als den offiziellen Crawlern von Google, Bing, Yandex und Co. – zum Beispiel eine not Allowed Seite, die diese Crawler ausschließt.
09.12.2015: Google’s neue Reconsideration Request
Es ist eine E-Mail, auf die zahllose Webmaster sehnsüchtig warten: Die Antwort von Google auf ein Reconsideration Request, nachdem eine Website eine manuelle Abstrafung erhalten hat.
Wenn man nach einer solchen Abstrafung alle ersichtlichen Probleme behoben hat, bittet man Google, sich die Seite noch einmal anzuschauen. Und wenn alles gut gelaufen ist, meldet sich Google und sagt Bescheid, dass die Manual Action beendet ist.
Neuer E-Mailtext
Nun hat Google den Text, mit dem die Beendigung der manuellen Abstrafungen kundgetan wird, einem Update unterzogen. Marie Haynes zeigt bei Twitter, wie er jetzt aussieht:
Nun heißt es also: “Gute Neuigkeiten! Deine Reconsideration Request wurde angenommen und Google hat alle manuellen Abstrafungen von deiner Seite entfernt. Denk daran, dass die Entfernung einer manuellen Abstrafung nicht garantiert, dass sich die Rankings deiner Seite verbessern werden.”
Eine für alle
Damit hat Google nun eine Vorlage, die für alle möglichen Reconsideration Requests verwendet werden kann – dies dürfte den Arbeitsablauf etwas vereinfachen, da keine individuellen Texte genutzt werden müssen.
Zudem ist es sinnvoll, dass Google darauf hinweist, dass die Rankings der betroffenen Seite nicht unbedingt steigen werden. Dies wird von Webmastern oft erwartet – sie vergessen dabei jedoch, dass unter Umständen die entfernten spammigen Elemente für die vormals guten Rankings verantwortlich waren.
Nicht erfolgreiche Requests
Auch für nicht erfolgreiche Requests gibt es einen neuen E-Mailtext. Einen solchen hat Robert Meinke (zum Thema spammige Links, die zu seiner Seite führen) erhalten und bei Twitter geteilt:
Kurzgefasst sagt dieser Text: Es gibt immer noch ein Schema an zweifelhaften Links. Daher wird Google beim Kalkulieren des Rankings Links als Faktor weiterhin degradieren. Wenn diese Links entfernt wurden, soll ein neuer Reconsideration Request gesendet werden – Google behält sich vor, die manuelle Abstrafung dann zu beenden.
Im Gegensatz zum Text für den erfolgreichen Request ist dieser nicht so einfach verständlich. Es scheint so, als würden nicht alle vorhandenen Links abgewertet werden, sondern nur ein Teil. Daher kann man nicht sagen, ob die Abstrafung die ganze Seite betrifft, oder vielleicht nur eigene Unterseiten.
03.12.2015: Noch mehr zu Abstrafungen für Subdomains
Immer wieder verteilt Google manuelle Abstrafungen für Verstöße gegen die Webmaster Richtlinien. Doch auf welche Teile einer Website beziehen sich diese Abstrafungen genau? John Mueller hat hierzu einige Einblicke gegeben.
Abstrafungen gelten nur für Subdomains
Denn ein Webmaster wollte nun wissen, ob eine solche manuelle Abstrafung für eine Subdomain sich auf die ganze Seite bezieht oder nur auf die spezielle Subdomain. Wird also bei einer Manual Action für eine Subdomain die ganze Website in Mitleidenschaft gezogen?
Laut John Mueller ist es in diesen Fällen so, dass die Abstrafung nur für die Subdomain gilt – der Rest der Website bleibt davon unberührt. Gute Nachrichten also für die Betreiber von betroffenen Seiten.
Wie läuft es bei www / non-www?
Eine interessante Nachfrage zu diesem Thema kam dann von den Kollegen von SEO-Südwest. Denn wie verhält es sich mit www-Subdomains? Lassen auch Abstrafungen in solchen Fällen die Hauptdomain unberührt?
Laut John ist dies nicht der Fall. Denn www und non-www sind für Google immer das Gleiche. Entsprechend gilt auch eine manuelle Maßnahme für eine von ihnen direkt für beide. Ein Sonderfall, den Webmaster auf jeden Fall im Kopf haben sollten.
24.11.2015: Kampf gegen täuschende Netzwerke
Google hat vor Kurzem angekündigt, irreführende mobile Weiterleitungen mit manuellen Abstrafungen zu belegen – egal, ob die Weiterleitung bewusst oder unbewusst geschieht. Nun hat Andrey Lipattsev in einem Hangout die entsprechenden Pläne konkretisiert.
Google will dabei mit aller Schärfe gegen irreführende Affiliate-Netzwerke vorgehen. Hier hat man es vor allem auf Netzwerke abgesehen, die den Nutzer ohne sein Wissen auf verschiedene Seiten leiten und den entsprechenden Traffic monetarisieren.
Die Aussage könnt ihr euch hier anhören. Google macht bei irreführendem Mobiltraffic also ernst – sehr zum Vorteil der Nutzer. Wir sind gespannt, wann wir die ersten Ergebnisse dieses Vorgehens sehen werden.
06.11.2015: Spam in Rich Snippets
John Mueller wurde bei Twitter gefragt, wie Google versucht, Spam in den Rich Snippets zu finden – in Echtzeit, per Refresh eines Algorithmus oder durch manuelle Reports. John’s Antwort war eindeutig.
“Ja, so ziemlich alle von denen.” Das bedeutet, dass Google auf einen Mix aus verschiedenen Methoden vertraut, um zu versuchen, die Rich Snippets spamfrei zu bekommen.
Dies unterstreicht einmal mehr, dass es Google ein großes Anliegen ist, die strukturierten Daten von Spam zu befreien. Auf diesem Gebiet werden nun auch manuelle Abstrafungen verteilt. Es steht zu hoffen, dass diese Maßnahmen weitgehend fruchten werden.
30.10.2015: Google: Manual Action bei irreführenden mobilen Weiterleitungen
Google hat schon mehrfach verlautbaren lassen, dass man gewisse Praktiken von Webmastern nicht tolerieren will und wird. Dazu gehört unter anderem, in der mobilen Version auf eine irrelevante Seite zu verlinken.
Manual Actions werden angedroht
Denn oft ist es so, dass die Inhalte für die Anzeige auf mobilen Endgeräten angepasst werden – beispielsweise durch kleinere Bilder und eine andere Seitenaufteilung. Dies ist auch grundsätzlich kein Problem.
Doch manche Webmaster übertreiben es schamlos und zeigen in der mobilen Version eine Seite mit komplett anderen – meist irrelevanten – Inhalten an. Dies verstößt gegen die Webmaster Richtlinien und soll künftig stärker geahndet werden.
Problem durch Unwissenheit
Doch nicht immer geschehen solche irreführenden Weiterleitungen gewollt. Manchmal sind diese auch versehentlich gesetzt worden oder das Ergebnis eines Hackerangriffes. Für diese Fälle zeigen Vincent Courson und Badr Salmi El Idrissi, was man tun kann, um die Fehler zu finden und zu beheben.
22.10.2015: Der Google Transparenzreport
Seit 2006 zeigt Google eine Warnung an, wenn man eine unsichere Seite ansurft. Dieser rote Bildschirm mit der Aussage, dass die dahinter stehende Seite Malware enthält, ist sicher allen Nutzern bekannt.
Meist ist jedoch nicht ersichtlich, was genau die Probleme sind. Der Nutzer kann also nicht informiert entscheiden, ob er die Seite dennoch besuchen möchte. Daher entgehen vielen Nutzern Informationen – und den entsprechenden Seiten viele Nutzer. Zudem kann man nur erahnen, wie lange es dauern wird, bis das entsprechende Problem behoben ist.
Erklärung im Transparenzreport
Hier schafft Google nun Abhilfe. Zu diesem Zweck wurde der Transparenzreport um eine Seite erweitert. Hier werden der Seitenstatus angezeigt und die Gründe für den Warnhinweis erklärt.
Nun ist es Nutzern also möglich, im Zweifelsfall alle wichtigen Informationen zu einer Webseite auf einen Blick zu erhalten. Damit sollte sich das Surfen einfacher und sicherer gestalten lassen.
16.10.2015:Vorgehen gegen Linknetzwerke
Viele Rankings von Black Hat SEOs sind gerade über Nacht abgefallen – und das deutlich. Es scheint, als habe Google sich einem bekannten Linknetzwerk angenommen, unter Umständen dem SAPE Netzwerk.
Genau kann man dies jedoch nicht sagen – vielleicht wurden auch mehrere Linkquellen auf einmal angegangen. Für das SAPE Netzwerk spricht laut Barry Schwartz, dass es vor einigen Jahren schon einmal abgestraft wurde. Die harten Ranking-Verluste der letzten Tage könnten also daher stammen, dass Google Wiederholungstäter nun schärfer bestrafen will.
07.10.2015: Google Algorithmus-Änderung gegen Hacker Spam
Google verstärkt seinen Kampf gegen Hacker. Zu diesem Zweck wurden in den letzten Wochen mehrere Updates an seinen Algorithmen durchgeführt. Diese sollen dabei helfen, von Hackern verursachten Spam aus den Suchergebnissen zu entfernen.
Damit will Google die Seiten unterstützen, die unverschuldet Ziel eines Hacker-Angriffs geworden sind. Denn diese verbreiten in Folge einer solchen Attacke oft (unwissentlich) schädliche Programme oder ähnliches.
Etwa 5% der Suchanfragen betroffen
Von diesen Algorithmusänderungen sollen etwa 5% aller Suchanfragen betroffen sein. Hier werden künftig nur noch die relevantesten Suchergebnisse angezeigt, was die Anzahl der angezeigten Ergebnisse unter Umständen vorübergehend verringern kann – dies wird sich jedoch wieder normalisieren, sobald die Suchmaschine sich an die Entfernung von zahlreichen Ergebnissen gewöhnt hat.
Google hofft, das Problem der gehackten Seiten damit etwas eindämmen zu können. Wem auffällt, dass (s)eine Seite Ziel eines Angriffs wurde, sollte sich über die Hilfeforen direkt an Google wenden – man kann auf diesem Wege vielleicht auch Unterstützung von anderen Webmastern erhalten.
UPDATE: Betrifft nur spammige Suchanfragen
Gary Illyes hat bei einer Konferenz mitgeteilt, dass diese Algorithmusänderungen nur Suchanfragen betreffen, die sich im spammigen Umfeld befinden. Auf Nachfrage hat er dies zudem bei Twitter bestätigt.
Dies ist zwar ein Schritt in die richtige Richtung, jedoch werden auch Seiten aus anderen bereichen gehacked. Diese würden von diesem System ebenfalls profitieren. Es steht daher zu hoffen, dass Google die Änderungen erst einmal in einem Bereich ausprobiert, bevor sie dann überall angewendet werden.
06.10.2015: Negatives SEO
Wie in jeder Branche gibt es auch in der Suchmaschinenoptimierung Anbieter, die es mit den Regeln nicht so genau nehmen. Denn oft ist es einfacher, den Konkurrenten auf zwielichtigen Wegen zu bekämpfen, anstatt selbst gut Arbeit zu leisten.
So werden Seiten von anderen Anbietern mit Spam beschossen oder gar gehacked. Dies kann zu kurzfristigen oder nachhaltigen Schäden führen – meist auf Kosten von Unschuldigen, die sich an die Regeln gehalten haben.
Wie kann man sich schützen?
Diesen Dingen geht Marcela De Vivo in ihrem Artikel auf Search Engine Watch etwas genauer auf den Grund. Denn Sie hatte zuvor selbst eine Mail erhalten, in der eine “SEO-Firma” anbot, die Konkurrenz in ihrem Namen zu vernichten.
Ihr Beitrag ist absolut lesenswert – auch und gerade, da sie mögliche Gegenmaßnahmen bespricht. Zudem gibt es in den Kommentaren einige interessante Diskussionen zum Thema. Insgesamt zeigt der Artikel, wie wichtig es ist, dass White Hat SEO sich die Nachhaltigkeit zum Ziel setzt – denn damit werden Anbieter und Kunden auf lange Sicht immer besser fahren.
24.09.2015: Hilfe für gehackte Seiten
Die Anzahl an Webseiten, die Opfer eines Hackerangriffes werden, nimmt stetig zu. Google möchte Webmastern bei dieser Problematik hilfreich zur Seite stehen. Neben der #nohacked Kampagne steht hier auch die Reconsideration Request im Fokus.
Hier ist Google dabei, den Prozess zu optimieren, um die Erholung von betroffenen Seiten zu vereinfachen. Der Hauptfokus liegt dabei auf einer verbesserten Kommunikation zwischen Google und dem Webmaster, besseren Tools und einem dauerhaften Feedback-Prozess. So können nun Manual Actions nach einem Hackerangriff teilweise automatisch zurückgenommen werden, um den Prozess abzukürzen.
Dies sind Schritte in die richtige Richtung. Webmaster, deren Seite ohne eigenes Verschulden gehacked wird, brauchen fraglos die bestmögliche Unterstützung durch Google. Denn falsche Maßnahmen in der Krise können zu langfristigen Problemen führen.
21.09.2015: Strafen bei erneuten Verstößen
Es ist bekannt, dass Google verschiedenste automatische und manuelle Strafen im Katalog hat, um Webseiten zu bestrafen, die gegen die Webmaster Richtlinien verstoßen.
Betroffene Seiten werden in Search Console auf die entsprechenden Verstöße hingewiesen und können nach ausführlichen Aufräumaktionen eine Reconsideration Request einreichen, um sich aus der Abstrafung zu befreien.
Schärfere und längere Strafen bei Wiederholungstätern?
Doch was passiert, wenn dieselbe Seite wieder auffällig wird? Wenn beispielsweise Links auf Nofollow gesetzt wurden, dieses Attribut aber später wieder entfernt wird. Oder wenn spammige Texte verbessert wurden, nur um später wieder die alte Version zu nutzen.
Google behält sich dann vor, weitere Maßnahmen zu ergreifen. Dies ist schwammig formuliert, kann aber eigentlich nur eines bedeuten. Wird eine Seite mehrmals für denselben Verstoß gemaßregelt, fällt die Strafe schlimmer aus. Dies kann bedeuten, dass Google Wiederholungstäter nicht so leicht aus der Maßnahme entlässt, oder die Maßnahme selbst schwerer ausfällt.
Dies ist von Seiten Google’s der einzig gangbare Weg. Denn Webmastern, die wiederholt und wissentlich gegen die Richtlinien verstoßen, sollte das Leben nicht zu leicht gemacht werden. Entsprechend schärfere oder langwierigere Strafen können hier Wunder wirken.
28.08.2015: Gehackte Website, 404er und Bad Links – True Story
Marco Janck postete vor einigen Tagen auf Facebook, dass Google anscheinend ganz schön nachtragend sei, da seine im März gehackte Seite, die mit Badlinks beschossen wurde und nun zahlreiche 404er-Seiten produziert, sich einfach nicht mehr erholt.
Die Fakten
Die schlechten Links sind laut Marco in Millionenhöhe gewesen. Auf der Grafik oben sieht man die erstellten Seiten Domainlinks (Anstieg von 811 auf 2080 laut Sistrix) und Linkpop von 27k auf 1,5 Mio.
Schauen wir uns die Rankings an, sehen wir folgendes Bild:
295 zu 81 Top 100 Rankings. Datum: 4.5.15 – das Google eine Website nach einem Hack drastisch runterstuft, ist normal. Nach Bereinigung hat man in der Regel aber relativ schnell seine alten Rankings wieder (wird von John im nachfolgenden Video auch so bestätigen).
Die Frage
Nach dem Löschen der Spam-URLs entstanden 404er, die Bad Links zeigen noch immer auf die Domain. Die Links wurden natürlich per Disavow gemeldet. Wieso ist die Webseite noch immer unten und hat sich nicht erholt? Im o.g. Facebook Posting und den Kommentaren waren dann schnell die Meinungen so, dass es an den 404ern und den Bad Links, die auf diese verweisen, liegt.
Wie wir aber schon mehrfach berichten, streitet Google das ab und sagt 404 und 404s geben keinen PR/Linkjuice weiter. Dennoch ist der Zusammenhang natürlich nicht von der Hand zu weisen und mich interessierte die Frage, was nun Google dazu sagt.
John Mueller antwortet
Ich habe also John Mueller von Google direkt gefragt, wieso die Seite dort unten noch steht und ob die 404er Schuld sein können – oder die darauf verweisenden Bad Links.
Leider war diese Antwort aus meiner Sicht so natürlich nicht zufriedenstellend. Also habe ich John angedroht ihn im Hangout damit weiter zu nerven – was ich dann ja auch gemacht habe.
Die Website rankt so, wie sie laut Algorithmus ranken soll. 404er sind nicht problematisch, die Links auf die 404er werden entwertet und müssten nicht mal per Disavow gemeldet werden (hat aber auch keinen Nachteil). Die o.g. Aussagen von 404er und Links auf diese sind also korrekt.
Auf die Frage von mir nach einer eventuellen Neuberechnung nach dem Hackingangriff wurde Folgendes geantwortet:
Vom Zeitlichen ist es sicherlich irgendwie komisch, ich würde an deiner Stelle das auch genauer ansehen und schauen, ob ein Zusammenhang mit Änderungen vorhanden ist. Neue Seiten, die erstellt werden oder andere Dinge bei den Aufräumarbeiten passieren, können diese Auswirkung haben. In diesem Zeitrahmen ist einfach eine Rankingveränderung passiert, das macht es sehr schwierig als Außenstehender herauszubekommen, was der Grund für die Veränderungen ist.
Fazit:
Google bestätigt noch einmal: 404 und 404s sind nicht schädlich für eine Website, auch nicht im großen Umfang. Links, die auf diese zeigen, werden nicht gewertet und leiten keinen PR / Linkjuice weiter.
Dennoch bleibt ein bitterer Beigeschmack – den ja auch John durch den zeitlichen Zusammenhang einräumt. Fakt ist, es wird gesagt, Seonauten steht da, wo die Website auch ohne den Hackingangriff stehen würden (bei den gleichen Maßnahmen durch die Webseitenbetreiber). Marko sagt, sie haben nichts weiter gemacht, als die 404er zu bekämpfen.
Ich finde einen Punkt recht interessant und zwar steht die Seite nun leicht schlechter da als vor dem letzten Pinguin Update. Es scheint mir quasi so, als ob hier wirklich eine Neubewertung der Links stattgefunden hat. Darauf ist John gar nicht im Video eingegangen. Das letzte Pinguin sorgte ja für einen sprunghaften Anstieg, dieser ist nun weggefallen.
Natürlich werden nun einige dabei bleiben und sagen, Google lügt uns an, es sind die Bad Links und 404er. Ich gehe eher von einer Neuberechnung nach dem Hackinganrgiff aus oder dass eben die Maßnahmen, die während des Hackinganriffes getroffen wurden, suboptimal für das Ranking waren. Genau sagen wird das aber keiner können. Entweder Ihr glaubt der Aussage von John oder nicht – das muss nun jeder für sich selbst entscheiden.
Marco auf jeden Fall würde sich über Eure Meinung sehr freuen.
18.08.2015: Google’s #NoHacked-Kampagne
Seit letztem Monat schenkt Google seiner #nohacked-Kampagne verstärkte Aufmerksamkeit. Erklärtes Ziel ist es, dafür zu sorgen, die immer weiter ansteigenden Hacks einzudämmen – unter anderem durch Aufklärung von Webseitenbetreibern.
Teil 1: Grundlegendes
Im ersten Beitrag am 27. Juli geht es um grundsätzliche Tipps, die der Sicherheit einer Webseite dienen sollen. Hier rät Google, ein einzigartiges Passwort, bestehend aus verschiedensten Charakteren, anzulegen. Dieses sollte niemals auf anderen Webseiten eingegeben werden.
Zudem wird geraten, bei der Aktualisierung der Software nicht nachlässig zu sein, sondern immer alles Up-to Date zu halten. Hierfür ist es auch wichtig, die Sicherheitslinien des Hosters zu kennen und für gut zu befinden. Um eventuell gehackte Inhalte auf der eigenen Seite zu finden, empfiehlt Google Tools wie Search Console und Alerts.
Teil 2: Social Engineering
Während der erste Beitrag also eher grundlegende Tipps für Anfänger enthält, geht es ab dem zweiten Beitrag am 03. August mehr ins Detail. Hier geht es darum, wie man Social Engineering erkennen und verhindern kann. Eine der meist genutzten Arten des Social Engineering ist Phishing.
Hier werden Nutzer getäuscht und damit dazu gebracht, vertrauliche Informationen weiterzugebnen – laut Studien ist dieses Vorgehen sehr erfolgreich. Oft sind entsprechende Programme auch in nachgemachter Software zu finden – das Herunterladen sollte also nur aus vertrauenswürdigen Quellen (wie der Homepage des Entwicklers) geschehen. Google empfiehlt daher, wachsam zu sein und die Zwei-Faktor-Authentifizierung zu verwenden.
Teil 3: Zwei-Faktor-Authentifizierung
Dieses Vorgehen wird daher im dritten Beitrag am 11. August genauer beleuchtet. Der Sinn hinter der Zwei-Faktor-Authentifizierung ist, dass immer mehr Webseiten allein durch das Passwort und die Sicherheitsabfrage nicht mehr geschützt werden können.
Es handelt sich hierbei beispielsweise um Bestätigungscodes, die dem Nutzer auf das Handy gesandt werden. Dies ist verstärkt auch per App möglich. Wird diese doppelte Form der Sicherung genutzt, so ist es für Hacker schwieriger, eine Seite an sich zu nehmen – auch, wenn sie das Passwort bereits kennen.
Teil 4: Wie erkennt man einen Hack?
Im vierten Teil vom 17. August geht es dann darum, wie man erkennt, dass bereits ein Hack vorliegt. Oft ist es offensichtlich, da neue Seiten mit sinnlosen Inhalten zu einer Webseite hinzugefügt wurden. Dies wird jedoch immer häufiger durch Cloaking versteckt, was die Erkennung schwieriger gestaltet.
Hierbei helfen laut Google Dinge wie Google Alerts und Fetch as Google, um herauszufinden, was in den Suchmaschinen wirklich angezeigt wird. Zudem werden Links zu hilfreichen Seiten geboten, auf denen Webmaster Erste Hilfe erfragen können. Des Weiteren werden mehrere Tools empfohlen.
Auch wenn Google in den bisherigen Beiträgen oft eigene Produkte empfohlen hat, ist die Durchführung einer solchen Kampagne zu begrüßen. Denn dank Google’s Reichweite wird eine kritische Öffentlichkeit geschaffen – und Webmaster werden zusätzlich für die Probleme des Hacking sensibilisiert.
30.07.2015: Google prüft, ob die Desktop- und Mobilversionen unterschiedlich sind
Trotz des Mobilupdates im April rankt Google noch immer zahlreiche Desktopseiten in der mobilen Suche. Laut Gary Illyes hat die Suchmaschine jedoch Methoden, um dies zielgerichtet zu tun.
Auf Twitter antwortete er, dass Google nachprüft, ob zwischen Desktop- und Mobilversion große Unterschiede vorherrschen. Hiermit will Google in erster Linie Spamversuche verhindern. Denn wer auf der Desktopversion einer Seite hervorragende Inhalte bietet und daher gut (in der Desktopsuche und der mobilen Suche) rankt, sollte die entsprechenden Inhalte auch auf der mobilen Seite anbieten.
Qualitätskontrolle zur Spamvermeidung
Ist die mobile Seite nun eine andere – im Normalfall schlechtere – Version der Desktopseite, würde die Suchintention von mobilen Nutzern nicht befriedigt werden. Daher macht es Sinn, dass Google sich durch entsprechende Tests rückversichert, bevor eine solche Seite in den Rankings weit oben auftaucht.
Was Gary Illyes nicht verrät, ist, wie Google bei diesem Thema vorgeht. Wie wird getestet und was passiert, wenn ein Regelverstoß gefunden wird? Eine Manual Action, oder vielleicht sogar die dauerhafte Löschung aus dem Index? Wie auch immer das Vorgehen aussieht, bisher scheint es zu funktionieren. Die Berichte über solche Spamseiten in den mobilen Suchergebnissen halten sich in Grenzen – oder sind euch Fälle bekannt?
30.07.2015: Wird Google CSS und JavaScript indexieren und damit die Sicherheit im Netz gefährden?
Gestern berichteten wir darüber, dass Google in der Search Console Warnmeldungen an Webmaster verschickt hat, die verhinderten, dass CSS und JavaScripts gecrawlt werden. Da wir unsere Berichte auch mit den Usern im Ayom Forum diskutieren, kam da eine interessante Frage bzw. Befürchtung auf.
Was wird mit den ausgelesenen Daten eigentlich passieren? Werden diese indexiert und wenn ja, können diese Daten dann nicht einfach mißbraucht werden?
In der Tat sehe ich schon heute JavaScript Dateien von Webseiten, wo das bisher nicht gesperrt ist. (ext:js jquery) Würde Google nun mehr “Code” indexieren, wären Sicherheitslücken noch schneller auslesbar. Hacker könnten sich also eine Shoppingliste an unsicheren Seiten zusammenstellen, welche sie dann einfach “abarbeiten”.
Das ist natürlich nicht im Interesse von Google und daher habe ich John Muellerangeschrieben und nachgefragt. Hier seine originale Antwort:
“In kurz …
– “filetype:” ist fuer solche Suchen, z.B. https://www.google.com/search?q=filetype%3Apdf%20schnitzel
– Embedded Content (also JS, CSS, usw welches in den Seiten integriert ist) wird nicht fuer die Web-Suche verwendet, man kann also nicht danach suchen.
– Blockieren per robots.txt ist keine Sicherheitsmassnahme; diese URLs koennen trotzdem (ohne Crawling) indexiert werden. x-robot-tag mit noindex ist besser, oder noch besser, den Exploits keinen Angriffspunkt geben, und sicherstellen, dass alles immer aktuell auf dem neuesten Stand ist. Hackers halten sich sicher nicht an die robots.txt :)”
Google wird keinen Embedded Content indexieren
Damit ist die Aussage klar. Google möchte hier keine weiteren Daten, die ein Ausnutzen dieser Daten erleichtern, in den Index bringen. Dennoch müssen Webmaster natürlich auch selber Sorge tragen, ihre Website so sicher wie möglich zu gestalten.
Anregungen oder Meinungen zu diesem Thema? Dann immer her mit den Kommentaren oder gerne Eurer Beteiligung im Forum.
22.07.2015: Google: Sagt uns, wann eure Seite Down war
Google’s Gary Illyes war viel im Netz unterwegs. Wir haben seine wichtigsten Aktivitäten und Aussagen für euch zusammengefasst.
Zum einen bittet er darum, dass Webmaster, deren Seiten in letzter Zeit offline waren, mit ihm in Kontakt treten. Er spricht damit Seitenbetreiber an, deren Seite in den letzten Wochen für mindestens eine halbe Stunde down war.
Er hat nicht gesagt, warum er diese Daten braucht. Aber im Webmaster Hangout vom 02.07.verriet John Mueller, dass Google die Einrichtung eines Warnsystems für Webmaster plant. Dieses solle in Search Console darauf hinweisen, wenn eine Seite down ist – unter Umständen sammelt Gary Illyes momentan Daten in diese Richtung.
display:none und Keyword Stuffing
Gary hat zudem dargelegt, dass die Nutzung von display:none zu Problemen führen kann. Google könnte unter Umständen den Inhalt geringer bewerten. Auch sei es möglich, in Bereiche des Cloaking zu kommen, wenn der Suchmaschine etwas anderes angezeigt wird als dem Nutzer.
Darüber hinaus hat Gary einem Webmaster via Twitter nahegelegt, das Keyword-Stuffing auf seiner Seite zu beenden. Dies dürfte als freundlicher Hinweis verstanden werden, bevor es zu einem Penalty kommt (wenn es nicht schon einen gibt).
29.06.2015: Spam in den strukturierten Markups führt zu Manual Action
Wer via Schema.org ein Markup für seine Seite einbaut, sollte dabei vorsichtig vorgehen. Google hat bereits mehrfach anklingen lassen, dass die entsprechenden Daten sorgfältig eingetragen werden sollten – und ergreift nun scheinbar Maßnahmen wenn dies nicht der Fall sein sollte.
Was tut Google?
Grundsätzlich ist es immer zu empfehlen, diese Markups zu nutzen. Sie verbessern die Anzeige in den organischen Suchergebnissen und füttern Google’s Knowledge Graph. Es ist jedoch von absoluter Wichtigkeit, diese Möglichkeit mit Bedacht und Genauigkeit zu nutzen, da Google mittlerweile entsprechende Manual Actions verhängt. Diese zielen darauf ab, eine falsche Anwendung der Schema Markups einzudämmen.
Die entsprechende Nachricht in Search Console spricht davon, dass Markup auf der entsprechenden Seite beispielsweise Inhalte bewirbt, die für die Nutzer nicht sichtbar sind, irrelevanten oder irreführende Inhalte anzeigt oder andere manipulative Taktiken nutzt. Da diese gegen die Rich Snippet Richtlinien verstoßen würden, müsse Google den entsprechenden Penalty aussprechen.
Mit harter Hand gegen Spammer
Eine solche Vorgehensweise von Seiten Google’s ist fraglos zu unterstützen. Die Rich Snippets dienen Webmastern dazu, die zentralen Inhalte ihrer Seite zu bewerben, unterstützen die Suchmaschine beim Finden und Anzeigen dieser Inhalte und helfen dem Nutzer beim Aussuchen der passenden Seiten. Webseitenbetreiber, die den Sinn und Zweck der Markups unterlaufen, werden daher zurecht bestraft. Nur so kann es gelingen, die Manipulation der Suchergebnisse einzudämmen. Google tut also gut daran, mit harter Hand gegen falsche Rich Snippets vorzugehen.
26.06.2015: Google sagt nicht, was Manual Actions auslöst
Auf Twitter fragte Joe Hall, aufgrund welcher Faktoren eine Manual Action bei Google ausgelöst wird und wunderte sich, woran Google merkt, dass eine Seite genauer untersucht werden muss.
Barry Schwartz fand diese Frage interessant und leitete sie an Gary Illyes weiter. Dessen Antwort war jedoch eindeutig – kein Kommentar. Barry spekuliert jedoch, dass Manual Actions beispielsweise durch das Auffinden von Linknetzwerken, durch Spam Reports und durch öffentliche Anklagen ausgelöst werden.
Dies ist eine Frage, deren Antwort sicherlich alle aktiven SEOs interessiert – es ist jedoch davon auszugehen, dass Google sich hier auch zukünftig nicht in die Karten schauen lassen wird. Ebenso, wie der Konzern seinen Algorithmus geheim hält, will er auch die dahinterstehenden Methoden nicht in der Öffentlichkeit diskutieren. Das ist insofern verständlich, als das Webseitenbetreiber sicherlich immer auf ein einmal festgelegtes Verfahren bestehen würden. In dem über diese Abläufe nichts offiziell bekannt gegeben wird, sichert Google sich also seine Flexibilität für künftige Fälle.
16.06.2016: Thumbtacks Manual Action ist beendet
Wir waren bereits in unserer ersten Meldung der Meinung, dass Thumbtack eine interessante Fallstudie werden dürfte – dies ist nun eingetreten. Denn während die meisten Manual Actions monatelange Auswirkungen haben, ist hier der Spuk nach nur wenigen Tagen vorbei. Zahlreiche SEOs kritisieren nun, dass Google hier unverhältnismäßig schnell gehandelt habe – dies lege den Verdacht nahe, dass Google Thumbtack nicht zu sehr schaden wollte.
Neue Art der Manual Action?
Vielleicht sehen wir hier jedoch die Zukunft der Manual Action – wo ein Unternehmen, das sofort reagiert und seinen Fehler eingesteht, mit einer schnellen Klärung des Falls belohnt wird. Jennifer Slegg weist zudem darauf hin, dass Thumbtack schon vor der Manual Action damit beschäftigt war, sein Linkprofil zu überarbeiten. Dafür spricht auch, dass Google in der Vergangenheit mehrfach seine eigenen Dienste mit einem längerfristigen Penalty belegt hatte.
Alles in allem steht zu hoffen, dass Google auch bei künftigen Fällen entsprechend schnell handelt – sowohl beim Aussprechen wie auch beim Beenden einer Strafe. Der Fall Thumbtack, so kurz er auch gedauert hat, war ein spannender Einblick in die Bestrafungsmechanismen der weltweit größten Suchmaschine.
11.06.2015: Trotz Manual Action: Thumbtack behält Knowledge Panel
Wir haben bereits darüber berichtet, dass Thumbtack von Google mit einer Manual Action bedacht wurde. Nun ist Jennifer Slegg von The SEM Post ein interessantes Detail zu diesem Fall aufgefallen. Trotz der Manual Action und der damit verbundenen Entfernung der offiziellen Firmenwebsite aus den Suchergebnissen, wird das Knowledge Panel zu Thumbtack weiterhin angezeigt (einen entsprechenden Screenshot findet man in der Quelle).
Dies ist insofern interessant, als das es zeigt, dass eine Manual Action nicht die komplette Verbannung eines Unternehmens aus der organischen Suche bedeutet. Das Knowledge Panel, welches für viele Nutzer unter Umständen sogar wichtiger ist als das erste Suchergebnis, bietet weiterhin die Möglichkeit, das Unternehmen kennen zu lernen. Wichtig ist jedoch, dass das Panel nur noch aus Informationen besteht, die Google von anderen Seiten erhalten hat.
10.06.2015: Thumbtack reagiert auf Manual Action
Thumbtack, die von Google geförderte Firma, die eine Manual Action wegen unerlaubten Linkgeschäften erhalten hatte, hat heute reagiert.
In einem Schreiben an alle Geschäftsparter, die zuvor zum Setzen von Links aufgeforderten wurden, bittet Thumbtack, diese Links zu löschen oder auf nofollow zu setzen. Thumbtack gibt zudem zu, dass ihr Vorgehen nicht in Einklang mit den Google Webmaster Richtlinien war und übernimmt damit Verantwortung für die Manual Action. Das Schreiben ist im Original bei Search Engine Roundtable (siehe Quelle) zu finden.
Es wird nun interessant sein, zu beobachten, wie schnell sich Thumbtack aus der Manual Action wird befreien können.
09.06.2015: Google’s Manual Action gegen Thumbtack
Thumbtack, eine große Website für US-Personaler, wurde von Google mit einer Manual Action wegen Verstoßes gegen die Richtlinien für Webmaster bedacht. In diesem konkreten Fall werden die Linkaufbaustrategien von Thumbtack beanstandet. Das Unternehmen hat seine Mitglieder per E-Mail dazu aufgefordert, Links zu setzen – und im Gegenzug eine Steigerung des internen Punktekontos angeboten. Während Thumbtack dies nicht als illegale Linkkäufe ansieht, haben Google-Offizielle offensichtlich anders entschieden. Daher rankt die offizielle Firmenwebsite mittlerweile nicht mehr (weder für die Suche nach dem Firmennamen, noch für tausende andere Keywords).
Google gegen Google
Der Fall Thumbtack ist insofern interessant, als das Google seit letztem August in diese Firma investiert. Mit der Manual Action schneidet sich der Konzern also ins eigene Fleisch (oder macht er am Ende sogar Gewinn damit, da der Vorgang Thumbtack in der Online-Szene bekannter macht?). Dies ist zudem nicht das erste Mal, dass Google eine Manual Action gegen sich selbst – oder ein Partnerunternehmen – ausspricht. Eine spannende Übersicht zu diesem Thema gibt es bei Search Engine Land.
Was jetzt?
Es wird äußerst interessant sein, die Entwicklung der Thumbtack-Website in den kommenden Wochen zu beobachten. Dieser Fall kann als anschauliches Echtzeit-Experiment dafür dienen, die Reaktionen einer Firma auf eine Manual Action zu analysieren. Vor allem im Hinblick auf die Klärung des Vorgangs durch Google und die Entwicklung in den Rankings dürfte dies für interessantes Lernmaterial für SEOs sorgen. Da Thumbtack bisher sehr offen mit dem Penalty umgegangen ist – auch wenn Firmenvertreter jegliches Fehlverhalten abstreiten – dürfte zudem für eine Fülle an Quellen sorgen. Wir sind gespannt!
01.06.2015: Google-Patent zur Spam-Bekämpfung
In der vergangenen Woche wurde Google ein – unter Umständen – wegweisendes Patent genehmigt: Ein Tool zum Herausfiltern von Spam in den sozialen Netzwerken. Dieses neue Programm soll nicht nur Spam-Kommentare erkennen, sondern auch entsprechend auf sie reagieren können. Der Text des Patents nennt hier vom Verhindern der Veröffentlichung bis zum Sperren des Nutzers verschiedene Möglichkeiten.
Das von Christopher Jones und Stephen Kirkham erfundene Tool geht methodisch vergleichsweise simpel vor: Für jeden eingereichten Beitrag wird ein Fingerabdruck generiert. Diese neuen Fingerabdrücke werden auf der Basis verschiedener – nicht-öffentlicher – Kategorien mit bereits bestehenden vergleichen. Gibt es keine Übereinstimmungen, so wird der Post freigeschaltet, andernfalls treten die oben beschriebenen Mechanismen in Kraft.
Neue Möglichkeiten der Spam-Bekämpfung
Mit diesem Patent bieten sich ungeahnte Möglichkeiten, die lästigen Spamattacken in den sozialen Netzwerken zu bekämpfen. Jedoch, wie Google im Patenttext betont, nicht nur dort! Das Tool soll in verschiedenen Umgebungen, wie WordPress, Blogs und anderen Seiten, die Kommentare zulassen, funktionsfähig sein. Damit könnte nicht nur das Finden von Spam automatisiert und vereinfacht werden, sondern auch das Erkennen und Sperren von ausschließlichen Spamaccounts wird wesentlich vereinfacht.
Es ist jedoch wichtig zu erwähnen, dass Nutzer nicht leichtfertig gesperrt werden. Der Text des Patents spricht davon, dass „wenn eine Anzahl doppelter Kommentare von einem Nutzer innerhalb kurzer Zeit veröffentlicht wurden, oder wenn sich herausstellt, dass ein Account oft von Spammern genutzt wird, dann ist die Wahrscheinlichkeit groß, dass es sich um Spam handelt. Ist dies der Fall, wird der Account des Nutzers gesperrt und der Mechanismus ist beendet.“ Ein einmaliges Versehen und seltene beziehungsweise sinnvolle Doppelposts werden nicht zu negativen Konsequenzen führen.
Spam ist, nicht nur in den sozialen Medien, ein leidiges Thema. Es steht zu hoffen, dass dieses neue Patent einen weiteren Schritt zur Eindämmung von Webspam darstellt. Wir werden das Thema jedenfalls weiter verfolgen und euch über Erfolge und Misserfolge berichten.
18.08.2014: Google verhängt massiv Penaltys!
Am 17.08.2014 gab es eine große Welle von Penaltys durch Google. Ein Penalty ist eine manuelle Abstrafung.
Sie wird von einem Mitarbeiter von Google verhängt und immer dann ausgesprochen, wenn eine Webseite gegen die Google Webmaster Richtlinien verstößt (und dies auch auffällt).
Am Sonntag kam es anscheinend zu einer ganzen Reihe dieser Penaltys. So berichten mehrere Webmaster über eine Penalty Benachrichtigung in den Webmaster Tools. Auch jetzt in den frühen Morgenstunden, wo viele die Benachrichtigung wohl erst lesen werden, kommen Meldungen rein.
- http://www.abakus-internet-marketing.de/foren/viewtopic/t-126371.html#953953
- http://www.sellerforum.de/seo-sem-eintragung-bei-google-bing-und-co–f70/google-eine-manuelle-spam-masnahme-verhaengt-t39225.html
- http://everestforum.de/seo-suchmaschinenoptimierung/2727-unnatuerliche-eingehende-links-laut-google.html
Edit 18.08. – Google gibt bekannt, dass ein deutsches und ein europäisches Linknetzwerk hochgenommen wurde und verweist auf Penaltys bzw. unnatürliche Links!
Prüfen – Bin ich vom Penalty betroffen?
Wie angesprochen, bedarf es einer Mitteilung in den Webmaster Tools. Hier steht auch, warum die Seite abgestraft wurde.
Es wurden dieses Mal auch erstmalig die kürzlich neu geänderten Richtlinien in Bezug auf den Inhalt einer Webseite umgesetzt.
Google hat die Qualitätsrichtlinien um den Punkt “Webseiten mit wenig oder keinem originalen Content” ergänzt. Google hat ein Muster auf Ihrer Webseite erkannt. Kopierte Inhalte oder die Generierung von automatischen Inhalten stellt ein Verstoß gegen die Google-Richtlinien für Webmaster dar. Aufgrund kopierter Texte von Ihrer Webseite hat Google eine manuelle Spam-Maßnahme gegen xxxx verhängt. Gegebenenfalls erfolgen weitere Maßnahmen für Ihre Website oder Teile davon. Die manuelle Maßnahme wird aufgehoben, sobald Ihre Website nicht mehr gegen unsere Richtlinien verstößt.
Dies bedeutet also, dass gerade Händler, die ausschließlich mit kopierten Artikelbeschreibungen arbeiten, nun auch auf sehr dünnem Eis stehen und nun doch dazu gezwungen sein werden, individuelle Beschreibungen und Inhalte zu schaffen.
Es gibt zahlreiche Gründe für einen Penalty. So kann es auch sein, dass eine Webseite abgestraft wurde, weil sie selber Links verkauft.
Ich bin betroffen – erste Schritte
Als allererstes muss man sich im Klaren drüber sein, was gerade passiert ist. Eine manuelle Abstrafung bedeutet, dass ein Mensch diese ausgesprochen hat und auch wieder aufheben kann. Ein Penalty ist viel einfacher zu bekämpfen, als zum Beispiel der Pinguin Algorithmus.
Manchmal sendet Google Beispiele mit. Wenn dies so ist, dann sollte man sich genau diese Art der Links ansehen und in seinem Portfolio markieren. Oftmals ist es jedoch leider so, dass Google keinen Tipp gibt.
1. Lade Dir alle Backlinks aus den Webmaster Tools und anderen verfügbaren Quellen herunter.
2. Gehe die Backlinks / Domain Links händisch durch. Wenn dies nicht zu bewältigen ist, sortiere grob vor.
3. Benutze in allen Phasen ein Ampelsystem. Rot wird sofort bearbeitet, orange, wenn rot fertig ist und der Penalty noch besteht. Grün sind ungefährliche / organische Links.
4. Sei ehrlich zu dir selber. Am besten ist es, wenn man eine Liste von gekauften / gemieteten Links hat und über sein Backlinkprofil Bescheid weiß.
5. Überprüfe, ob deine gesamte Webseite abgestraft wurde oder nur einzelne Seiten.
Links abbauen und Neuantrag
Es gibt hier verschiedene Möglichkeiten:
1. Man ist ehrlich und nennt Google alle rot und orange markierten Links in einem Rutsch.
2. Mann nennt nur rot markierte Links. – Es kann sein, dass die Beseitigung des Penaltys dann länger dauert. Unter Umständen kann man jedoch einige kritische Links behalten.
3. Man stellt alle Links in einer Liste zusammen, die man dann im Disavow Tool hoch lädt und weist Google dann auf diese Liste hin. Die Links werden dann entwertet. Wichtig ist, das Ihr bei einem Antrag auf erneute Überprüfung genau sagt, was ihr bisher gemacht habt. Also welche Links wurden abgebaut und welche ihr in die Disavow-Liste getan habt.
4. Man stellt einen “Antrag auf erneute Überprüfung”. Mehr Informationen dazu hier.
Kostenlose Hilfe
Aufgrund der doch hohen Anzahl an verhängten Penaltys bieten wir für kurze Zeit eine kostenlose Unterstützung bei der Penaltybekämpfung an.
Weitere Quellen:
http://www.tagseoblog.de/wieder-linknetzwerke-abgestraft-was-nun
http://www.sistrix.de/news/google-straft-ein-weiteres-deutsches-und-europaeisches-linknetzwerk-ab/
http://www.seokratie.de/zwei-linknetzwerke-abgestraft/
http://www.eisy.eu/google-entzieht-rankseller-und-teliad-die-rankings/
http://onlinemarketing.de/news/linknetzwerke-abgestraft-rankseller-und-teliad-wohl-betroffen
10.12.2013: Matt Cutts: Wie können sich Websites zügig von Spam Links und einem Google Penalty erholen?
Matt Cutts von Google hat die folgende Frage beantwortet:
“Wie hat Interflora es geschafft, den auferlegten Bann innerhalb von 11 Tagen aufheben zu lassen? Kannst du erklären, welche Art von Penalty sie hatten und wie sie es wieder richtig hingebogen haben? Einige von uns brauchen Monate, um nach einer unklaren GWT Benachrichtigung aufzuräumen.“
Die Frage bezieht sich auf den Penalty der Website Interflora.co.uk. im Frühjahr dieses Jahres, als diese nicht mehr über Google gefunden werden konnte. Den Penalty erhielt die Seite aufgrund einer aggressiven Werbestrategie vor dem Valentinstag, wo anscheinend eine große Anzahl von bezahlten Links aufgebaut wurde. Mehr dazu (auf Englisch) hier:http://searchenginewatch.com/article/2252233/UK-Flower-Site-Banned-from-Google-for-Advertorial-Links-Sees-Rankings-Restored
Matt Cutts‘ Kommentar hierzu:
Google schaut sich an, ob eine Website Links von Websites mit höherem PageRank kauft. Wenn sich das zu häufig wiederholt, werden die Maßnahmen von Google immer massiver. Google sieht sich dann gezwungen, verstärkt Maßnahmen vorzunehmen, wenn sich Verstöße (gegen die Google Webmaster Richtlinien) wiederholen.
Können alle Links aus einem bestimmten Zeitraum ins Disavow Tool gegeben werden?
Wenn ein Unternehmen dabei erwischt wird, dass es Links kauft, wäre es interessant, ob sie wissen, zu welchem Zeitpunkt dieser Linkkauf begonnen hat. Wenn das Unternehmen dann alle Links ab diesem Zeitpunkt bis zu dem Zeitpunkt, wo der Linkkauf beendet wurde ins Disavow Tool geben würde, wäre das ein sehr drastischer Schritt, der aber durchaus funktionieren kann.
Wenn Google dann in den Reconsideration Request guckt, würde Google sehen, dass ein vom Penalty betroffenes Unternehmen die Google Maßnahmen sehr ernst nimmt und den Penalty unter Umständen aufheben.
Ja, aber!
Er sagt weiterhin, dass er so eine drastische Maßnahme jedoch nicht jedem empfehlen würde. Google aber weiß, dass manchmal alle Links für eine Website ins Disavow Tool gegeben werden, wenn jemand eine Domain gekauft hat und der alte Webmaster z. B. sehr viel Spam Links gesetzt hat und der neue Webmaster der Website einen frischen Start verschaffen möchte.
Er empfiehlt aber eher, die Links durchzugucken und Seiten ins Disavow Tool zu setzen, die für eine große Zahl von schlechten Links sorgen.
02.08.2013: Ab sofort: Beispiel-Links bei manuellem Penalty
Guten Tag. Mit unserem Freitagstipp wollen wir heute einmal auf die Videos von Matt Cutts eingehen. Mehrmals die Woche beantworten diese User-Fragen im Google Webmaster Channel. Es lohnt sich diesen regelmäßig zu verfolgen. Auch wenn man nicht immer zu 100% zufriedengestellt wird mit den Antworten, bekommt man doch meistens eine Fahrtrichtung aufgezeigt.
Die aktuelle Frage kommt aus den USA, sinngemäß:
WERDEN WIR IN DEN WEBMASTER TOOLS JEMALS GESAGT BEKOMMEN, WELCHE LINKS FÜR EINEN PENALTY VERANTWORTLICH SIND?
Diese Frage scheint Matt nun nicht zufällig ausgewählt zu haben, denn er berichtet, dass ab sofort schon damit angefangen wird, Beispiel-Links zu benennen, die zu einem Penalty führen. Natürlich könne man nicht alle Links benennen, aber es soll ausreichend sein, so dass der Webmaster versteht, was falsch gelaufen ist und welche Art der Links er bearbeiten muss.
Penalty-Arbeit deutlich erleichtert
Sollte dies wirklich so zutreffend sein, kann das die Arbeit sehr erleichtern. Anscheinend gibt Google nun schrittweise dem Druck nach, dass es für Webmaster immer schwieriger ist, zu wissen, was sie noch dürfen. Gerade die letzten Änderungen http://imwebsein.de/google-links/ und http://imwebsein.de/google-richtlinien-links haben doch dazu geführt, dass es in den Beiträgen große Gegenwehr gab. Zu undurchsichtig seien die Vorgaben mittlerweile und die Webmaster werden mehr und mehr verunsichert.
Eine aktivere Mitarbeit bei der Penalty-Bekämpfung ist auf jeden Fall zu begrüßen, denn jeder, der das schon einmal gemacht hat, weiß, wie mühselig die Arbeit doch ist. Manchmal sucht man wirklich die Stecknadel im Heuhaufen und fragt sich, welchen Link bemängelt Google denn jetzt. Der Grau-Bereich ist immer größer geworden, und bei vielen kommt auch die Frage auf, was ist mit den Altlasten. Das was gestern noch “erlaubt und geduldet” war, ist jetzt verboten. Muss man diese Links abbauen? Sollten jetzt konkrete Beispiele folgen, ist die Community gefragt, diese zu sammeln, um dann einheitlich auszuwerten. Vielleicht wird es dann noch klarer, welche Links von Google wirklich verboten sind, und welche derzeit noch gehen.
Ich freue mich auf Euer Feedback.