Werbung

Hier findet ihr eine Übersicht zu allen News, die wir im Hinblick auf das Google Panda Update (bis zu Version 4.1) veröffentlicht haben.

Der Panda ist ein Google-Algorithmus, der Webseiten mit schlechter Inhaltlicher Qualität abstraft, damit die entsprechenden Seiten in den organischen Suchergebnissen nicht mehr vor inhaltlich besseren Seiten ranken.

Aktueller Stand: Für die neue Version 4.2. haben wir einen neuen Artikel gestartet.


26.09.2014: Google-News: Panda 4.1, Abstrafung Blog-Netzwerke, Google Webmaster-Tools

Google bestätigt Panda 4.1

Google hat heute Nacht mitgeteilt, dass seit Anfang der Woche Schritt für Schritt ein neues Panda Update auf den Weg gebracht wurde. Es handelt sich hierbei um das Update Panda 4.1.

Der veränderte Algorithmus sei darauf ausgerichtet, minderwertigen Content zu identifizieren. Das Ziel sei es, dass mehr kleine Webseiten mit High Quality Content höher ranken. Wir sind gespannt welche Bewegungen es in den Suchergebnissen tatsächlich geben wird.


12.08.2014: Gab es ein geheimes Google Panda Update?

Mehrere Webseiten, darunter auch Search Engine Roundtable, Search Metrics und Search Engine Land, spekulieren darüber, dass es am vergangenen Freitag ein algorithmisches Update gegeben haben könnte. Bisher gab es zu diesen Vermutungen keinen Kommentar von Google.

Google Panda Update am 08. oder 09. August?

Vermutet wird, dass dieses Update am Donnerstag oder Freitag vergangener Woche stattgefunden hat. Barry Schwartz berichtet von zahlreichen Kommentaren in Foren und E-Mails in denen viele Webmaster von starken Veränderungen berichteten.

Auf dem folgenden Chart sieht man Veränderungen:

Screenshot: Veränderungen in den Suchergebnissen

Fast scheint es, als ob diese starken Veränderungen schon ab dem 6. August einsetzen. Die kommenden Tage werden zeigen, ob es sich wirklich um ein Google Panda Update handelt und welche Seiten besonders betroffen sind. Habt Ihr bei Euren Webseiten starke Veränderungen wahrgenommen?

Das letzte Panda Update fand im Mai statt.


19.05.2014: Neues Google Update – Panda 4.0

Wie wir bereits Montag berichteten, standen die Zeichen gut für ein größeres Update. Auch wenn wir uns mit dem Tierchen vertan hatten und es der Panda geworden ist, so gibt es trotzdem einige interessante Fakten.

Screenshot: Matt Cutts gibt Panda 4.0 bekannt

1. Panda wird laut Google regelmäßig eingespielt und ein Update soll nicht mehr bekannt gegeben werden. Dass es dieses Mal aber offiziell bekannt gegeben wurde und auch mit der Bezeichnung 4.0 betitelt wird, zeigt, dass es ein Major Update ist. Also ein Update, welches grundlegende Bestandteile des Algorithmus beeinflusst.

2. Der zeitliche Verlauf wird von Matt als wird gerade ausgespielt angegeben. Er betitelt es als bereits ausgespielt aber noch nicht beendet.

3. Weiterhin gab es es das Loan Algorithmus Update 2.0, welches gezielt die Spamseiten unter Beschuss genommen hat.


10.03.2014: John Mueller’s Kommentare rund um “Panda”

Update 2:

“New Site Honeymoon”

Es gab einige Nachfragen betreffend der “Honeymoon”-Thematik. Wir haben uns den Hangout angesehen und haben John Mueller’s Kommentare wie folgt verstanden:

Die Frage die gestellt wurde, war, warum einige neue Seiten in den SERPs sehr sichtbar sind, obwohl sie über ein schlechtes Linkprofil verfügen.

Nicht alle dieser Seiten (die einen solchen “Bonus” erhalten) verfügen über ein schlechtes Linkprofil (mit Spamlinks etc.). Google gebe neuen Seiten manchmal einen Vertrauensvorschuss und nimmt die zunächst nicht vorhandenen Signale zum Anlass, die Webseite in den Suchergebnissen anzuzeigen. Manchmal geschehe dies, um zu gucken, ob es Sinn macht die Seite an bestimmten Orten zu listen. Dieser Bonus wird manchmal vergeben, um zu gucken wie das Publikum (also die Suchenden), auf die Webseite reagieren. Wenn Sie daraufhin von Nutzern empfohlen werde, ist dies für Google ein positives Signal.

Google versuche, die richtige Balance zu finden, was schwer sei. Diesen Newbie Bonus gibt es nicht für alle Seiten. Es sei nicht möglich zu sagen, dass dies immer oder gar nicht gemacht werde.

Es lässt sich also festhalten, dass es einen Newbie Bonus gibt, der jedoch mehr oder weniger willkürlich vergeben wird und auf den man sich nicht verlassen kann.

Quelle: https://plus.google.com/events/cd0f4l0ji3jsp6jnsma3jdrltm8

Update:

John Mueller hat sich mittlerweile zu Wort gemeldet und gesagt, dass die Aussagen (die ihr weiter unten im Blogbeitrag findet) von ihm nicht gemacht wurden und falsch seien und von Steve Martin falsch interpretiert wurden. Was davon nun richtig oder falsch verstanden wurde, muss jeder selbst entscheiden. Nachfolgend John Mueller’s Kommentar bei Google+:

John Müller korrigiert falsche Aussagen

Er sagt,

  • die Panda und Crawling Thematik bestehe nicht
  • Duplicate Content in Form von HTTP/HTTPS sei kein Problem
  • HTML Sitemaps seien okay
  • Crawling Errors seien kein Ranking Faktor
  • Disavow und Spreadsheets seien nicht verbunden

Wenn ihr euch ein eigenes Bild machen möchtet, könnt ihr euch die betreffenden Hangouts ansehen:

Weitere Termine für Google Hangouts: https://sites.google.com/site/webmasterhelpforum/en/office-hours 

Panda und Content Crawling:
Bei täglicher Erstellung von neuem Content sollte sichergestellt werden, dass die Zahl der indexierten Inhalte steigt. Ist dies nicht der Fall, liegt wahrscheinlich ein Qualitätsproblem im Sinne von Panda vor.

HTTP und HTTPS:
Falls beides genutzt wird, wird eine robots.txt Datei für jede Version benötigt. Andernfalls entsteht hierdurch Duplicate Content.

Links im Disavow Tool:
Wenn Links, die bisher durch Google ignoriert wurden, aus der Disavow Datei entfernt werden, werden sie wieder gewertet. Egal ob gut oder schlecht. In beiden Fällen erhält man den Link Juice zurück.

Keine HTML Sitemap Pages:
Google ignoriert diese und bewertet sie als eine Seite schlechter Qualität. Google vertraut diesen Sitemaps nicht, hier kann ein Panda Problem vorliegen.

Gibt Google Link Juice an Links in Dateien weiter?
Laut John Mueller liest Google diese Links aus (zum Beispiel in .pdf, .xls oder .doc – Dateien), allerdings erhalten sie keinen Link Juice. Nur Links mit HTML Anchor geben Link Juice weiter.

Benutzt Google CTR Tracking?
John Mueller sagt nein, aber zwischen den Zeilen kann man herauslesen, dass Google das macht. Dies wird im Buch „In The Plex“ in Bezug auf die Click Through Analyse erwähnt. Wenn die Absprungrate hoch ist, sollte für frischen Content gesorgt werden. Auch die Verlinkung von Videos oder Links von internen Seiten die ranken kann hilfreich sein.

Panda: Eine Seite sollte optimiert werden, bevor sie Traffic erhält. Ist dies nicht der Fall, kann dies dazu führen, dass Google bezahlte Links vermutet und auf die Absprungrate anrechnet. Dies wurde in vorherigen Hangouts bestritten.

301 Weiterleitungen werden ignoriert, wenn von A nach B weitergeleitet wird und Google A mag. Google ignoriert dann Google die Seite B, auf welche weitergeleitet wird.

New Site Honeymoon:
Stellt sicher, dass euer Traffic auf eure Seiten reagiert. Der Algorithmus stellt deine Seite in eine Kategorie für Benutzerdaten, besonders unter dem „Sharing“-Aspekt. „Social Proof“ ist etwas, worauf Google achtet. Wenn deine Seite keinerlei Social Traffic erhält, wird sie aus den Suchergebnissen rausrutschen. Google hat Algorithmen für Rank, Vertrauen und auch einen „De-Rank“-Algorithmus (Entwertungsalgorithmus) bezüglich Social Traffic.

Webseitenfehler:
500 / PHP / MySQL – Fehler sind Panda Qualitätsfaktoren. Fehler sollten nicht länger als 48 Stunden bestand haben.

Google ist maschinelles Lernen
Es ist lebendig, es ist SkyNet. Es ist einem 3-jährigen Kind ähnlich.

Der Geotargeting Algorithmus arbeitet auf einer „Best Guess“ Basis, auch wenn man über eine .com oder .uk – Domain verfügt
Der Inhalt muss das hreflang – Attribut reflektieren. Basierend auf Qualität oder Vertrauen entscheidet Google, ob deine Seite für die bestimmte Geo Location relevant ist. Die URL für sich ist also nicht entscheidend.

Mach deine Disavow Datei zugänglich
John Mueller hat sagte, dass es wichtig ist, dass dieses auf „public“ eingestellt ist, ansonsten kann das Spam Team es nicht abrufen. Das Google Web Spam Team hat keinen Zugang zum Backend deines Google Accounts – dies wäre gegen die Google Geschäftsbedingungen.

Bewertungs-Snippets
John Müller hat angedeutet, dass das Bewertungs-Snippet ein Qualitätsfaktor ist. Es ist ein guter Weg, um die Webseite zu teilen.

Geklonte Seiten:
Geklonte Seiten sind verschiedene URLs mit dem gleichen Design und Thema. Hier wird versucht, für ein bestimmtes Keyword zu ranken. Klone sollten nicht genutzt werden, aber identische Domains können genutzt werden, wenn nicht die gleichen Keywords verwendet werden.

Google kann feststellen, dass es sich um die gleiche IP handelt. Auch das gleiche Design, ebenso identische Backlinks, Keywords und Inhalte werden durch Google erkannt. Google wird die beste Version als Hauptversion festlegen und Canoncials setzen.

Führt das Weiterleiten von einer Domain mit einem Penalty dazu, dass die neue Seite einen Penalty  erhält?
Wenn du versuchst, die Domain zu „töten“, die von einem Pinguin Update getroffen wurde und eine neue Domain erstellst, auf die alles weitergeleitet wird, setzt Google automatisch eine 301-Weiterleitung. Sie gucken auf die alten Seiteninformationen und leiten alle Signale weiter, egal ob gut oder schlecht. Google verfügt über zwei Indexe. Bei einem handelt es sich um einen historischen Index und beim anderen um einen Ranking Index. Beide werden verglichen und dann die Entscheidung getroffen, ob der Penalty vererbt wird.

Zitat Mueller: „Sie wollen nicht, dass Spammers damit davon kommen, Seiten zu klonen.“

Google verfügt über einen „Changelog“ und weiß, ob du die Seiten instand hältst. Auf diese Art und Weise kann Google feststellen, dass die Seiten gleich sind und dass du versuchst die SERPs zu manipulieren.

Die Seitennavigation ist ein Ranking Faktor:
Die interne Navigation muss logisch sein. Auf die Seite auf deiner Webseite, die am höchsten ranken soll, sollten viele interne Links weisen, um sie im internen Page Rank nach vorne zu bringen.

Quelle: https://plus.google.com/u/0/+SteveMartin1/posts/Ma3iLFq7isf


18.07.2013: Panda 26 wurde veröffentlicht

Wir berichteten bereits am 12. Juli, dass ein neues Panda Update vermutet wird. Heute gab es aus den USA nun eine Bestätigung.

searchengineland.com schreibt:

GOOGLE HAS CONFIRMED A PANDA UPDATE IS ROLLING OUT AND THIS SPECIFIC UPDATE IS “MORE FINELY TARGETED.”

Google confirmed with us that a Panda update is being released and said:

IN THE LAST FEW DAYS WE’VE BEEN PUSHING OUT A NEW PANDA UPDATE THAT INCORPORATES NEW SIGNALS SO IT CAN BE MORE FINELY TARGETED

Panda Updates einmal im Monat?

Die Panda Updates werden offiziell von Google nicht mehr bestätigt, es ist aber anzunehmen, dass die Quelle von searchengineland glaubhaft ist. Auch auf www.seroundtable.com wird geschrieben, dass die Zeichen sehr klar sind.

Es kann davon ausgegangen werden, dass die von Google angekündigte Intervall-Länge von einem Panda Update pro Monat auch eingehalten wird. Da bisher nach Panda 25 aber noch anscheinend kein Update mehr kam, ist diese Nr. 26 so interessant.

Denn von nun an kann davon ausgegangen werden, dass die regelmäßigen Panda Updates kommen. Da die Freischaltung der Änderungen schleichend erfolgt, um den SEOs nicht zu viel Einblick zu gewähren, bleibt natürlich immer ein großer Raum für Spekulationen.

Onpage-Wichtigkeit nimmt weiter zu

Auch wenn durch Aussagen von Matt Cutts wie: “Links sind nicht schlecht” in den letzten Tagen der Linkaufbau nochmal klar als die Nr.1 dargestellt wurde, zeigen doch die neuen Rankingsignale alle in Richtung Onpage.
Wie weiß ich aber, ob ich Onpage gut aufgestellt bin? Hierzu kann man sich erste Informationen kostenfrei besorgen. Ein guter Anfang ist z.B. Sistrix Smart. Hier werden viele Basics abgeprüft und man erhält per Mail einmal die Woche eine Benachrichtigung.
Jeder, der seine Webseite für den Kunden aufbaut und nicht für Google, braucht sich vor Panda eh nicht zu fürchten.

Wie wichtig sind Euch eigentlich die Updates? Interessiert Ihr Euch dafür, oder vergleicht Ihr nur Eure Daten mit solchen Ereignissen?


12.07.2013: Gibt es ein neues Panda Update?

Wie unsere Kollegen von Search Engine Roundtable gerade berichten, scheint es in den USA gerade ein rollendes Update zu geben. Man spekuliert darauf, dass es ein Panda Update ist.

Matt hat ebenfalls auf der SMX Advanced berichtet, dass man ca. alle sechs Wochen ein Panda Update fahren möchte, aber dieses nach und nach raus bringt, so dass nicht auf einen Schlag alles sichtbar ist.

Spekulationen um Spekulationen

Wirft man einen Blick in die gängigen US-SEO-Foren, so wird schnell klar, dass irgendetwas dran sein muss: Zu viele hat es getroffen, als dass es Zufall sein kann:
Anbei Auswertungen der SERPS der letzten 30 Tage:

Screenshot: Hinweise auf ein Panda-Update?Hier die Daten von Serpmetrics:
Screenshot: Hinweise auf ein Panda-Update?

Und hier die Übersicht von Algoroo:Screenshot: Hinweise auf ein Panda-Update?

Ein Knaller-Update wird es nicht, aber man darf gespannt sein, wieso gerade in den Foren so viel los ist…


23.01.2013: Panda Update vielleicht bald in Deutschland

Google gab vor kurzem bekannt, ein weiteres, sogenanntes Panda Update zu installieren. Zunächst soll diese Neuerung, die allem Anschein nach nun alle vier Wochen herauskommt, nur in den USA wirksam werden, doch eine weltweite Verbreitung der Updates sei möglich.

Was ist das Panda Update?

Das von Google veröffentlichte Update betrifft vor allem Suchergebnisse. Mittlerweile haben es sich Firmen zur Aufgabe gemacht, mit Hilfe von sogenannten „Content-Farmen“ auf der Nummer Eins im Ranking der Suchergebnisse zu erscheinen…..

Viele dieser Seiten haben jedoch keinerlei Informationen zu den gesuchten Inhalten, oder bieten vielmehr schlechten Inhalt an. Deshalb wird diese Möglichkeit als günstiges Werbemittel gesehen. Diese Seiten werden vom Google-Nutzer als Spam gesehen und setzen so die Zufriedenheit mit der Suchmaschine herab. Mit dem neuen Update, namens Panda, möchte Google nun eine Schranke vor diese Möglichkeiten setzen.

Das Update soll die Suchstruktur der Suchmaschine verändern. Der Algorithmus, der Google die Suchergebnisse liefert, wird mit diesem Update geändert, um Content-Farmen und ähnliche „low-content“-Pages aus den Top-Suchergebnissen auszuschließen.

Offiziell kein Update gegen Content-Farmen

Laut Google richtet sich das Update nicht direkt gegen besagte Seiten, vielmehr soll die Qualität des Inhaltes besser durchleuchtet werden, sodass der User nur qualitativ hochwertigen Inhalt in den Top-Ergebnissen geliefert bekommt. Jedoch überschneiden sich die Definitionen von Content-Farmen und den von Google beschriebenen Seiten sehr.

Gefahr für „normale“ Seiten

Natürlich steckt hinter der größten Suchmaschine des Internets ein Algorithmus. Dieser kann ziemlich genau unterscheiden, welche Seiten nicht in die Top-Rankings gehören und welche eben doch. Nun bestätigt jedoch die Ausnahme die Regel.

So laufen Seiten mit viel Content (Inhalt) Gefahr, von diesem überarbeiteten Algorithmus aus den Top-Suchergebnissen entfernt zu werden. Sollten die Seiten, hinter denen Firmen stecken, die oftmals ausschließlich vom Onlinegeschäft leben, von Google gesperrt werden, könnte dies das Ende für diese Firmen bedeuten. Laut Google erkannte der neue Algorithmus 84% der in den Top-Ergebnissen befindlichen Spam-Seiten, welche tatsächlich Spam-Inhalte verbreiteten.

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT