Google Webmaster Hangout mit John Mueller

von Anja Baltrusch

Kategorie(n): Google Webmaster Hangouts Datum: 30. September 2014

Am vergangenen Freitag fand erneut ein englischsprachiger Google Webmaster Hangout mit John Mueller vom Google Team in der Schweiz statt. Er beantwortete zahlreiche recht rudimentäre Fragen. Die interessantesten Fragen und Antworten haben wir für Euch übersetzt. Behandelte Themen waren unter anderem die Google Panda und Google Pinguin Updates, die Auswirkungen der Disavow Datei, die Umstellung von HTTP auf HTTPs und die Anzeige von Sitelinks in den Suchergebnissen.

Die Fragen wurden zunächst nach Themen und dann in alphabetischer Reihenfolge sortiert, um die Fragen besser zu strukturieren. Viel Spaß beim Lesen!

Crawling

Frage:

Ist es möglich, den Crawler versehentlich vom Crawling einer Webseite auszuschließen – abseits der robots.txt?

Antwort:

Theoretisch ist das möglich, ja. Beispiele:

- die IP-Adresse wird blockiert - Webseiten sperren manchmal verschieden User Agents aus - der Google-Bot wird manchmal für ein Skript gehalten, welches ausgesperrt wird

Manchmal gibt es auch Probleme, die durch die robots.txt ausgelöst werden:

- Server-Fehler: 500er-Fehler – Google-Bot sieht das als Blockierung des Bots an

Fehler dieser Art kann man in den Google Webmaster-Tools unter „Server-Fehler“ einsehen!

Disavow Datei

Frage:

Ist es ratsam, die Disavow Datei regelmäßig zu updaten, wenn neue Links gefunden werden (die als negativ angesehen werden Anm. d. R.)?

Antwort:

Ja, wenn man problematische neue Links findet sollte die Datei definitiv erweitert werden.

Frage:

Sollte eine Disavow Datei hochgeladen werden, um eine Pinguin Abstrafung zu bekämpfen? Hat das bereits vor einem neuen Pinguin Update Auswirkungen?

Antwort:

Die Disavow Datei sorgt dafür, dass die dort gelisteten Links als nofollow Links bewertet werden. Das hat Einfluss auf sämtliche Google Algorithmen und kann daher bereits abseits des Pinguin Updates Auswirkungen haben.

Frage:

In einem ersten Versuch reiche ich den Link example.com via Disavow Datei zur Entwertung ein. Beim zweiten Versuch lasse ich den Link raus. Zählt Google den Link example.com dann wieder als regulären (also nicht entwerteten) Backlink?

Antwort:

Ja, neue Disavow Dateien überschreiben zuvor hochgeladene Dateien immer. Im Grund genommen zählt der Link wieder, sobald dieser wieder gecrawlt wird. Links, die via Disavow Datei entwertet werden, werden auch weiterhin in den Google Webmaster-Tools angezeigt.

Frage:

Wie kann ich feststellen, ob die Einreichung der Disavow Datei erfolgreich war?

Antwort:

Bei korrekter Formatierung etc. wird sie normalerweise sofort beim Crawling berücksichtigt, hier gibt es keine wöchentlichen Zyklen o. ä.. (bei falscher Formatierung o. ä. erhält man in den Google Webmaster-Tools eine entsprechenden Hinweis Anm. d. R.)

Geo-Targeting

Frage:

Wie kann man eine Webseite (.com-Domain) für ein anderes Land optimieren?

Antwort:

Das geht mit Geo-Targeting: Hierfür muss in den Google Webmaster-Tools die entsprechende Eintragung vorgenommen werden. Außerdem ist zu überlegen, ob eine länderspezifische URL nicht sinnvoller wäre.

Google Panda, Google Pinguin

Frage:

Wäre es nicht besser, wenn statt von “Bestrafungs-Algorithmen” in Ressourcen investiert wird, die “Belohnungs-Algorithmen” entwickeln, welche die Rankings guter Webseiten dramatisch erhöhen würden (etwa ein umgekehrter Google Panda oder Google Pinguin-Algorithmus)?

Antwort:

Im Grunde genommen macht Google das z. B. mit Google Panda: Guter Content wird entsprechend in den Suchergebnissen angezeigt. Das gilt im Prinzip auch für alle anderen Algorithmen: Wenn eine Webseite schlechter als zuvor eingestuft wird, wird sie in den SERPs weiter hinten erscheinen – Webseiten mit besseren Inhalten rücken entsprechend auf und ranken besser.#

Frage:

Warum sind seit dem letzten Google Pinguin Update bereits fast zwölf Monate vergangen, während vorherige Pinguin Updates etwa alle sechs Monate stattfanden? Kannst du das erklären?

Antwort:

Ich kann hier nichts Spezielles verkünden – das Team arbeitet am Pinguin Update. Es wird insgesamt versucht, den Pinguin Algorithmus zu verbessern, deswegen dauert es bis zum Update länger als bisher üblich.

Frage:

Ich freue mich zu hören, dass kleine/mittlere High Quality Webseiten fairer von diesem Panda Update (4.1) behandelt werden. Handelt es sich um ein globales Update?

Antwort:

Ja, es handelt sich um ein globales Update. Es betrifft verschiedene Länder unterschiedlich, aber es ist global.

Frage:

Hast du im vergangenen Monat mit dem Pinguin Team gesprochen? Weißt du etwas über deren Fortschritt? Du hast angedeutet, dass es am Ende des Jahres ein Update geben wird – sieht es immer noch danach aus?

Antwort:

Wir tauschen uns regelmäßig aus, ein neues Google Pinguin Update Ende 2014 ist noch möglich. Wie immer kann ich hier nichts versprechen.

Frage:

Hat das Pinguin 2.1 Update nur eingehende Links behandelt? Pinguin 1 hat Onpage-Probleme & Links bewertet… mittlerweile behandelt Panda Onpage-Probleme – beziehen sich die Updates Pinguin 2 und Pinguin 2.1 nur auf Link-Signale?

Antwort:

Google behandelt Pinguin als Webspam-Algorithmus – zu sagen es betrachtet nur Links wäre daher nicht fair. Panda ist ein Qualitäts-Algorithmus, wo wir versuchen die Qualität des Contents und der Webseite insgesamt zu bewerten.

HTTP – HTTPs

Frage:

Wir zeihen mit unserer Webseite von HTTP zu HTTPs um – wird das zu Rankingverlusten führen?

Antwort:

Nein, normalerweise nicht.

Langfristig ist das eine gute Entscheidung, Google wird in den nächsten Jahren, die Verwendung von HTTPs stärker für das Ranking nutzen. Bei Webseitenumstellungen wird es immer einige Bewegungen in den Rankings geben, da alles neu gecrawlt und indexiert wird.

Frage:

Am 12. September bin ich mit meiner Webseite von HTTP auf HTTPs umgezogen. Ich bin den Instruktionen der Google Help-Seite gefolgt und habe auch 301-Weiterleitungen eingerichtet. Seitdem verzeichnet die Webseite signifikante Trafficverluste und Rankingverluste. Was kann der Grund dafür sein?

Antwort:

Für eine Einschätzung müsste mir die Webseite bekannt sein. Seit dem 12. September ist nicht viel Zeit vergangen – alles muss neu gecrawlt und indexiert werden!

Klickrate, Impressionen

Frage:

Wie kann ich die Klickrate (statt der Impressionsrate) erhöhen?

Antwort:

Diese Frage müsste den Nutzern gestellt werden, denn es handelt sich nicht um eine technische Frage, sondern um die Frage, welche Informationen der Nutzer sucht. Da spielen z. B. Titles, das Snippet insgesamt und die Qualität des Inhalts auf der Webseite eine wichtige Rolle. Es ist eine Frage des Inhalts und wie dieser in den Suchergebnissen präsentiert wird.

Manuelle Abstrafung

Frage:

Wir haben im Mai eine manuelle Abstrafung für eine Domain und verschiedene Subdomains erhalten. Nach einigen Monaten ist die Abstrafung ausgelaufen. War das ein Penalty der Domain & der Subdomains oder waren das alles einzelne Penaltys?

Antwort:

Beides ist möglich. Normalerweise versucht Google individuell vorzugehen und einzelne Subdomains abzustrafen – manchmal wird aber auch die ganze Domain (inklusive Subdomains) abgestraft.

- Wenn es sich um sehr unterschiedliche Inhalte handelt (Bsp: Blogger) trifft es nur die einzelne Subdomain (Bsp: beispiel.blogger.de). - Wenn es sich einfach um unterschiedliche Bereiche einer einheitlichen Webseite handelt, dann wird die gesamte Domain samt Subdomains abgestraft.

Meta Daten

Frage:

Wenn wir nach unserer eigenen Webseite suchen (mit Hilfe bestimmter Keywörter), werden nicht die Meta Titles angezeigt, die bei uns hinterlegt wurden. Warum ist das so?

Antwort:

Google ändert die Meta Titles, wenn die darin enthaltenden Keywörter als unpassend angesehen werden. Gleiches gilt, wenn ein Title für viele verschiedene Unterseiten genutzt wird (Duplicate Titles! Anm. d. R.) oder viel zu lang ist. Die Titles werden manchmal auch der konkreten Suchanfrage angepasst.

Frage:

Hat es einen negativen Einfluss auf das Ranking, wenn man die Meta Daten alle 15 Tage verändert?

Antwort:

Nein, aber es sollte bedacht werden, dass Google die Descriptions und Keywords nicht für das Ranking nutzt.

Sitelinks

Frage:

Wie kann man Sitelinks aus den Suchergebnissen entfernen?

Antwort:

In den Google Webmaster-Tools gibt es ein Feature, welches es erlaubt, Sitelinks abzuwerten – komplett entfernen lassen sie sich nicht. Aber die Herabstufung ist ein deutliches Signal an Google, dass diese Seite nicht als Sitelink anzeigen lassen möchte. Man muss auch bedenken, dass Sitelinks abhängig von der Suchanfrage angezeigt werden – sie werden also nicht bei jeder Suchanfrage angezeigt.

Screenshot: Google Webmaster-Tools

Frage:

Ich sehe viele Beschwerden bezüglich unpassender Sitelinks: Ist es nicht möglich eine Opt-Out Option in den Google Webmaster-Tools zu geben?

Antwort:

Wie zuvor bereits erwähnt können Sitelinks via GWT zurückgestuft werden. Nach einer Woche sollten diese Änderungen in etwa sichtbar werden.

Structured Snippets

Frage:

Seit kurzem werden für einige Suchergebnisse Structured Snippets angezeigt. Wie kann man dafür sorgen, dass diese für die eigenen Ergebnisse angezeigt werden?

Antwort:

Je strukturierter die Informationen auf der Webseite bereitgestellt werden, desto einfacher fällt es Google, diese Daten in den Suchergebnissen bereitzustellen. Dafür kann z. B. schema.org genutzt werden. Trotzdem kann Google nicht garantieren, dass die betreffenden Informationen in Form der Structured Snippets in den Suchergebnissen angezeigt werden.

301-Weiterleitung

Frage:

Wir haben kürzlich eine 301-Weiterleitung auf eine neue Domain gelegt. Nach mehr als drei Monaten haben wir immer noch nicht die alten Rankings zurückgewonnen, obwohl wir nicht viel geändert haben.

Wie lange dauert es, bis sich die Rankings nach so einem Umzug wieder erholen?

Antwort:

Normalerweise geht das sehr schnell. Man sollte den Umzug mit Hilfe der im Help-Center vorhandenen Anleitungen durchführen. Wenn sich die Rankings bis jetzt noch nicht erholt haben, gibt es vielleicht Probleme, die nichts mit dem Umzug zu tun haben.

Tipp: https://support.google.com/webmasters/topic/6029673?hl=de&ref_topic=6001951

Frage:

Wir haben unsere Webseite in zwei neue Seiten aufgeteilt (aufgrund von Corporate Branding Überlegungen). Die Rankings sind gefallen, aber wir haben 301-Weiterleitungen eingerichtet – ebenso Canonicals, wo notwendig. Hast du so eine Webseitenaufteilung schon einmal gesehen?

Antwort:

Ja, sowas haben wir schon einige Male gesehen. Problem von Google: Signale, die über Jahre gesammelt werden, müssen den neuen Webseiten zugeteilt werden. Das es Bewegungen in den Rankings gibt ist bei so einer Maßnahme normal.

Quelle: https://www.youtube.com/watch?v=rUMCi5y-i9w