Google Webmaster Hangout Transkript, 21.08.2018

Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 21. August 2018:

Seitenarchitektur

Zeit: 00:42

Frage: Wir betreiben eine Website in der Nische für Personenschäden in den USA und aktuell ist diese in einer Silostruktur dargestellt. Es gibt Kategorien von Hauptthemen wie Autounfälle, Ausrutschen, Stürze oder ärztliche Kunstfehler und unter jeden von ihnen haben wir verwandte Unterthemen, so zum Beispiel bei Autounfällen Unterthemen wie LKW-Unfälle, Motorradunfälle usw. Jeder Artikel hat ungefähr 200 Wörter oder mehr. Unter diesen Artikeln haben wir Fragen und Antworten von Besuchern oder wir verlinken zu individuellen, gut moderierten Seiten mit 300-400 Wörtern, in denen ein Anwalt persönlich Antworten gibt, so dass das nicht wirklich zu einer großen QA-Seite kombiniert werden kann. Wir fragen uns nun, ob es besser wäre diese Seiten von ihrem Standort am Ende dieser thematischen Seiten in einen separaten QA-Abschnitt zu verschieben, weil es gerade keinen gesonderten Abschnitt für Fragen und Antworten gibt, sondern nur in den aktuellen Abschnitten unter der jeweiligen Seite. Die umfassendere Frage wäre: Ist es besser lange Artikel mit hoher Qualität zu haben, die in einem Bereich sehr hochwertig sind und keine anderen Seiten mit geringerer Qualität zu vermischen? Damit meine ich nicht, dass sie qualitativ minderwertige QAs sind, nur von Natur aus werden sie kürzer sein, sie werden spezifischer sein, sie werden nicht so viel Engagement bekommen. Also wäre es besser einen separaten Abschnitt für diese zu haben und sie woanders zu platzieren, um dann die hochwertigen Sachen in einem Abschnitt innerhalb dieses Themas zu haben?

Antwort:  Beides ist möglich. Es ist es wert auszuprobieren, was man mit dieser Art von Inhalt anstellen kann. Ist es etwas was man zum Beispiel in den vorgestellten Snippets anzeigen kann. Oder will man vielleicht vermeiden, dass der Inhalt in der Google-Suche direkt sichtbar ist, weil man möchte, dass die Nutzer direkt zur Seite kommen. Es kommt immer darauf an, was Euer Ziel mit dem QA-Inhalten ist. Geht es eher darum, die Informationen da draußen zu bekommen und gesehen zu werden, als eine Ressource, die viele kleinere Informationen enthält? Oder besteht Euer Ziel eher darin, Leute auf Eure Website zu holen, weil ihr sie dort am besten konvertieren könnt?

Neue Google Search Console

Zeit: 5:28

Frage: In der neuen Google Search Console sagt der Linkbericht im Hilfedokument ausdrücklich, dass der Bericht genauer ist und deshalb die Links im neuen Bericht niedriger sein könnten als im alten Bericht.

Antwort:  In unseren Tests haben wir größere Unterschiede festgestellt und wir versuchen das so ähnlich wie möglich zu machen, aber es ist etwas anders berechnet, so dass es normal wäre eine, gewisse Differenz zwischen diesen beiden zu sehen. Wir bekommen diese Daten direkt aus den Such-Pipelines und versuchen das so sauber wie möglich zu zeigen, also ist es etwas anders als das alte Setup, das wir hatten. Aber ich muss da nochmal mit dem Team Rücksprache halten und genau nachfragen warum der Bericht „genauer“ sagt.

Neue vs. alte Google Search Console

Zeit: 08:05

Frage: Die Google Search Console zeigt eingehende Links an. Ist das genug, um die schlechten Links, die dort angezeigt werden, zu entwerten und los zu werden?

Antwort:  Das „Disavow Backlink Tool“ in der Google Search Console ist ein Weg uns mitzuteilen, dass bestimmte Links auf Eure Seite von uns ignoriert werden sollen. Normalerweise nutzt man es, wenn man irgendwann in der Vergangenheit mal komische Dinge mit Links, die auf die eigene Webseite führen, angestellt hat und man sie nicht mehr komplett aufräumen kann, aber Ihr sicherstellen möchtet, dass die Algorithmen von Google diese nicht berücksichtigen. Oder man nutzt dieses Tool, wenn man sich um schlechte SEO sorgt, wenn zum Beispiel ein Wettbewerber auf eine Art auf Eure Seiten verlinkt, mit der Ihr Euch nicht sicher fühlt. In den meisten Fällen kümmern wir uns algorithmisch um so etwas, aber wenn ihr schlaflose Nächte wegen solchen Links bekommt, könnt Ihr diese mit dem Tool entwerten. In Bezug auf, ob es genug ist, nur die Links aus der Suchkonsole zu entwerten oder nicht: Im Allgemeinen sind das diejenigen, auf die ich mich konzentrieren würde. Manchmal, wenn Ihr wisst, dass Link Building in signifikanter Weise durchgeführt wurde, können Euch die Links in der Suchkonsole eine Vorstellung vom allgemeinen Muster geben, aber es lohnt sich trotzdem immer zu schauen, ob es noch mehr gibt, die man dort einfügen kann. Aber die meisten Daten, die in der Suchkonsole angezeigt werden sind wirklich die Art der Links, auf die Sie sich konzentrieren sollten und dies sollte in der neuen und der alten Suchkonsole ziemlich ähnlich sein

Anzeige von Reviews und Angebote in den Suchergebnissen

Zeit: 10:47

Frage: Wir bemerken, dass unsere Website-Strukturdaten Bewertungen und Angebote nicht mehr in organischen Suchergebnissen sichtbar sind. Wir sehen selten Bewertungen in den organischen Suchergebnissen. Wurden unsere Bewertungen und Angebote aus den organischen Suchergebnissen entfernt?

Antwort:  Die Bewertungen und eine Art von Ratings und Angebote werden weiterhin in organischen Suchergebnissen angezeigt. Soweit ich weiß sind mir keine Pläne bekannt, diese zu entfernen. Wir haben jedoch einige Dinge, auf die wir uns konzentrieren, wenn es darum geht etwas als „reichhaltige“ Ergebnisse („Rich Results“) in den Suchergebnissen zu zeigen. Einmal fordern wir, dass der Markup technisch korrekt umgesetzt wird, wir verlangen, dass er den Leitlinien entspricht, die wir logisch und richtig umgesetzt haben. Zum anderen verlangen wir, dass die Website von angemessener Qualität ist. Dies kann sich über die Zeit ändern. Es kann sein, dass unsere Algorithmen eine Seite als gut einstufen und beim nächsten Mal als nicht so gut, wie es anfänglich gedacht wurde. So kann es passieren, dass wir Eure Bewertungen oder Rich Results einmal anzeigen und ein andermal nicht mehr. Auch zeigen wir aus visuellen Gründen nicht immer Rich Results an, sondern wählen andere Mittel Ergebnisse anzuzeigen, wie zum Beispiel einen Videoausschnitt oder Bewertungen.

Hreflang

Zeit: 14:04

Frage: Wir haben eine Seite, die auf Nutzer in Europa zielt. Wir sind gerade dabei zwei weitere Seiten los zu senden, die hauptsächlich für nicht-Europäer sind, also für Afrika und den Rest der Welt. Der Inhalt ist der gleiche, da die Dienste identisch sind. Was ist der beste Weg, dies zu tun? Hreflang? Werden wir für doppelte Inhalte bestraft? Diese Seiten werden auf ihren eigenen ccTLDs sein.

Antwort:  Für Afrika und den Rest der Welt gibt es kein ccTLD. Ein ccTLD ist pro Land eine Top-level-Domain und nicht für eine generelle Region machbar. Wenn Ihr neue Domains für alle afrikanischen Länder einrichtet, ist das ganz anders, als eine neue Domain für ganz Afrika einzurichten.Ich würde hier empfehlen, das Hreflang-Markup zu benutzen um und damit wissen zu lassen, welche Version von Eurem Inhalt für welchen Nutzer relevant ist. Mit dem Hreflang-Markup könnt Ihr uns mitteilen, dass es zwar eigentlich der gleiche Inhalt ist, aber jedoch für Leute aus einem anderen Land bestimmt ist und man kann eine ganze Liste spezifizieren, wo man zu Beispiel sagt, dass alles in Englisch für diese afrikanischen Länder ist. Mit dieser Liste von Äquivalenten, bei denen wir feststellen, ob es sich um die eine oder die andere Version handelt, können wir die URLs so austauschen, dass die Version dem Benutzer in den Suchergebnissen anzeigt wird, die am besten zu ihrem Standort passt. Es gibt keine Strafe für doppelte Inhalte.Mit den Hreflang-Anmerkungen gibt es drei verschiedene Stufen, die man benutzen kann. Eine Stufe ist das Land plus Sprache, also zum Beispiel „Canada – Englisch“, eine andere ist nur die Sprache, also zum Beispiel „Englisch“ und eine Stufe ist die X-Standardversion, was alles andere ist. Deshalb versuchen wir standardmäßig, das spezifischste auszuwählen, das wir dort haben. Wenn es Benutzer in Kanada sind, die auf Englisch suchen und wir eine kanadisch-englische Version haben, werden wir sie dorthin schicken und wenn wir keine kanadisch-englische Version haben, aber eine generische englische Version, dann werden die Benutzer in anderen Ländern, die in Englisch suchen, zu dieser generischen englischen Version geschickt und wenn wir jemanden haben, der in einer anderen Sprache sucht und wir eine X-Standardversion haben, werden wir ihnen die X-Standardversion anzeigen.

Downtime

Zeit: 19:54

Frage: Wir haben Serverfehler beim Google-Bot für Smartphones. In den Server-Logs sind 3 bis 5 Fehler für eine geplante Wartungs-Downtime zu finden. Angenommen das ist der richtige Status Code für die geplante Downtime, sollte ich diese Fehler als behoben markieren, lohnt es sich einen Wiederholungsversuch nach einem Header hinzuzufügen? Normalerweise ist die Seite alle vier bis fünf Wochen vielleicht eine Stunde lang ausgefallen.

Antwort:  Idealerweise hat man natürlich am besten gar keine Downtime, in der Praxis muss man das jedoch manchmal berücksichtigen und alle 4 – 5 Wochen für eine Stunde ist nicht allzu verrückt. Damit sollten wir leben können. Den Status-Code 503 zu nutzen ist passend dafür. Im Wesentlichen teilt dieser uns mit, dass die Seite vorübergehend nicht verfügbar ist und Google in der Zeit nichts in beim Indexen verändert, wir versuchen es dann nur etwas später wieder erneut. Wegen des 503 Fehler fallen Seiten nicht raus oder werden niedriger gerankt. Der Wiederversuch nach Header ist immer eine gute Übung. Ich weiß aber nicht in wieweit wir das berücksichtigen, weil wir manchmal diese Art von Headers sehr allgemein sehen und wir können ihnen nicht immer vollständig vertrauen. Wenn Ihr also wollt, dass wir es nach zwei Tagen wiederholen, kann es aber passieren, dass wir dies bereits nach einigen Stunden tun. Das ist jedoch normal und bedeutet nicht, dass wir Eurer Website nicht vertrauen. Wenn der 503-Code richtig gesetzt ist, muss man bei einer geplanten Downtime von einer Stunde nichts Weiteres tun, dauert die Downtime jedoch mehrere Tage an, kann es sein, dass unser System anfängt sich über diese Seite zu sorgen, ob diese Downtime nur kurzfristig ist oder ob die Seite eventuell total verschwunden ist und wir Seiten aus der Suche entfernen müssen. Daher achtete darauf, dass die Downtime angemessen bleibt.

Redirects

Zeit: 23:41

Frage: Können wir auch Status Code 303 verwenden, nachdem wir von HTTP zu HTTPS umgezogen sind, oder ist hier nur 301 empfohlen?

Antwort:  Wir empfehlen eindeutig eine saubere 301-Umleitung auf einer puren URL-Basis für HTTPS-Migrationen. Je sauberer die Umleitungen sind, ohne „noindex“ oder Anweisungen in der robots.txt etc., umso leichter ist es für uns die Umleitung auszuführen, ohne dass es Veränderungen dabei geben wird.

Ranking verbessern

Zeit: 25:25

Frage: Wir haben eine YMYL-Website und wir sind gut, aber wir kämpfen hart um mit unseren Wettbewerbern zu ranken, sie haben ein gutes Seitenranking, aber ihr Inhalt ist nicht so gut wie unserer. Was können wir machen um so schnell wie sie zu wachsen?

Antwort: Hierfür gibt es keinen magischen Zauberspruch, den man einfach für alle Websites anwenden kann. Das ist etwas, wo man wirklich der Experte seiner Nische sein muss, der Experte in dem ganzen Bereich, in dem Eure Seite aktiv ist. Man muss herausfinden, was Eure Nutzer erwarten und wie Ihr diese Erwartungen erfüllen könnt. Da gibt es keinen magischen Meta-Tag, der das besser machen kann. Immer wieder taucht diese Art von Fragen für individuelle Seiten auf und für alle gilt es, dass es hier keinen Zauber gibt, sondern man schauen muss, wie man sich vom Wettbewerb mit seinen Inhalten absetzten kann. Was oft hilft, ist sich Input von anderen Webmastern aus Webmaster-Foren zu holen. Man muss nicht jeden Tipp anwenden, aber zumindest kann man sich Inspirationen holen und feststellen, wie eure Website aus einem anderen Blickwinkel wahrgenommen wird.

Externe Autoren für Inhalte

Zeit: 32:50

Frage: Wir haben einen Inhouse-Autor, aber wir wollen für weitere News-Inhalte noch ausgelagerte Autoren mit ins Boot holen. Woher weiß ich, ob dieser Autor vielleicht einen schlechten Ruf hat, besonders an einem so frühen Zeitpunkt. Können wir dafür bestraft werden, wenn wir unwissentlich einen Autor mit einem schlechten Ruf einbringen? Wie können wir so etwas vermeiden?

Antwort: In der Regel forschen wir nicht nach, was ein Autor in der Vergangenheit geschrieben hat. Mir ist diesbezüglich nichts bekannt. Wenn ihr also neue Autoren zu Eurer Website hinzufügen möchtet, würde ich diese auswerten, so wie man alles andere Neue für eine Website auswertet. Wenn Ihr zum Beispiel einen neuen Graphiker sucht, schaut man ja auch nach seinen Referenzen und welche Arbeiten dieser in der Vergangenheit gemacht hat. Passt die neue Person zu Eurem Stil? Und eben all die natürlichen Dinge, nach denen man dann schaut. Wir bestrafen nur von Webmastern manuell geschaltete Dinge, die gegen die Webmaster-Richtlinien verlaufen, aber wir bestrafen keine Seite, weil man einen Autor eingestellt hat, der in der Vergangenheit vielleicht mal Keyword-Stuffing o. Ä. betrieben hat.

CDN

Zeit: 36:46

Frage: Bei meiner syrischen Seite ist der physische Inhalt auf einer Seite und CDN hat eine andere Adresse, ohne Umleitungen. Kann es zu Verwirrung beim Crawlen führen? 

Antwort: Das stellt für uns kein Problem dar. Was passieren kann ist, dass wir die verschiedenen Versionen unabhängig voneinander crawlen, wenn wir diese als zwei Versionen erkennen. Also einmal den Domainnamen und einmal die Subdomain von Eurer CDN. In dem Fall konkurriert ihr in einer gewissen Art und Wiese miteinander, da wir nicht wissen, welche URL wir wann zeigen sollen. Um das zu vermeiden und uns mitzuteilen, welche URL ihr wirklich indexiert haben wollt, solltet Ihr zum einen Umleitungen (Redirects) verwenden, oder möglich ist auch ein rel-Canonical zu setzen oder alle URLs, die Google nutzen soll, in eine Sitemap-Datei zu legen. Eine andere Möglichkeit ist auch das interne Verlinken, also ein Linking zu den Seiten, die ihr im Index haben wollt.

 

mDot

Zeit: 41:22

Frage: Unsere mobile Website sitzt auf einer Subdomain, einer mDot-Subdomain. Brauchen wir eine separate mobile Sitemap, in welcher alle mDot-URLs aufgelistet werden? 

Antwort: Nein, das braucht Ihr nicht. Wir sehen, dass Eure Desktop-Version eine verbundene mobile Seite hat, so können wir das austauschen und diese URL entsprechend in der Google-Suche anzeigen. Auf lange Sicht ist es eine gute Idee auf ein responsives Design abzuzielen, wo eine URL auf unterschiedlichen Geräten funktioniert.

Falsche Verlinkungen

Zeit: 45:30

Frage: Wie kann ich falsche Verlinkungen aus den Google-Suchergebnissen löschen? Es werden noch gelöschte Seiten Verlinkungen gezeigt und leiten auf eine 410 weiter, erscheinen aber noch als Verlinkung. 

Antwort: Seitenverlinkungen werden als normale Suchergebnisse angezeigt. Wir haben kein Tool mehr, um Seitenverlinkungen auf Websites zu managen. Um solche Links zu entfernen kann man die gleichen Tools verwenden, die man auch bei dem Entfernen von normalen Ergebnissen in der Google-Suche anwendet. Das geht mit einem „noindex“-Tag oder dem „URL Removal Tool“. In diesem Falle geht es ja schon auf eine 410, dieser Fehlercode sagt uns bereits, dass die Seite weg ist. Es kann also sein, dass die Seite erst kürzlich gewechselt wurde und es nun nur noch eine Frage der Zeit ist, bis wir die Seite immer und immer wieder crawlen und verarbeiten und merken, dass die Seite nicht mehr existiert und aus den Ergebnissen entfernen. Oder etwas wird blockiert und wir erkennen den Code 410 nicht und daher wird man auf eine Fehlerseite umgeleitet. Oder die Seite wird durch die robots.txt-Datei blockiert, so dass wir sie nicht crawlen können. Um das auszuschließen, könnt Ihr den „mobile-friendly Test“ machen oder das „Aufruf wie durch Google“-Tool innerhalb der Search Console verwenden.

Kaputte URLs

Zeit: 49:30

Frage: Was ist, wenn eine Website mehr Seiten hat, die nicht gefunden werden, als Seiten, die gefunden werden. Hat das Auswirkungen auf mein Ranking? Wir haben an unserer Website gearbeitet und plötzlich hatten wir viele Crawl-Fehler.

Antwort: Es ist ganz normal für Websites, URLs zu haben, die nicht funktionieren. So funktioniert das Netz. Von unserer Seite probieren wir dieser URLs regelmäßig aus, wenn wir merken, dass sie nicht funktionieren, crawlen wir sie in der Regel seltener, aber nach einer Weile probieren wir sie hin und wieder erneut, daher seht ihr sie in der Suchkonsole als Crawl-Fehler. Das wirkt sich aber nicht negativ auf den restlichen Inhalt auf Eurer Website aus. Wir fokussieren uns nur auf die Inhalte, die wir auf Eurer Seite auch finden können und indexieren und ranken nur diese.  

Umgang mit nummernbasiertem Inhalt

Zeit: 50:30

Frage: Wir haben eine Boxkampf-Statistik-Website mit Millionen von Boxer-Profilen und Kampfseiten, die meisten dieser Seiten listen Fakten wie Zahlen und Nummern. Die meisten unserer Statistiken sind einzigartig für uns, aber es scheint, dass Google unseren Inhalt als gering oder zu ähnlich zu anderen sieht. Aufgrund der meist angezeigten Zahlen und des wenigen Textes. Was ist der beste Weg unser Ranking zu verbessern, wenn wir unser Inhalt hauptsächlich Fakten und Nummern basiert ist? 

Antwort: An sich ist nummernbasierter Inhalt etwas, was einen Platz im Netz hat und für uns kein Problem darstellt. Andererseits ist es für uns manchmal schwer Informationen zu zeigen, die nur in Nummern und nicht in Text angegeben werden. Wir nutzen Text als Basis, um zu verstehen worüber die Seite handelt. Aber ich gehe davon aus, dass die Namen der Boxer oder die Namen der Spiele oder Events bereits in Textform dargestellt sind, ansonsten würde ich das an eurer Stelle mal checken und gucken, dass diese Inhalte wirklich in Textform auf Eurer Seite stehen und nicht nur als ein Bild oder ähnliches. Ich würde versuchen zu verstehen, was Eure Nutzer von Euch wollen und demnach schauen, was man tun kann, um die Qualität des Inhaltes zu verbessern. Ihr könntet eventuell mehr Text hinzufügen oder vielleicht hat Eure Website auch einfach ein kleines Publikum und daher kommen wenige Leute direkt von der Suche auf Eure Seite. 

Hackerangriff

Zeit: 54:33

Frage: Wenn eine Seite gehackt wurde, wie lange dauert es bis die Rankings wiederhergestellt sind? 

Antwort: Es kommt drauf an welche Art von Hackangriff hier stattgefunden hat. Wenn wir erkennen können, dass dort klare Abschnitte des Inhaltes gehakt wurden, können wir das aussperren und wir fokussieren uns auf die vorherige Version der Seite. Ist jedoch die ganze Website gehackt, ist es schwierig für uns das zu isolieren und dann müssen wir im Wesentlichen die komplette Seite neue bearbeiteten, um zu verstehen worüber die Seite überhaupt handelt, geht es hier z. B. um Pharmazeutika oder um Joggingschuhe und das braucht seine Zeit, dafür haben wir keine genauen Zeitangaben. Es kommt als auf die Stärke des Hackangriffs an.

Constanze Bettendorf und Jochen Moschko

Hinterlasse eine Antwort