Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 8. Februar 2019:
Beschädigte Links
Zeit: 07:02
Frage: Uns werden wahllos beschädigte Links in der Search Console angezeigt. Was sollen wir machen? Sie umleiten oder sie einfach so lassen, wie sie sind?
Antwort: Ich weiß nicht welche kaputten Links Ihr da seht, aber im Allgemeinen, wenn Ihr einen nicht funktionierenden Links seht, der zu Eurer Seite führt, dann ist es ok eine 404 für eine URL, die ja nicht existiert, wiederzugeben. Dafür ist der 404 Status-Code da und damit können unsere Systeme gut arbeiten.
Falls Ihr Links seht, die zu Eurer Seite verweisen und Ihr könnt erraten was sie bedeuten, weil sie vielleicht einen Tippfehler haben oder einen Punkt zu viel am Ende, da macht es dann Sinn sie weiterzuleiten. Besonders wenn Leute durch die Links gehen. Hier versucht jemand Eure Website zu empfehlen, aber sie haben es nicht perfekt gemacht, also solltet Ihr diese auf die richtige Seite weiterleiten.
Syndizierter Inhalt
Zeit: 08:50
Frage: Welche Faktoren könnten dazu führen, dass ein auf einer Partnerseite syndizierter Inhalt gut platziert wird? Dies ist trotz der Tatsache, dass das Canonical auf meiner Seite auf den ursprünglichen Inhalt eingestellt ist und seit mehreren Monaten dort ist. Ist das eine Angelegenheit von Seiten oder Nischen-Autorität?
Antwort: Das ist eine knifflige Situation. Wir versuchen immer herauszufinden, welche Seite die relevanteste ist für die jeweiligen Anfragen ist und wollen die Nutzer direkt dahinführen. Wenn es aber komplett verschiedene Websites sind und sie nur die gleichen Artikel posten, dann gibt es auch zusätzlichen Wert vom Rest der Website. Das können Informationen auf der jeweiligen Seite sein, oder wertvolle Informationen, die jemanden dazu bringen, von denen einen Artikel auf andere Dinge zu gehen, weil sie ebenfalls interessant für ihn sind. Wenn Ihr Inhalte syndiziert müsst ihr berücksichtigen, dass möglicherweise der Inhalt, den Ihr mit einer anderen Website syndiziert habt über Euren Inhalten rankt, das ist nicht unbedingt immer vermeidbar. Ich denke das Canonical ist ein guter Weg uns mitzuteilen, dass die zwei Websites zusammen gehören, aber es ist auch der Fall, dass das Canonical nicht unbedingt das Richtige in so einem Falle ist, denn die Seiten an sich können komplett unterschiedlich sein, es kann sein, dass der eine Textblock gleich ist, aber der Rest der Seite komplett unterschiedlich. Das ist eine Art Kompromiss, den Ihr eingehen müsst. Es ist sinnvoll, die Informationen durch die Syndizierung des Inhalts einem breiteren Publikum zugänglich zu machen, aber Ihr müsst akzeptieren, dass dann gegebenenfalls die andere Seite über der eigenen rankt.
Soft 404
Zeit: 11:19
Frage: Google meldet für unsere abgelaufenen Produktseiten eine weiche 404. Diese URLs leiten an ein entsprechendes Alternativprodukt weiter, mit der Mitteilung, dass das gewünschte Produkt nicht verfügbar ist. Verursacht die Weiterleitung die Soft 404 oder der Inhalt der Seite, zu der weitergeleitet wurde?
Antwort: Meine Vermutung ist, dass unsere Algorithmen vielleicht den Banner sehen und dass das Produkt nicht mehr verfügbar ist. Sie gehen davon aus, dass das für die Seite gilt, auf die der Benutzer endet. Wenn Ihr wirklich ein Produkt mit einem anderen ersetzen wollt, macht es Sinn einfach weiterzuleiten. Wenn ein Objekt absolut nicht mehr verfügbar ist, würde ich es ansonsten bei der Soft 404 belassen mit der Info, dass das Produkt nicht mehr verfügbar ist.
Hreflang
Zeit: 12:41
Frage: Wie lange braucht Google, um Hreflang-Tags zu erkennen? Ist es möglich, dass Google zuerst aus der Schweiz indexiert und eine .CH-Version unter der deutschen Top-Level-Domain anzeigt?
Antwort: Eigentlich indexieren wir Inhalte nicht zuerst aus der Schweiz, unsere Crawler und unsere Systeme sitzen in der USA und nicht in der Schweiz, daher priorisieren wir nicht Schweizer Inhalt vor anderen Inhalten. Im Allgemeinen passieren mit Hreflang-Links Multi-Step-Prozesse. Zuerst müssen wir diese verschiedenen Versionen der Seite crawlen und indexieren, dann müssen wir sie mit derselben URL indexieren, die Ihr im Hreflang-Markup angegeben habt, und dann müssen wir in der Lage sein, diesem Hreflang-Markup zwischen diesen verschiedenen Versionen der Seite zu folgen. Und um das zu tun, müssen wir diese Bestätigung auch zurückhaben. Daher dauert es etwas länger als das normale Crawlen und Indexieren. Wir müssen das Netz zwischen den verschiedenen Seiten verstehen, die alle zu dem „Set“ der Hreflang-Seiten gehören. Daher ist es eher normal 2-3 mal länger zu brauchen, als wenn wir eine einzelne Seite crawlen und indexieren würden.Die andere Sache bei Hreflang ist, dass es nicht das Ranking verändert, es tauscht lediglich URLs aus.
Website-Personalisierung
Zeit: 21:50
Frage: Wie kann der Google-Such-Bot die Website-Personalisierung anzeigen?Wir haben eine neue Produktschicht, die es der Website ermöglicht, eine Personalisierung basierend auf dem Industriestandort auch an ein einzelnes Unternehmen vorzunehmen. Dadurch können wir den Inhalt wirklich anpassen.
Antwort: Der wichtige Teil hier ist, dass Googlebot meistens aus der USA crawlt. Wenn Ihr also unterschiedlichen Inhalt unterschiedlicher Ländern anbietet, wird Googlebot wahrscheinlich nur die US-Version des Inhaltes sehen. Wir können nicht verschiedene Inhalte für unterschiedliche Locations indexieren. Wenn da also etwas ist, was Ihr unbedingt indexiert haben möchtet, stellt sicher, dass es sich im generischen Teil eurer Website befindet, so dass der Googlebot es aufnehmen kann. Ihr seid dazu eingeladen, Personalisierung zu benutzen, um zusätzliche Informationen hinzuzufügen, aber wenn Ihr es indexiert haben wollt, sollte es in dem Teil der Seite stehen, der nicht an die Personalisierung gebunden ist.
Web.dev
Zeit: 22:55
Frage: Ich frage mich, wie sehr sich eine sehr niedrige Leistung in web.dev auf das Google-Ranking einer Website auswirkt.
Antwort: Ich weiß es nicht. web.dev ist ein echt gutes Tool, das die verschiedenen Tests, die es in Lighthouse gibt, zusammenfasst und euch eine Wertung auf diese gibt und euch dabei Hilft diese Ergebnisse zu verbessern. Zum Beispiel bei Geschwindigkeit: Dinge auf die ihr achten müsst oder Dinge, die Ihr ausprobieren könnt und im Laufe der Zeit verfolgt es den Fortschritt Eurer Website. Im Allgemeinen ist das eine gute Übung, die man durcharbeiten sollte, aber das heißt wiederum nicht, dass daraus automatisch ein höheres Ranking resultiert. Oder in ähnlicher Weise, wenn Ihr hier niedrige Bewertungen habt, bedeutet das nicht, dass Eure Website ein schlechtes Ranking aufweist, weil sie nicht den besten Methoden folgt. Einerseits, falls Eure Website so schlecht ist, dass wir sie nicht richtig indexieren können, welches der Fall sein kann, wenn man ein echt niedriges SEO-Ergebnis in Lighthouse hat, wo wir nicht auf die URLs zugreifen können oder es gibt keine URLs auf der Seite und sie ist nur eine JavaScript-Schale, die nicht verarbeitet werden kann, kann dies einen starken Effekt auf Euer SEO haben. Andererseits, wenn es nur eine Sache ist, dass Eure Website einfach nur etwas langsam ist oder sie nicht perfekt optimiert ist, weiß ich nicht, ob das einen signifikanten Effekt auf Eure Website hat. Meine Empfehlung ist hier auf den Ratschlag zu achten, der in Tools wie web.dev gegeben wird. Denkt darüber nach, was Ihr implementieren könnt, denkt darüber nach, was Ihr für eure Website als wichtig empfindet, einerseits für die Suchmaschinen, aber andererseits natürlich auch für die Nutzer. Wenn Ihr letztendlich etwas tut, das die Dinge für Eure Benutzer verbessert, hat dies auch eine Art Langzeit-Effekt auf den Rest Eurer Website.
Kanonisierung
Zeit: 25:20
Frage: Das URL-Inspektionstool in der Suchkonsole gibt uns unterschiedliche Informationen bezüglich unserer URLs im nutzerdeklarierten Canonical-Feld. An einem Tag ist es nicht verfügbar, an einem anderen zeigt es uns ein gegebenes Canonical. Kannst Du uns einen Einblick geben, warum das passiert? Gibt es einen Unterschied zwischen dem nutzerdeklarierten Canonical „nicht verfügbar“ und dem nutzerdeklarierten Canonical „keins“? Beide erscheinen im Tool bei URLs die Canonicals haben.
Antwort: Es kann bei der Wiederaufarbeitung der Daten zu gewissen Schwankungen kommen. Das ist vielleicht hier passiert. Insbesondere wenn eine URL komplett neu ist, kann es sein, dass wir den Canonical noch nicht verarbeitet haben. Aber das sollte nicht der Grund für diese Schwankungen sein. Wenn Ihr diese Aufs und Abs seht, wäre es für uns hilfreich einige Beispiel-URLs zu sehen und vielleicht auch ein paar Screenshots, damit wir uns das mal mit dem Team anschauen können. Das mit der Kanonisierung ist manchmal recht knifflig, da es sich über die Zeit ändern kann, also sind wir hier über genauere Infos dankbar, damit wir heraus finden können, was wir noch verbessern müssen.
Website-Struktur in mehrsprachiger, multiregionaler Konfiguration
Zeit: 28:32
Frage: Sollte ich mir Sorgen um die Konfiguration der URL-Parameter machen, wenn die Domains nach Ordnern aufgeteilt werden, um die Dienste in der Suchkonsole zu trennen?
Antwort: Einerseits denke ich, dass es gut ist, dass Ihr nach dieser Art von Dingen schaut, andererseits bin ich besorgt, dass Ihr unterschiedliche Konfigurationen durch Unterverzeichnisse für eine Website habt. Das hört sich sehr danach an, dass Ihr etwas nicht ganz so sauber mit der Konfiguration der URL-Parameter im Allgemeinen macht. Ich weiß nicht, was an dieser Website spezifisch ist. Es ist wirklich schwer zu sagen, aber es klingt, als hättet Ihr verschiedene Parameter, die verschiedene Dinge bedeuten oder die ignoriert werden können oder die nicht ignoriert werden sollten, abhängig von der Art der Unterverzeichnisse Eurer Website. Das ist möglich, damit sollten wir umgehen können. Jedoch gibt es auch Situationen, wo wir komplett einzelne URL-Parameter ignorieren können oder andere Fälle, wo genau diese exakt gleichen Paramater für den Inhalt kritisch sind. Bei so was können unsere Algorithmen verwirrt sein, weil sie nicht wissen, ob sie die Parameter immer behalten müssen oder niemals. Dann fehlt plötzlich ein Teil eures Inhaltes oder ein Teil ist mehrmals indexiert. Das URL-Parameter-Werkzeug hilft uns also in solch einem Falle, aber wahrscheinlich macht es hier mehr Sinn diese URL-Parameter im Allgemeinen aufzuräumen und einen Weg für eine konsistente Struktur für Eure Website-URLs zu finden, so dass unsere Algorithmen nicht mehr erraten müssen, welcher Parameter wo wichtig ist und wo nicht. Jedesmal wenn Ihr zu viel Komplexität zu Eurer Website hinzufügt, lauft Ihr eher in die Richtung, Dinge eventuell falsch zu machen. Umso leichter, klarer und einfacher Ihr in Eurer URL-Struktur bleibt, desto eher können wir sie crawlen und indexieren ohne etwas erraten zu müssen. Auch gibt es noch andere Suchmaschinen da draußen und diese haben das URL-Konfigurations-Tool nicht und wären also gar nicht in der Lage das zu sehen und Ihr würdet somit Probleme bei den anderen Suchmaschinen erzeugen. Oder vielleicht spielt es auch eine Rolle wie Eure Inhalte in sozialen Medien geteilt werden, so dass von allem etwas hier zum Tragen kommt.
URL-Struktur
Zeit: 34:37
Frage: Ich will meine Kunden in meiner Website navigieren. Ich will aber auch sicher sein, dass das Google nicht verwirrt. Welche URL-Struktur soll ich wählen?
Antwort: Aus meiner Sicht kann man jede URL-Struktur benutzen. Wenn Ihr eine Art Pfadunterverzeichnisstruktur verwendet, ist das vollkommen in Ordnung. Für uns ist es wichtig, dass wir uns nicht in unendliche Weiten verlieren. Es sollte einfach eine saubere URL-Struktur sein, in welcher wir von der einen URL zur anderen crawlen können. Ihr könnt URL-Parameter benutzen, aber wenn Ihr Euch dazu entscheidet, haltet es, wie vorhin schon Mal erwähnt, in einem angemessenen Umfang, so dass wir uns nicht in unendliche Räume verlieren, in denen viele URLs zum gleichen Inhalt führen. Aber ob Ihr das Produkt zuerst setzt, oder die Kategorie oder ob ihr die Kategorie ausschriebt oder eine ID für die Kategorie benutzt, liegt komplett an Euch. Das muss auch nicht zwischen Eurer E-Commerce Seite und Eurem Blog linear sein, das kann auf beiden komplett unterschiedlich sein. Ich finde es gut, sich das mal anzuschauen, aber andererseits würde ich mir nicht die Nächte um die Ohren hauen und eher die URL-Struktur finden, die auf lange Sicht für Euch funktioniert. Vor allem eine, von der Ihr nicht glaubt, dass Ihr sie in Zukunft ändern müsst. Versucht also etwas auszuwählen, das für Euch und Eure Website geeignet ist.
Dynamische Rendering in Angular Universal
Zeit: 37:39
Frage: Wir entwickeln eine Applikation für angular Universal. Mit einigen Sektionen wollen wir die Erscheinung der URL im Browser verändern, aber serverseitig soll es gleichbleiben. Der Server würde dann „Luxus Güter – Ledertaschen“ sehen, der User jedoch nur „Ledertaschen“. Gibt es Probleme das dynamische Rendering in Angular Universal zu benutzen?
Antwort: Aus der praktischen Sicht ist es Googlebot egal, was Ihr auf Eurem Server macht. Wichtig für uns ist, dass Ihr separate URLs für separate Seiten habt, dass wir Links haben, auf die Googlebot klicken kann. So etwas wie A-Elemente mit einem Href, die zu einer URL zeigt, der wir folgen können. Wir sollten auf die URLs zugreifen können, ohne jegliche Geschichte, die mit ihnen verbunden ist. Wenn wir also eine URL von eurer Website nehmen, sollten wir sie in einen Inkognito-Browser kopieren und einfügen und den Inhalt laden können. Wenn der Inhalt dann geladen wird und Ihr saubere Links zwischen den Seiten habt, liegt es ganz an Euch wie Ihr das auf Eurem Server handhabt. Egal ob Ihr Angular Universal mit dynamischen Rendering benutzt, oder ob Ihr was Eigenes einstellt, liegt ganz bei Euch. Das würden wir noch nicht mal sehen, denn wir sehen nur die HTML und die URLs, die Ihr uns anbietet.
Qualität
Zeit: 39:20
Frage: Meine Website ruft einzelne Webseiten ab, die nicht über eine API miteinander verbunden sind, aber keine Links werden durch Klicks angezeigt. Es gibt ein Suchfeld, in dem auf jeder einzelnen Seite Suchergebnisse angezeigt werden. Google crawlt erfolgreich alle Links als gültig über die Sitemap. Ist Google der Ansicht, dass dies eine gültige Praxis ist, weil Links in Millionen Rankings schädigen oder Rankings verbessern werden?
Antwort: In dieser Frage sind viele Aspekte, die sich irgendwie zweifelhaft anhören und einige hören sich ganz ok an. Wenn Google bereits diese Seiten indexiert, scheint ja irgendetwas richtig zu laufen. Im Allgemeinen würde ich Situationen vermeiden, in denen eine normale Website-Navigation nicht funktioniert. Wir sollten dazu in der Lage sein von einer URL zu jeder weiteren URL auf eurer Website zu crawlen, indem wir einfach den Links auf der Seite folgen. Wenn das nicht möglich ist, verlieren wir viel Kontext. Wenn diese URLs nur durch die Sitemap-Datei angezeigt werden, wissen wir nicht wirklich, wie diese URLs miteinander zusammenhängen. Daher ist es für uns wirklich schwer zu verstehen, wie relevant dieser Inhalt im Kontext Eurer Website ist, im Kontext des gesamten Webs. Wenn Ihr von Millionen von Seiten sprecht, die ihr durch API mit einer Suchbox generiert und viele davon durch die Sitemap-Datei, wäre ich vorsichtig in Bezug auf die Qualität der Inhalte, die Ihr dort zur Verfügung stellt. Insbesondere dann, wenn Ihr über Produkt-Feeds verfüget oder RSS-Feeds verwendet, um diese Seiten zu generieren. Wenn Ihr etwas macht, um automatisch Inhalte von anderen Websites oder aus anderen Quellen abzurufen um die Inhalte auf Eurer Website erneut zu veröffentlichen, dann könnte ich mir vorstellen, dass unsere Qualitätsalgorithmen damit vielleicht nicht so glücklich sind. Ähnlich ist es, wenn dies alles wirklich von anderen Websites komplett neu veröffentlicht wird, könnte ich mir vorstellen, dass das Web-Spam-Team sich das anschaut und sagt: „Nun, warum sollten wir überhaupt irgendeinen Inhalt indexieren, wenn wir bereits den gesamten Inhalt der Originalquellen indexiert haben?!“ Es gibt dann keinen Mehrwert. Ich will damit nicht sagen, dass Eure Website „spammy“ ist, aber wir sehen so etwas oft.
Testwerkzeug
Zeit: 43:30
Frage: Wir sind mit einem Problem konfrontiert, bei dem viele Ressourcen nicht geladen werden konnten, da beim Debuggen dieser Probleme dieselbe Seite nicht im Snapshot für Googlebot dargestellt wurde. Wir konnten keine Lösung finden und dies wird von Google als „anderer Fehler“ markiert. Was könnte das sein?
Antwort: Das ist eine häufige Frage. Was hier im Wesentlichen passiert, ist ein Kompromiss zwischen einem Testwerkzeug und dem eigentlichen Indexieren. Im Testwerkzeug versuchen wir so schnell wie möglich direkt von Eurem Server Informationen zu erhalten, aber zu der gleichen Zeit wollen wir Euch eine vernünftige schnelle Antwort liefern, so dass Ihr sehen könnt, was passiert. Wenn Ihr auf Euren Seiten viele Ressourcen habt, die geladen werden müssen, dann kann es vorkommen, dass unsere Systeme im Wesentlichen eine Zeitüberschreitung anzeigen. Wir versuchen alle eingebetteten Ressourcen abzurufen, aber wir haben nicht genug Zeit, weil wir euch ja so schnell wie möglich antworten möchten. Am Ende werden diese eingebetteten Ressourcen nicht abgerufen und es wird ein Fehler im Live-Rendering der Seite angezeigt. Beim Indexieren sind unsere Systeme weitaus komplexer. Wir speichern viele dieser Ressourcen zwischen. Wenn wir also versuchen eine HTML-Seite zu indexieren, wissen wir, dass wir all diese CSS-Dateien, die wir vorher gesehen haben, einfach aus den Zwischenspeicher herausziehen können, wir müssen sie nicht wiederholen und können diese Seiten einfach normal rendern. Um das Testwerkzeug zu verbessern, könnt Ihr zum einen beispielsweise die Anzahl Eurer eingebetteten Ressourcen verringern, also anstatt hundert CSS Dateien zu haben, könnt Ihr eine CSS-Datei daraus machen, das macht Sinn für Nutzer und den Suchmaschinen. Das geht auch mit JavaScript. Ihr könnt das JavaScript minimieren, indem Ihr Dinge kombiniert und eine Art von Paketen erstellt, anstatt einzelne Dateien zu haben. Eine andere Sache ist, wenn Ihr diese Dinge bei euren Seiten beobachtet und Ihr habt gar nicht viel eingebetteten Inhalt, dann ist es wahrscheinlich ein Anzeichen dafür, dass Euer Server etwas langsam ist und wir nicht genug Inhalt von Euren Server holen können. Das ist dann eine Chance, nach Euren Server- und Netzwerk-Verbindungen zu schauen und darüber nachzudenken, was man tun kann, um alles ein wenig schneller zu machen, so dass diese Tools keine Zeitüberschreitung haben. In beiden Fällen bedeutet dies im Endeffekt, dass die Benutzer die Geschwindigkeitsverbesserung meistens sehen. der Nebeneffekt ist jedoch auch, dass Ihr diese Tools effektiver verwenden könnt.
Updates
Zeit: 53:55
Frage: Als Ergebnis von mehreren Updates in der letzten Zeit, die als das „Medical Update“ verschrien wurden, habe ich einige Websites gesehen, die nicht mehr für ihre eigene Firma, für ihre eigene Marke auf der ersten Seite der Suchergebnisse stehen. Ich habe mich gefragt, was Google nicht mag, dass andere Websites, die auf Websites verweisen, sich auf der ersten Seite befinden, während sich die eigentliche Website nicht auf der ersten Seite befindet.
Antwort: Da sind normalerweise zwei Aspekte mit einbezogen. Dies ist insbesondere bei neueren Websites ein Problem, bei denen der Website- oder Firmenname eher einer generischen Anfrage ähnelt. Wenn zum Beispiel der Name der Website "beste Anwälte in Pittsburgh" oder ähnlich lautet, dann könnte dies einerseits der Firmenname sein, andererseits, wenn jemand das in die Suche eingeben möchte, würden wir wahrscheinlich davon ausgehen, dass man nicht nach diesem bestimmten Unternehmen sucht, sondern nach Informationen für diese Abfrage. Wenn es sich um Websites handelt, die ein wenig mehr etabliert sind, ist es in der Regel eher ein Zeichen, dass wir dieser Website nicht mehr so sehr vertrauen. Hier merken wir wahrscheinlich, dass Leute eigentlich nach der Firma suchen, aber uns kommt es so vor, als ob die Firmenseite an sich nicht mehr so relevant für das Ergebnis ist. Vielleicht haben wir das Gefühl, dass es eine Art Hilfsinformation über diese Firma gibt, die wichtiger ist und die der Nutzer zuerst sehen sollte. Das kann der Grund sein, warum so Dinge passieren können. Normalerweise bewegt sich so was auf den ersten ein oder zwei Seiten der Suchergebnisse. Es ist wirklich selten, dass das dazu führt, dass eine Website nicht auf den ersten paar Seiten der Suchergebnisse angezeigt wird.
[su_youtube url="https://www.youtube.com/watch?v=fCMwhn8cZD4"]
Constanze Bettendorf und Jochen Moschko