Google Webmaster Hangout Transkript, 04.09.2018

von SEO Portal

Kategorie(n): Google Webmaster Hangouts Datum: 18. September 2018
Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 4. September 2018:

Update vom 1. August

Zeit: 04:13 Frage: Es geht um das Update vom 1.August. Ich habe gemerkt, zumindest bei rumänischen Ergebnissen, ist es merkwürdig, dass einige Seiten davon betroffen zu sein scheinen und einige nicht. Es wirkt so, als ob eine Anzahl von echten Ergebnissen schlechtere inhaltliche Qualität haben und diese teilweise noch nicht einmal eine mobile Website haben, jedoch Seiten mit guten Inhalten übertroffen haben. Das haben wohl auch andere Leute bemerkt, besonders in nicht englischsprechenden Ländern im europäischen Markt, dass normale Seiten schlechter gerankt werden und Seiten mit schlechterem Inhalt bessere Positionen erlangen. Arbeitet ihr da noch dran oder bleibt das jetzt so? Antwort: Wir arbeiten stetig an unseren Suchergebnissen. Bisher habe ich jedoch noch kein negatives Feedback von europäischen Seiten bekommen. Vielleicht begrenzt sich das auf ganz wenige individuelle Seiten, aber ich bin immer glücklich solche Sachen an unser Team weiterzuleiten, so dass sie einen Blick drauf werfen können.

nested Divs

Zeit: 18:03 Frage: Ich arbeite an einer Seite, in welcher Designer viele Divs anwenden. Eins der Divs hat Schriftgröße Null und dann später ein URL-Tag, Listitem und Anchor und auf dem A-Tag ist die Schriftgröße 13. Ich kann die Inhalte sehen, aber es scheint, dass sie für Google unsichtbar sind. Ist das ein richtige Verhalten von Web Rendering Services? Antwort: Das hört sich an, als ob wir vielleicht CSS nicht richtig aufnehmen oder da spielt irgendetwas anderes zusammen, dass es uns erschwert es richtig zu lesen. Im Allgemeinen benutzen wir eine Chrome-Version um diese Seiten zu rendern, wenn es also Chrome zeigen kann, sollte es für Google-Indexing auch gehen. Was Ihr in diesem Falle auch machen könnt, ist nach dem Content in der Suche schauen und wenn Ihr ihn dort findet, dann funktioniert es offensichtlich.

„Fetch as Google“-Tool

Zeit: 19:07 Frage: Wie können wir schnell indexen und backlinken, wenn das Google URL Eingabe-Tool nicht funktioniert? Antwort: Ich nehme an Ihr meint die URLs auf eurer Seite, die ihr geindext bekommen wollt, denn Backlinks werden nicht geindext. Was Ihr hier machen könnt, ist das „Fetch as Google“-Tool in der Such Konsole zu benutzen. Zuerst müsst Ihr Eure Domains verifizieren und dann könnt Ihr mit dem Tool Eure URLs zum Indexieren einreichen. Die meisten Seiten sollten das nicht manuell machen müssen, denn normalerweise crawlen und indexieren wir das Web auf eine organische Art und Weise und wir nehmen neue URL so schnell wie möglich auf und wir indexieren sie so schnell wie möglich. Ihr solltet Euch nicht darauf verlassen müssen, sie manuell an Google zu senden.

Mobile Ranking-Faktoren

Zeit: 20:05 Frage: Ist die mobile Nutzerfreundlichkeit, die in der Search Console angezeigt wird, ein Teil des Google-Ranking-Faktors? Antwort: Im Allgemeinen meint der mobile Ranking Faktor, dass wir eine Seite als mobile-freundlich erachten, sie also die Kriterien dafür erfüllt und daher können wir sie dann leicht höher in den Suchergebnissen ranken. Ich gehe davon aus, dass die mobile Benutzerfreundlichkeit praktisch alle Aspekte abdeckt, die für die mobile Benutzerfreundlichkeit gelten. Also schaue ich mir das an und viele Male sind Eure Probleme einfach zu beheben, so dass es immer wert ist, etwas aufzuräumen und sicherzustellen, dass die Dinge ausgerichtet sind.

Soft 404

Zeit: 21:04 Frage: Was ist mit den Bildern in der neuen Search Console, sie zeigen einen „Soft 404“. Was können wir in dem Falle machen? Antwort: Im Allgemeinen gilt die Software für Webseiten, also HTML-Seiten, die wir bei der normalen Websuche indexieren würden. Wenn Ihr also beispielsweise dort Bilder mit dem Inspect-URL-Tool testet, würde der Status nicht darauf hinweisen, was wir in Google-Bildern anzeigen, sondern nur auf die Google-Websuche. Also ist es recht normal, dass wir das Bild nicht als ein Web-Dokument sehen, das wir in der Web-Suche zeigen können und dann zeigen wir ein „Soft 404“ oder einen anderen Status-Code im Inspect-URL-Tool.

Google Tag Manager

Zeit: 21:49 Frage: Was denkst Du über das Einfügen von JavaScript-Canionical-Tag mit einem Google-Tag-Manager in HTML-Seiten? Kann der Google-Bot das sehen? Antwort: Ich denke, die Verwendung des Google-Tag-Managers ist eine ziemlich gute Methode um Seiten zu ändern, aber man muss bedenken, dass dies zum Rest der Website bzw. der Websuche relativ verschoben ist. Im Wesentlichen bedeutet das, dass nur Suchmaschinen, die Euren Inhalt rendern können, dies sehen, nur Suchmaschinen, die in der Lage sind, die Google-Tag-Manager-Skripte zu verarbeiten. Wenn Ihr also etwas wie einen „rel-canonical“ Tag sendet, das für viele verschiedene Suchmaschinen relevant ist und Ihr nur den Tag-Manager verwendet, um das zu übermitteln, das nur Google sehen kann, wäre das vielleicht nicht optimal.

Das bedeutet, weil es alles in JavaScript ist, dass wir das JavaScript zuerst verarbeiten müssen, um sehen zu können, was mit JavaScript hinzugefügt wird. Normalerweise beinhaltet das eine Zeitspanne. Nach dem ersten Crawlen der HTML-Seite, nach dem Indexen der anfänglichen HTML-Seite, wo wir die Dinge hinten anstellen müssen, Dinge für die JavaScript-Verarbeitung vorbereiten müssen, alle JavaScript und CSS-Dateien rausziehen, die Seite verarbeiten, so wie es ein Browser machen würde, und dann das Endergebnis ziehen und das wieder zum Indexieren benutzen. Also gibt es eine Art Zeitspanne vom Verarbeiten und Indexieren der HTML-Seite bis hin zur Benutzung der JavaScript-Version, das kann Tage bis Wochen später sein. Also gibt es da immer eine leichte Verspätung zwischen den zwei Konfigurationen.

Der andere Aspekt hier, der wegen dieser Verzögerung ins Spiel kommt, ist: Wenn Ihr etwas anderes im Manager als in den HTML-Seiten macht, dann entstehen widersprüchliche Zustandsversänderung zwischen den zwei Versionen. Wenn Ihr also einen Canonical in der HTML-Seite habt und der Tag-Manager wechselt dieses Canonical in etwas anderes, dann folgen wir zuerst den anfänglichen Canonical, später wechseln wir dann zu der JavaScript-Version des Canonicals. Wenn wir diese Seite dann verarbeiten, haben wir dann wieder diese verzwickte Situation.

Wenn ihr einen „NoIndex“-Robots-Meta-Tag auf einer Seite mit dem Tag-Manager ändert, kann das die Bedeutung der Seite komplett verändern. Wenn Ihr einen NoIndex hinzufügt, gibt es eine Zweite, wo wir die Seite als indexierbar sehen und dann als nicht indexierbar. Wenn Ihr den NoIndex-Tag entfernt, sehen wir sie zuerst als nicht indexierbar und es kann sein, dass wir niemals das JavaScript verarbeiten, weil wir denken, dass uns der Webmaster ja bereits die Seite als nicht indexierbar vermerkt hat.

Ich nehme an, dass dieser Zustand noch einige Zeit anhalten wird. Es wird also schwierig für uns, das Crawlen und Rendern komplett zusammen zu bringen. Das ist hauptsächlich aus Gründen der Ressourcen. Wir können nicht jede Seite sofort nach dem Crawlen rendern, weil wir dann auf das gesamte JavaScript zugreifen müssten und alles Rendering sofort nach dem Crawlen ausführen. Daher gibt es fast immer diese zeitliche Verschiebung zwischen der HTML-Version und der JavaScript gerenderten Version.

Mobile First Indexing

Zeit: 33:07 Frage: Wie wichtig ist gleicher Inhalt zwischen mobiler und Desktop-Homepage für News-Seiten? Ich habe widersprüchliche Updates dazu gehört. Antwort: Wir wechseln Seiten zu „Mobile First Indexing“ wenn wir sehen, dass die mobile und die Desktop Seite vergleichbar sind. Wenn wir sehen, dass die mobile Version bedeutend weniger Inhalt hat, weniger Bilder, Structured Data, interne Verlinkungen oder ähnliches, dann würden wir wahrscheinlich in dem Moment nicht zu Mobile First Indexing wechseln. Andererseits, wenn wir zu Mobile First Indexing wechseln, dann nutzen wir nur die mobile Version, also ist die inhaltliche Parität an dem Punkt, wenn es einmal zu Mobile First Indexing gewechselt ist, keine Frage mehr. Wir nutzen nur die mobile Version für die Indexierung.

Knowledge Panel

Zeit: 39:32 Frage: Wie kommt es dazu, dass Ihr einen Knowledge Graph auf News-Agentur Websites hinzugefügt habt ohne eine Adresse an unsere Google-Suche-Besucher zu geben? Antwort: Das ist etwas, was wir über die Zeit organisch aufnehmen. Wenn wir erkennen können, dass diese Suchanfrage im Wesentlichen zu eurer Website führt und wir Informationen über Eure Website haben, richten wir das so ein. Wenn Ihr Eure Website in der Suchkonsole verifiziert habt, könnt Ihr uns dazu Feedback geben, wenn wir einmal für Eure Website ein Knowledge Panel angezeigt bekommen haben. Aber das kann man nicht erzwingen.

kopierter Inhalt

Zeit: 40:11 Frage: Was würdest Du für Seiten vorschlagen, die sich mit Songtexten befassen und es alles kopierter Inhalt ist? Antwort: Du beantwortest es Dir quasi schon selber. Wenn Ihr etwas anbietet was andere auch haben, gibt es wenig Gründe, dies auch auf Eurer Seite anzuzeigen. Ihr solltet darüber nachdenken, was Ihr anders machen könnt, als alle andere und uns etwas bereitstellen, dass es für uns auch Sinn macht Leute genau zu Eurer Seite zu schicken. Macht nicht einfach das was alle machen, sondern macht etwas Einzigartiges, etwas was den Wert hat, dass die Leute genau auf Eure Seite kommen sollten. Einige Seiten habe schon tolle Dinge geschafft und das zeigt, dass es in dem Bereich nicht unmöglich ist, neue Inhalte zu kreieren, es bedeutete nur, dass man lange daran arbeiten muss, um hier aus der Menge zu stechen und einen guten Eindruck zu hinterlassen.

Mobile First Indexing

Zeit: 42:41 Frage: Wie geht man mit Seiten um, wo ein Teil des Inhalts nicht mobil nutzbar ist? Zum Beispiel Seiten die Flash-Spiele und JavaScript-Spiele anbieten. Werden sie gecrawlt? Sollten sie in die mobile Version einbezogen werden, auch wenn sie für mobile Endgeräte nicht brauchbar sind?  Antwort: Es ist ok, wenn man einen Teil seiner Seite auf einer mobilen Version hat und einen Teil nicht. Was hier bezogen auf Mobile First Indexing passieren könnte ist, dass unsere Systeme evtl. etwas verwirrt sein könnten. Ich weiß nicht richtig, ob sie eine Seite mit viel Flash und JavaScript-Games-Inhalten problemlos zu Mobile First Indexing wechseln können oder ob es am Ende mehr Probleme bereitet als dass es helfen würde. Wenn Ihr daran interessiert seid zu Mobile Fist Indexing zu wechseln, dann würde ich versuchen es für uns einfacher zu machen zu erkennen, dass Eure Seite dafür bereits ist. Ihr könnt dann zum Beispiel die Flash-Games auf eine andere Seite stellen und uns mitteiln, dass die eine Seite für den Wechsel bereit ist und die andere noch nicht.

404

Zeit: 44:43 Frage: Wir haben einen Kunden, dessen Suchkonsolen-Daten eine Menge an URLs mit Fehlern auslösen. Die URLs sind alle über Schuhe und Ray-Ban-Sonnenbrillen und existieren nicht mehr. Wir denken, dass sie von einer vergangenen Seite stammen und sie zuvor gehackt wurden. Gibt es irgendetwas, wonach wir in diesem Fall suchen sollten?  Antwort: Nein. Besonders wenn sie alle eine 404 wiedergaben sind sie alle gesetzt. Sie werden aus dem Index fallen. Wenn sie noch indexiert werden, werden wir sie von Zeit zu Zeit erneut indexieren, wahrscheinlich werden wir sie noch für ein paar Jahre wiederholen, aber wenn sie 404 zurückgeben, ist das völlig in Ordnung.

Disavow-Tool

Zeit: 46:42 Frage: Wie können wir uns davor schützen, dass der Wettbewerb schlechte Backlinks kreiert, die unser Ranking ruinieren. Ist es zu spät für Disavow? Antwort: Im Allgemeinen können wir sehr gut schlechte Backlinks erkennen und ignorieren diese dann. Unsere Algorithmen haben damit vier Erfahrung und wir haben viel Feedback vom WebSpam-Team zu dem Thema. Wenn man sich jedoch sorgt ist das Disavow eine gute Möglichkeit. Viele Fälle, die wir uns angeschaut haben, wo Leute sich über negatives SEO beschweren, sind jedoch oft einfach normale Ranking-Veränderungen, die in der Suche die ganze Zeit vorkommen. Es ist nicht der Fall, wenn eine Seite heute hoch im Ranking steht, dass sie auch in der Zukunft noch dort steht. Veränderungen können immer wieder auftreten. Was wir auch oft sehen, dass Leute über Jahre hinweg komische Verlinkungen auf ihrer Seite ansammeln und irgendwann macht es ein anderer und verlinkt wieder wirr herum und denkt, dass hier schlechtes SEO sattfindet und an sich ist es nur unser System, welches noch die alten Verlinkungen aufnimmt, welche über einen langen Zeitraum liefen. Aber das ist auch etwas, wo das Disavow-Tool helfen kann, das aufzuräumen. Mit dem Disavow-Tool ist es ziemlich einfach über viele Links zu wachen, so dass ihr sie nicht einzeln auflisten müsst, Ihr müsst sie nicht einmal einzeln betrachten. Wenn Ihr das Disavow über die ganze Domain legt, habt ihr alles automatisch abgedeckt.

Unterverzeichnisse

Zeit: 51:51 Frage: Ich weiß, dass die Leute viel über diese ganze Subdomain- und Unterverzeichnis-Sache sprechen. Ich betreue ein Projekt, bei dem es ungefähr 3 bis 4 unterschiedliche Zielgruppen gibt und ich würde es gerne in verschiede Themen aufsplitten, wo quasi jedes seine eigenen Seite bekommt, denn jedes Thema hilft einer andere Gruppe, dient einem anderen Zweck, hilft bei verschiedenen Aufgaben. Ich will das aber so, dass sie noch alle miteinander verbunden sind, da sie ja alle zur selben Organisation gehören. Das Ziel ist es jedoch nicht, dass es am Ende aussieht wie ein eigenes Blog-Netzwerk, es soll nur unterschiedliche Sektionen geben. Es sind quasi drei verschiedenen Seiten mit ihren Fokus, ihren inhaltlichen Stärken und ich denke, dass es für den Benutzer nützlicher ist, sie als eigenständige Stücke zu sehen und parallel soll aus auf keinen fall wie ein Blog-Netzwerk aussehen, wenn ich sie alle zusammen verlinke. Sollte ich Links als ungültig erklären (disavow)? Antwort: Ich sehe keine Notwendigkeit irgendeinen dieser Links als ungültig zu erklären. Wenn es sich im Wesentlichen um drei verschiedene Unternehmensgruppen innerhalb desselben Unternehmens handelt, ist das völlig in Ordnung. Ihr könnt verschiedene Domains, Subdomains und Unterverzeichnisse verwenden, es liegt an Euch.

Unterverzeichnisse machen uns klarer, dass etwas zusammengehört und dass sie alle eine große Website sind. Manchmal möchte man diese Verbindung jedoch gar nicht so klar und man möchte komplett verschieden Zielgruppen ansprechen und verhindern, dass sie sogar nicht einmal durch den anderen Inhalt geführt werden.

Wir können erkennen, dass sich Dinge auf derselben Website befinden, auch wenn sie sich in Subdomains befinden, und wir können erkennen, dass es separate Websites gibt, selbst wenn sie ein Unterverzeichnis sind. Also gibt es keine allgemeingültige Antwort. Aber im Allgemeinen, wenn es in einem Unterverzeichnis ist, dann ist es viel einfacher für uns zu sagen: Nun, das ist alles ein Teil der gleichen Sache und das hilft uns es wachsen zu lassen, aber das bedeutet nicht unbedingt, dass Subdomains hier nicht funktionieren.

Wenn es drei verschiede Domains sind, spielen Unterverzeichnisse und Subdomains sowieso keine Rolle, dann sehen wir sie als drei separate Websites, wir sehen die Links zwischen den Versionen und das ist fantastisch und alles was wir brauchen.

[su_youtube url="https://www.youtube.com/watch?v=-PJtY6UvQdA"] Constanze Bettendorf und Jochen Moschko