Google Webmaster Hangout Transkript, 21.12.2018

Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 21. Dezmber 2018:

Image Sitemaps

Zeit: 2:58

Frage: Für welche Art von Websites macht es Sinn und wo ist der Wert für Webmaster und sind diese Sitemaps überhaupt immer noch nötig oder ist Google mittlerweile clever genug die Bild URL durch den jeweiligen Quellcode zu finden?

Antwort: Wir können es mit dem Quellcode finden, aber die Bilder-Sitemap hilft uns zu sehen, dass Ihr dies wirklich indexiert haben wollt. Die Entscheidung liegt eher auf Eurer Seite, ob Ihr Eure Bilder indexiert haben wollt oder nicht. Für einige Websites sind Bilder unkritisch, denn sie sind dekorativ oder eher für das Design, aber andere suchen vielleicht bei der Bildersuche und möchten etwas auf Eurer Website finden. Leider verbringen SEOs zu wenig Zeit damit, was eine Schande ist, denn für einige Aktivitäten suchen Leute gezielt nach Bildern. Also solltet Ihr darüber nachdenken, wie Ihr es wollt, dass Leute auf Eure Website gelangen.

Bildgröße

Zeit: 04:26

Frage: Wir haben Diskussionen mit Designern, denn wir haben Bilder mit großer Auflösung auf großen Bildschirmen und wir machen sie dann automatisch für mobile Bildschirme kleiner. Realisiert Google die verschiedenen Größen?

Antwort: Wir versuchen die verschiedenen Größen zu realisieren. Wir können verstehen, dass das gleiche Bild in verschiedenen Größen verfügbar ist. Normalerweise wählen wir für die Bildersuche das Bild mit der höheren Auflösung, das heißt aber nicht, dass Ihr eine riesige Auflösung liefern müsst. Wir wählen einfach das Größte, welches uns zur Verfügung gestellt wird.

Indexierung von Bildern

Zeit: 5:14

Frage: Wie ist es mit dem Ausschluss von Bildern von der Indexierung? Wir haben Bilder in verschieden Versionen und wir wollen rechtlich auf der sicheren Seite sein, wenn wir löschen müssen. Wir wollen sicher sein, dass nur die von uns freigegebene Version bei Google erscheint. Was empfiehlt Ihr dafür?

Antwort: Normalerweise empfehle ich hier eine Sperrung über die Robots.txt-Datei, um einfach die verschiedenen Versionen zu blockieren, besonders wenn Ihr unterschiedliche Größen, Ordner oder URL-Muster habt.

Google-Cache

Zeit: 7:38

Frage: Seitdem wir zu React umgezogen sind zeigen unsere Kategorie-Seiten bereits nach zwei Sekunden eine Fehlermeldung im Google-Cache. Ist das ein Problem für Google?

Antwort: Ich denke Eure Seite hat ein Problem mit JavaScript, denn wenn die Seite zuerst lädt ist die gecachte Version in Ordnung. Wir können eine Art von JavaScript auf der Cache-Seite ausführen, wenn es sich innerhalb der Cache-Seite befindet. Wahrscheinlich wird JavaScript ausgeführt und aus welchem Grund auch immer verwandelt es sich in eine Fehlerseite. Ich denke für die Suche ergibt sich da kein Problem, denn wenn wir den Seiteninhalt rendern können, können wir ihn auch zeigen. Im Allgemeinen ist auch bei JavaScript-Seiten die Cache-Version die statische HTML-Version, wenn also die komplette Seite auf JavaScript aufgebaut ist, können wir das nicht im Caching zeigen.

Änderungen bei Seiten

Zeit: 9:22

Frage: Ich habe eine Affiliate-Seite. Wenn ich eine kleine Veränderung bei einer Seite vornehme wie zum Beispiel ein paar Dinge bei einem Produkt hinzufüge, bemerke ich einen Abfall im Ranking, aber es fängt sich wieder. Ich möchte mein gesamtes Produkt ändern, da es nicht mehr das Beste ist. Ich bin besorgt, wenn meine Seite aus diesem Grund auf die zweite Seite wechselt. Erneuert Google die Links, die zu dieser Seite kommen, nachdem sich die Seiten leicht oder erheblich geändert haben?

Antwort: Wenn Ihr den Inhalt der Seite ändert, versuchen wir die Seite erneut zu verarbeiten und die Seite neu zu indexieren. Das bedeutet manchmal, dass wir neu bewerten müssen, wie wir die Seite ranken, aber es ist nicht der Fall, dass wir vorhandene Seiten einfach auf Seite zwei verschieben oder ihr Ranking heruntersetzen, nur weil sie sich geändert haben. Wir versuchen nur zu verstehen, was sich geändert hat und indexieren es so. Wenn Ihr auch die URL wechselt, anstatt nur Änderungen in der existierenden Seite vorzunehmen, bedeutet das, dass wir die Seite neu bewerten müssen und dann seht ihr zumindest zeitweise Änderungen im Ranking.

Änderungen bei Seiten

Zeit: 11:20

Frage: Unsere Seite rankt bereits seit vielen Jahren. Nun wollen wir einiges ändern und verbessern, weitaus mehr Inhalt und Videomaterial hinzufügen. Würdet Ihr empfehlen dies Schritt für Schritt zu tun, um kein Ranking zu verlieren?

Antwort: Die Idee ist nicht, dass eine Seite im Ranking sinkt, nur weil sie aktualisiert wird. Normalerweise ist es eher eine Frage der neuen Seite und des neuen Inhalts, den wir berücksichtigen wollen. Wenn Ihr Dinge für die Suche verbessert und Ihr mit klar strukturierten Überschriften und Bildern arbeitet, solltet Ihr sogar einen Aufstieg im Ranking sehen, nicht jede Änderung bedeutet ein Ranking-Abfall.

Meine Empfehlung ist, dass die Dinge nicht künstlich verlangsamt werden, denn wenn Ihr den Inhalt verbessert, warum solltet Ihr das zurückhalten und nicht den Suchmaschinen oder Benutzern zeigen, nimmt Änderungen vor und wenn es einen temporären Abfall gibt, dann müsst Ihr vielleicht warten, um zu sehen, was passiert und vielleicht ist es auch ein Zeichen dafür, dass die von Euch vorgenommenen Änderungen möglicherweise nicht so gut für SEO waren. Daher macht es manchmal Sinn Dinge Schritt für Schritt zu ändern, um eben die positiven oder negativen Veränderungen im Ranking zu sehen und dementsprechend weiter zu machen oder eben zu schauen, was man falsch gemacht haben kann.

Verschmelzung zweier Domains

Zeit: 20:33

Frage: Wir haben einen Google-Kunden, der Vertrieb und Dienstleistung auf zwei separaten Websites anbietet. Sie wollen beide effektiv auf der Vertriebs-Domain miteinander verschmelzen. Die Dienstleistungsseite rankt sehr gut. Was Google sieht, ist so ziemlich das Wichtigste. Ist es der Inhalt? Ist es, wie wir die Einbindung der Service-Site in die Retail-Site strukturieren? Natürlich werden wir 301-Weiterleitungen von der bestehenden Website auf die neue usw. durchführen, aber worauf sollen wir uns konzentrieren um sicherzustellen, dass wir nicht zu viel unter einem Ranking-Abfall leiden?

Antwort: Vorerst müsst Ihr sicherstellen, dass Ihr aus technischer Sicht alles richtig zusammenfügt. Insbesondere beim Zusammenführen von Websites würde man erwarten, dass die Suche etwas nachlässt, da wir nicht einfach die beiden Seiten aufgreifen und sie zusammenfassen und als Signal verwenden können. Im Wesentlichen müssen wir alles neu verarbeiten und nach der neuen Seite schauen. Damit das alles gut über die Bühne läuft, müsst Ihr alle Weiterleitungen technisch so gut wie möglich eins zu eins zur anderen Version übertragen. Achtet darauf, dass Ihr nichts blockiert was gecrawlt oder indexiert werden muss im Sinne, dass wenn es in der alten Version indexierbar war, sollte es auch in der neuen Version indexierbar sein. Ich gehe davon aus, dass Ihr inhaltlich wahrscheinlich alles abdeckt, aber aus technischer Sicht gehen viele dieser kleinen Weiterleitungen manchmal verloren, was es für uns schwieriger macht, all diese Signale wirklich zu kombinieren.

Markenerwähnung auf einer Website

Zeit: 23:25

Frage: Wenn eine Webseite unsere Marke erwähnt, aber an sich nicht zu dieser Website verlinkt, zählt das als positives Signal?

Antwort: Wir würden das als eine Erwähnung auf einer anderen Website aufgreifen, aber es ist kein Link, der keinen PageRank macht, also ist es nicht wirklich das Gleiche wie ein Link.

Structured Data

Zeit: 26:47

Frage: Wir nutzen derzeit den Google-Tag-Manager für Structured Data. Ist das ok?

Antwort: Es ist ok, aber vergesst nicht, dass der Tag-Manager über JavaScript laufen muss, also funktioniert es nur, wenn wir Eure Seite rendern können. Dies bedeutet auch, dass es manchmal eine Verzögerung gibt, wenn wir Eure Seite abrufen und das JavaScript verarbeiten und die Seiten rendern und die strukturierten Daten mit dem Tag-Manager rausziehen können. Man erhöht jedoch die Komplexität für ein paar JavaScript-Schnipsel, die Ihr in Eurer Seiten einfügt, was dazu führen kann, dass auf dem Weg etwas schief geht und man es möglicherweise nicht unbedingt bemerkt, wenn man diese Webseiten betrachtet. Daher würde ich vorschlagen, wenn es möglich ist, die strukturierten Daten direkt in die Seite zu bringen, damit es leichter ist Fehler zu diagnostizieren.

manuelle Maßnahmen

Zeit: 28:46

Frage: Wenn wir manuelle Maßnahmen ignorieren, was passiert?

Antwort: An sich ist das keine gute Strategie. Manuelle Maßnahmen werden vom Webspam-Team gemacht, wenn sie etwas signifikantes Falsches sehen. Wenn man das ignoriert, bleibt es so und die manuelle Aktion wird bleiben. Manuelle Aktionen verfallen, aber nicht innerhalb von Monaten, sondern eher innerhalb von Jahren. Daher empfehle ich persönlich diese zu berücksichtigen und als Feedback zu betrachten, sie zu korrigieren und eine erneute Überprüfung vorzunehmen.

Personalisierung

Zeit: 31:26

Frage: Unser Plan als Herausgeber ist es, die ganze Homepage für jeden Cookie zu personalisieren, so dass jeder Nutzer nach seinem Interessenprofil angezielt werden kann. In einem Szenario möchten wir alle Artikel, die der Nutzer bereits gesehen hat, verstecken. Demnach müssen wir wahrscheinlich „Cloaking“ machen. Wie sollen wir in diesem Falle mit Googlebot umgehen?

Antwort: Der leichte Teil ist, dass Googlebot keinen Cookie behält, das macht das ganze vielleicht schon leichter. Personalisierung ist etwas, was Ihr machen könnt, wenn Ihr das möchtet. Wir sehen es nicht als Cloaking, besonders wenn Ihr bemerkt, dass es ein Wiederholungsbesucher ist. Wichtig für uns ist, dass der Inhalt äquivalent ist, das würde primär die Homepage oder die Kategorieseite beeinflussen. Wenn wir sie nach wie vor als Homepage oder Kategorieseite erkennen, die zu den Rest euerer Seite führen, dann müsst Ihr Euch nicht sorgen. wenn die individuellen Artikelseiten sich auch signifikant verändern, also wenn jemand zum Beispiel einen Artikel über Weihnachten sucht und am Ende auf einem Artikel über Ostern landet, das würden wir dann als Fehlleitung ansehen.

Verschlechterung im Ranking trotz hoher Individualität

Zeit: 34:08

Frage: Wir hatten einen starken Abfall bei wirklich wichtigen Indexseiten und dies sind hoch individuelle und einzigartige regionale Kategorieseiten über Winetasting in Hamburg. Als ich in der Suchkonsole geschaut habe, habe ich gesehen, dass diese Seiten ausgeschlossen sind und aus dem Index genommen, weil Google sagt, dass es Duplikate sind und die übermittelte URL ist nicht als canonical sondern stattdessen als eine andere ausgewählt. Das Problem besteht jedoch darin, dass die Münchener Seite plötzlich als Duplikat einer anderen Stadtseite wie Köln identifiziert wird und diese Seiten wirklich einzigartig sind und individuelle Inhalte und individuelle Links haben und die Events auf den Seiten sind nur in diesen Städten, daher gibt es eigentlich keine Möglichkeit sie zu verwechseln. Daher verstehe ich nicht genau was da passiert. Wir haben individuelle Sitemaps für jeden Laden, wir benutzen Canonical-Tags und setzen selbstreferenzierende Canonicals auf jede Seite, auch der Inhalt ist sehr individuell.

Antwort: Das passiert normalerweise, wenn ein Teil Eurer Seite dupliziert ist, also ungefähr das was Ihr auch gesehen habt. Es ist nicht immer der Fall, dass wir auf den Inhalt gucken und den Inhalt als genau gleich ansehen, manchmal schauen wir auf die URL Struktur und z. B. der Stadtname ist ein URL-Parameter und man kann jedes Wort als dieses URL-Parameter nehmen und man bekommt weiterhin eine dieser Städte. Dann entscheiden wir manchmal, dass dieser URL-Parameter für das Bestimmen des Inhaltes dieser Seite nicht notwendig ist.

Auch kann es sein, dass Ihr vielleicht für einige Städte den gleichen Inhalt zeigt, wenn z. B. zwei Städte direkt nebeneinander sind und die gleichen Events haben, dann kann das leicht verwirrend für uns sein.

Ihr müsst das also nochmal prüfen und darauf achten, dass die Unterschiede der Städte wirklich klar werden und die URLs so sind, dass, wenn Ihr einen ungültigen Städtenamen eingebt, dass Ihr eine 404-Seite anzeigt, anstatt eine andere Stadt auswählen. Für uns muss wirklich klar sein, dass diese Parameter oder der Pfad – oder was auch immer Ihr dafür verwendet – immer zu einer einzigartigen anderen Seite führen.

JSON-LD

Zeit: 43:59

Frage: Ich habe eine Website, die lokale Geschäfte auflistet und Rezensionen von Nutzern. Manchmal haben wir über 100 KB JSON-LD Snippets, wegen der ganzen Rezensionen. Gibt es ein Limit bei der Anzahl von Rezensionen? Ist es ok nur einige Rezensionen einzuschließen?

Antwort: Ich weiß nichts über ein Limit, aber 100 KB JSON-LD wirkt schon recht exzessiv. Ich würde versuchen einen Weg zu finden, diese Rezensionsseiten zu paginieren, anstatt alles auf einer Seite anzuzeigen.

private Mitgliederwebseiten

Zeit: 44:44

Frage: Auf unseren private Mitgliederwebseiten gibt viele einzigartige Inhalte, die begrenzt sind, aber jemand kommt daher und kopiert ihn und veröffentlicht ihn. Was können wir tun?

Antwort: Zuerst solltet Ihr nach den legalen Ansätzen gucken, welche DMCA beinhalten können. Aus der Sicht der Websuche wissen wir nicht, wo der Inhalt herkommt. Wenn wir ihn crawlen können, ist da nicht viel was wir machen können – das ist eher etwas, was Ihr versuchen müsst zwischen Euch zu klären.

Änderung des Themas einer Website

Zeit: 46:35

Frage: Wenn sich das Thema meiner Website ändert, ich aber die existierenden internen Linkings beibehalte – würde das einen Effekt haben? Hat das HTML einen Effekt auf das gesamte Ranking oder ist das die Kombination HTML und der Anchor-Text oder der Link?

Antwort: Es ist eine Kombination von Beiden. Wenn der Wechsel des Themas der Seite nur eine Angelegenheit von Design-Wechsel und das HTML dasselbe ist, dann wäre es wahrscheinlich kein Ding. Wenn sich aber das HTML auch ändert, also so Dinge wie, dass die Überschriften auf der Seite fett und nicht als Überschrift markiert werden – dann kann dies bei der Bewertung einer Seite eine Rolle spielen. Wenn Ihr also HTML signifikant verändert, kann das einen Effekt darauf haben, wie wir die Seite ranken.

manuelle Aktion

Zeit: 50:14

Frage: Wie lange dauert es, bis seitens Google eine manuelle Maßnahme aufgehoben wird?

Antwort: Normalerweise wir das manuell bearbeitet, also muss es sich jemand ansehen und die Änderungen, die Ihr gemacht habt, überprüfen. Normalerweise bekommt Ihr da ein Feedback innerhalb von 1-2 Wochen. Wenn Ihr also diese Probleme behoben habt, würde ich den Antrag zur erneuten Überprüfung einreichen und die Antwort wird zeitnah kommen.

interne Links und Backlinks

Zeit: 51:18

Frage: Verwendet Google für interne und externe Backlinks dasselbe PageRank-Rezept?

Antwort: Ich weiß nicht, wie wir den PageRank kalkulieren. Normalerweise ist das aber nichts, wo sich Seiten drum sorgen müssen. Wenn Ihr herausfinden möchtet, wie die PageRank-Kalkulationen funktionieren, dann müsst ihr wahrscheinlich bei Google arbeiten, um solche Daten zu erhalten. Wir zeigen PageRank nicht extern, es gibt keine Art Toolbar dafür.

erneute Prüfung nach manueller Maßnahme

Zeit: 51:59

Frage: Wie können wir um eine erneute Prüfung bitten?

Antwort: Das kann man innerhalb der Search Console machen. Dort, wo man die Manuelle Maßnahme einsehen kann, lässt sich auch die erneute Überprüfung beantragen. Es ist in Ordnung mehrere davon auszuführen, wenn Ihr an einem Problem arbeitet, das Ihr lösen möchtet. Wenn wir dagegen feststellen, dass Ihr nur hin und her geht, Dinge repariert und erneut eine manuelle Aktion bekommt, dann kann es passieren, dass das Webspam-Team denkt, dass Ihr mit ihnen spielt und Eure erneuten Anfragen ignoriert. Ich würde auch Hilfe vom Webmaster-Forum erfragen, wenn Ihr Euch nicht sicher seid, was genau Ihr dort beheben sollt, denn bei vielen dieser Probleme seid Ihr nicht die Ersten, die auf dieses Problem stoßen und die Leute im Forum haben Übung darin.

Carousel

Zeit: 53:12

Frage: Ich habe eine Frage zu Structured Data namens „Carousel“. Es ist vorerst nur für Rezepte vorgesehen, ist es auch für andere Typen geplant? Ist es eine gute Idee, zum Beispiel, wenn wir eine Tag-Seite für einen Prominenten haben und Artikel über den Promi in dieses Karussell einzufügen?

Antwort: Es kann sein, dass es in einiger Zeit ausgearbeitet wird. Aber ich denke aus praktischer Sicht müsst Ihr als jemand, der an der Seite arbeitet, diese Entscheidung treffen und sagen: „Nun, ich glaube, dass in der Zukunft etwas wird passieren und wir werden vorbereitet sein“, aber Ihr müsst wissen, dass dies vielleicht nicht der Fall sein wird. Vielleicht ist es nur ein kleiner Aufwand, dies zu implementieren, aber wenn es viel Arbeit ist und Google dies nicht unterstützt, weiß ich nicht, ob sich das lohnen würde.

Update von September

Zeit: 55:09

Frage: Das Update von August/ September hatte bei einigen Websites einen Geistereffekt auf Links. Ich sehe immer noch Websites, die die gleichen Techniken und das gleiche Ranking verwenden. Sie haben jedoch ihre Strategie etwas geändert, Google hat diese Strategie aufgegriffen und die anderen Websites verwenden diese Strategie mit einer anderen Technik. Gibt es hier mehr von Google zu erwarten? Da dies für Websites, die mit der richtigen Reichweite und mit Whitehead-Links bewertet werden, nicht fair ist, man arbeitet mit Hunderten von Links oder versucht Hunderte von Links auf eine Seite zu bekommen, und jemand bringt einfach einen und bricht damit durch.

Antwort: Ich verstehe nicht genau worauf Ihr Euch bezieht, aber im Allgemeinen: Wenn Ihr Dinge seht, die gegen die Webmaster Richtlinien verstoßen, fühlt Euch frei uns Spam-Berichte zu schicken. Wir schätzen diese sehr. Wenn Ihr größere Sachen seht, könnt Ihr mir diese auch direkt schicken und ich leite sie ans Team weiter.

Constanze Bettendorf und Jochen Moschko

Hinterlasse eine Antwort