Google Webmaster Hangout Transkript, 19.10.2018

von SEO Portal

Kategorie(n): Google Webmaster Hangouts Datum: 23. Oktober 2018
Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 19. Oktober 2018:

Weniger Traffic

Zeit: 3:40 Frage: Wie Du Dich vielleicht erinnern kannst, hatten wir einen großen Traffic-Abstieg im Februar. Unser organischer Traffic und unsere Rankings sind über 60% abgefallen. Ich habe Dir bereits weitere Informationen zu unserem Prpoblem zugesendet und ich hoffe Du hattest bereits Zeit mit Euren Ingenieur-Team drüber zu schauen? Antwort: Ja, wir haben uns das gemeinsam angeschaut und der Konsens ist, dass es anscheinend normale Rankingänderungen sind, die über die Zeit passieren. Trotzdem waren Eure Beispiele sehr hilfreich. Eine der Fragen, die Ihr gestellt habt, war etwas mit einem bestimmten Begriff und eines der Dinge, die einer der Qualitätsingenieure vorgebracht hat, ist, dass Ihr dieses Wort nicht wirklich in Eurem Inhalt verwendet. Solche Dinge könnt Ihr am Besten nochmal genauer bearbeiten.

Keyword-Stuffing

Zeit:  14:25 Frage: Wir sind ein Online-Spiegel-Geschäft und aktuell ranken wir mit der Nummer 52 für das Schlagwort “Spiegel”. Die Seite, die rankt ist eine falsche Seite, wir möchten, dass idealerweise unsere Homepage rankt, jedoch rankt Google eine Seite namens “alle Spiegel”, welche all unsere Produkte unserer Website zusammenfasst. Wie haben nun einige Techniken probiert, damit die Homepage rankt, wie z. B die aktuell rankende Seite abgewertet, aber nichts funktioniert. Die “alle Spiegel” Seite hat noch nichtmal viel Inhalt, es gibt nur die Überschrift und zeigt dann alle Spiegel an, die wir in unserem Geschäft anbieten. Antwort: Was ich oft bei E-Commerce Seiten beobachte ist, dass viele Homepages immer wieder mit den gleichen Schlagwörtern vollgestopft sind und dort sind wir dann skeptisch und wissen nicht, inwieweit wir solch einer Seite vertrauen können und nehmen dann eher einen anderen Teil von der Website. Vielleicht habt Ihr Eure Seite auch überoptimiert. Ich könnte mir vorstellen, dass unsere Algorithmen vielleicht auf die Homepage schauen und sagen, dass es so viele Keywords zu dem Begriff "Spiegel" gibt, dass wir hier vorsichtiger sein müssen.

Cross Conanical

Zeit: 27:44 Frage: Wir haben eine Autohändler-Seite. Wir bemerken leider nicht, dass das Cross-Canonical, Cross-Cashing Problem besser wird, es wird auch nicht schlechter, aber lässt sich auch nicht so wirklich lösen. Ich wollte nur mal nachfragen, ob ihr vielleicht eine Idee habt, was wir anders machen können und uns vielleicht einen Status Update geben könnt. Antwort: Wir haben uns das mit einem Team angesehen und eine Reihe von Änderungen vorgenommen, um diese Websites wirklich voneinander zu trennen. Mit der Zeit sollte es, wenn wir die Seiten indexieren, besser werden, aber man sieht keine sofortige Veränderung von heute auf morgen. Die Seiten auf den unteren Ebenen, die selten gecrawlt und selten indexiert werden dauern ein bisschen länger sich wieder zu beruhigen, aber die Hauptseiten sollten sich recht schnell wieder beruhigen. Es hilft auch immer, problematische Seiten mit der Sitemap-Datei mit dem letzten Änderungsdatum zu senden, sie wieder aufzubereiten und wenn sie einmal wieder aufbereitet sind sollte wieder alles funktionieren.

Crawl-Fehler

Zeit: 30:25 Frage: Wir haben Crawling-Fehler auf unserer Seite entdeckt und können keinen Grund dafür finden. Der URL Inspektor “fetch as Google” zeigt keine Probleme an. Was können wir hier tun? Antwort: Wir haben und das mit dem Team mal angeschaut und was wir bemerkt haben ist, dass Ihr einen Haufen von verschiedene URLs habt und wir crawlen so viel wir können. Eine zeitlang hattet Ihr eine Obergrenze für die Anzahl der URLs, die wir crawlen können, und dieses Limit ist abgelaufen, so dass wir versuchen ein bisschen mehr zu crawlen und ich denke, dass wir aufgrund dieses Unterschieds Probleme haben, denn wir wollen so viele URLs crawlen und Ihr sagst uns, dass wir nicht so viel crawlen sollen. Einerseits würde ich die Grenze wieder hoch setzen und andererseits würde ich versuchen herauszufinden, warum wir so viele URLs finden, die wir crawlen wollen. Denkt über Canonicalization auf Eurer Website nach, denkt über die konsistente URL-Struktur nach, damit wir nicht in Millionen von URLs rennen, die alle Variationen voneinander sind, sodass wir wirklich ohne Probleme auf Eurer Website crawlen können, ohne Probleme für Euch und ohne dass wir in diese unendlichen Räume rennen.

Redirects

Zeit: 33:15 Frage: Gibt es einen Link-Verlust durch Weiterleitungsketten? Antwort: In der Regel ist das kein Problem für uns. Wir können Seitenranking durch 301- und 302-Weiterleitungen weiterleiten. Im Wesentlichen nutzen wir diese Weiterleitungen, um ein Canonical auszuwählen und durch das Auswählen des Canonicals konzentrieren wir alle Signale, die durch die URL zu der Canonical-URL führen.  Wenn wir zum Beispiel auf Links eingehen, werden wir sagen, dass dieser Link zwischen dieser Canonical-URL und dieser Canonical-URL besteht und wir diesen individuellen Link dort behandeln. In dem Falle geht es mehr um Benutzerfreundlichkeit und Crawl-Fähigkeit. Wie könnt Ihr es so einrichten, dass Google das endgültige Ziel so schnell wie möglich finden kann? Wie könnt ihr es so einrichten, dass Benutzer nicht durch all diese verschiedenen Weiterleitungsseiten springen müssen? Besonders mobil verlangsamt den Wechsel von Weiterleitungen sehr, wenn wir eine DNS-Suche zwischen einzelnen Weiterleitungen durchführen müssen, die zwischen Hosts und dann auf Mobilgeräten laufen. Ich würde mich darauf konzentrieren, dass es nicht so sehr darum geht, dass hier ein PageRank abfällt, sondern wie ich es so machen kann, dass es für Google und für Nutzer wirklich klar ist, welche URLs ich indexiert haben möchte. So wird die Anzahl der Änderungsweiterleitungen automatisch reduziert.

Feedback senden

Zeit: 35:01 Frage: Das letzte große Core-Update scheint einige drastische Änderungen an den Suchergebnissen für einige Keywords hervorzurufen. Es ist ein bisschen komisch, dass zum Beispiel diese Website für einige Keywords am 1. August nicht mehr relevant ist und plötzlich wieder da ist. Ich weiss, Ihr werdet sagen, dass mit unserer Website nichts falsch ist, aber es ist schon recht drastisch für einen Website-Inhaber seine Seite verschwinden zu sehen und auf einmal ist sie wieder da. Antwort: Ich weiss, es wirkt teilweise etwas verwirrend, aber das sind im Wesentlichen Änderungen, die wir in unseren Algorithmen vornehmen, um zu versuchen Dinge auf der ganzen Linie zu verbessern. Das Feedback was wir von SEOs oder von Nutzern bekommen, hilft uns diese Algorithmen über die Zeit zu verbessern. Durch diese Feedbacks kann es passieren, dass die Verbesserungen dazu führen, dass Websites mehr Sichtbarkeit bekommen. Was ich dort empfehlen würde, ist wirklich sicherzustellen, dass Ihr uns Feedback gebt, wenn Ihr Dinge seht, die wirklich seltsam sind. Was uns wiederum hilft, wenn Ihr uns spezifische Anfragen schickt, die wir ausprobieren können, mit spezifische URLs, idealerweise wirklich so allgemein wie möglich. Wir nehmen das an verschiedenen Stellen auf. Ihr könnt eine Suchergebnisseite mit dem Feedback-Formular auf der Unterseite verwenden. Ihr könnt uns auf Twitter oder Google+ oder wo auch immer anpingen und viele dieser Dinge werden direkt an das Team weitergeleitet, damit sie es aufnehmen können und einen Blick darauf werfen. Manchmal können wir nicht viel dazu sagen und manchmal dauert es auch einfach etwas länger. Daher versuchen wir die Zeit, die wir zur Verfügung haben so zu nutzen, dass sie für die meisten Benutzer die größte Wirkung hat.

Server-side Rendering

Zeit: 41:06 Frage: Ich habe eine Website, bei der Google gemäß Search Console 28 Millionen Seiten ausschliesst, sie wurden entdeckt, derzeit nicht indexiert. Das gesamte Frontend ist eine Single-Page-App mit server-side Rendering für den initialen Load, der sicherstellt, dass alle unsere Metadaten vorhanden sind. Die Daten kommen von einer PHP-basierten API. Was kann der Grund für den Ausschluss sein? Antwort: Es ist wirklich schwierig zu sagen, was dort passiert sein könnte. Ihr habt eine Menge technischer Details erwähnt, die für mich vernünftig klingen. Wenn Ihr server-side Rendering verwendet, sind Dinge wie die API dahinter für uns im Wesentlichen unsichtbar. Das JavaScript-Frontend ist wahrscheinlich auch für uns unsichtbar, denn mit dem server-side Rendering gebt Ihr uns die HTML-Version, die dort am Ende verfügbar ist. Aus dem Gesichtspunkt sind die technischen Details alle richtig. Andererseits ist es schwer zu erraten, wie groß diese Website ist und was diese 28 Millionen Seiten in Bezug auf unsere Suchergebnisse im Allgemeinen bedeuten. Wenn wir zum Beispiel denken, dass diese Website insgesamt in Ordnung ist, aber nicht wirklich fantastisch, könnte es sein, dass wir einige Millionen Seiten crawlen und indexieren, aber dass wir vielleicht nicht alle hundert Millionen Seiten, die es gibt, indexieren. Das kann sich aber auch nach einiger Zeit ändern und wenn wir eine Seite als wirklich gut erachten und wir vielleicht einige Zeit viel guten Inhalt verpasst haben, kann es passieren, dass wir erneut so viel wie möglich crawlen und indexieren. Auf der anderen Seite, wenn wir diese Website insgesamt betrachten und sagen, dass diese Website tatsächlich eine Menge Inhalt hat, aber es ist zum Beispiel nur eine Sammlung von Telefonnummern, dann ist es nicht wirklich die beste Verwendung unserer Ressourcen, weitere 20-30 Millionen Seiten zu crawlen und zu indexieren. In so einem Falle würde ich meinen Fokus eher auf die generelle Qualität der Seiten legen und sicherstellen, dass meine Website so wertvoll wie möglich ist. Dass Googlebot merkt, dass die Seite fantastisch ist und über die weiteren Seiten, die noch nicht berührt worden sind bescheid weiss und sich gerne mehr Zeit dafür nimmt, diese Seiten noch zu crawlen und zu indexieren. Ich würde mich nicht so sehr auf die technischen Details fokussieren, sondern eher darüber nachzdenken, wie ich die Qualität der Website insgesamt verbessern kann, so dass es sich für Google lohnt los zu gehen und weiter zu indexieren.

Impressum

Zeit: 47:21 Frage: Ich habe gehört, dass Google möchte, dass man seine Adresse auf seiner Website zeigt. Das zeige mehr Autorität. Was ist, wenn man nur ein Internet-Unternehmen ist und keine Adresse hat? Braucht man wirklich eine Adresse und die Fußzeile auf seiner Seite? Antwort: Aus einer reinen SEO Sichtweise ist es nicht so, dass wir nach Adressen auf einer Website suchen und das als Zeichen für eine gute Website ansehen, aber das ist etwas wonach Benutzer manchmal suchen. Auch bei reinen E-Commerce Seiten wollen viele Leute wissen: Wer steckt da eigentlich hinter? Von wo kommt die Bestellung? Muss ich vielleicht irgendwelche Einfuhrsteuern zahlen? Was ist wenn ich es zurückschicken möchte? Oft wird das leicht durch eine Adresse auf seiner Seite beantwortet. Auf der anderen Seite, wenn es sich um eine reine Online-Seite handelt, wenn Ihr z. B. ein Blog seid und Ihr nur Informationen veröffentlicht und nichts weiter, dann ist eine Adresse vielleicht nicht wirklich so wichtig.

Abgelaufene Domains

Zeit: 48:37 Frage: Google ist immer noch nicht in der Lage, mit Personen umzugehen, die Domains mit Autoritäts-Backlinks kaufen. Die Leute kaufen einfach abgelaufene Domainnamen und legen neue Inhalte darauf und dann ranken sie leicht. Antwort: Wir stecken eindeutig viel Arbeit in Dinge wie abgelaufene Domains und es ist allemal nicht so leicht, wie Ihr es hier erscheinen lasst. Es sieht so aus, dass Ihr schon mehrere solche Fälle entdeckt habt, vielleicht könnt ihr uns dazu mehr Details schicken und ich gebe das an unser Team weiter.

Mehrsprachige Websites

Zeit: 51:16 Frage: Sind mehrsprachige Websites in der Lage, das Sitelink-Suchfeld zu nutzen, wenn es sich bei ihrer Homepage um eine Zielseite für die Sprachauswahl ohne Suchoption handelt. Die Website verwendet sprachregionspezifische Ordner. Wie kann dies ordnungsgemäß implementiert werden? Antwort: Ich denke, dies ist immer noch einer der Fälle, die nicht vollständig unterstützt werden, wo wir versuchen es richtig zu machen, aber wir haben keine Möglichkeit Euch auf angemessene Weise zu markieren, weil wir das Sitelink-Suchfeld-Markup von der Homepage aufgreifen und wir verwenden es für Eure Webseiten. Wenn Ihr also verschiedene Unterverzeichnisse auf Euren Websites für verschiedene Sprachen oder Regionen habt, kann das mit dem Sitelink-Suchfeld, das vielleicht nur zu einer Sprachversion führt, schwierig sein. Ich würde versuchen mich auf eine Hauptsprache zu konzentrieren und es einfach so umzusetzen. Oder alternativ auf der Suchseite, auf die Ihr mit dem Sitelink-Suchfeld-Markup hinweist, um eine Art dynamisches Umschalten der Sprachen zu versuchen.

Gültiges HTML

Zeit: 53:47 Frage: Validiert Ihr HTML mit W3-Standards? Antwort: Nein. Ich meine, wir überprüfen wahrscheinlich einige Websites auf gültige HTML-Seiten, aber es ist nicht so, dass wir eine Suchanforderung haben, dass wir gültiges HTML brauchen. Einfach nur gültiges HTML haben ist kein Rankingfaktor. Gültiges HTML spielt eine Rolle wenn Ihr strukturierte Daten nutzt. Wenn Ihr ungültiges HTML habt ist es für uns dann sehr schwierig bei strukturierten Daten zu erkennen, welche Teile der Seite zusammen gehören. Eine andere Sache ist bei JavaScript zwischen dem Kopf und dem Contentteil der Seite. Das spielt eine Rolle. Wenn es Elemente im Kopf der Seite gibt, die dort sein müssen und Euer HTML ist so eingerichtet, dass es den Kopf der Seite durchbricht, bevor diese Elemente analysiert werden, dann sehen wir diese Elemente möglicherweise nicht als Teil des Kopfes. Meistens kommt das bei Hreflang-Markup vor. Wenn Ihr Hreflang Links innerhalb des Seitenkopfes habt, aber das Element oberhalb, welches den Seitenkopf durchbricht, dann werden diese Links eher im Körper der Seite gesehen und nicht im Kopf der Seite. Ein Szenario, das uns ab und zu begegnet, ist, dass Ihr dem Kopf Eurer Seite JavaScript-Code für die Analyse hinzufügt und dass der Analyse-Code möglicherweise einen iFrame oder ein anderes sichtbares Element innerhalb der Seite in den Kopf der Seite einfügt. Nachdem wir diese Seite gerendert haben, sehen wir das iFrame. Das heißt, wenn es einen iFrame gibt, der im Kopf nicht erlaubt ist, müssen wir den Kopf implizit schließen und den Körper der Seite öffnen und Link rel Hreflang-Tags würden als Teil des Körpers gesehen werden. Ich würde also lieber die Hreflang-Links an die Spitze des Kopfes setzen, damit sie dort definitiv verarbeitet werden oder in eine Sitemap-File, wo wir uns nicht drum kümmern müssen, was sich im Kopf befindet und was nicht.

Nofollow

Zeit: 58:42 Frage: Gibt es aus SEO-Sicht die Notwendigkeit Links von meiner Website zu anderen Ressourcen “Nofollow” zu setzen? Wenn ich sie nicht “Nofollow” setze, ist es dann möglich, dass meine Website an Autorität verliert? Antwort: Wenn das natürliche Links innerhalb des Inhaltes sind, ist das vollkommen ok. Wenn sie dort nicht gesetzt sind, weil es irgendwelche Abkommen zwischen den anderen Seiten gibt, würde ich sie normal auf “Follow” setzen.

Hreflang in der Sitemap

Zeit: 59:21 Frage: Ich habe eine Website in fünf verschiedenen Sprachen mit 40 Millionen Seiten pro Sprache. Wird Google die alternativen Seiten schneller indexieren, wenn ich die Hreflangs in die Sitemap setze, als wenn ich sie im HTML-Format habe? Antwort: Nein, das ändert nichts für uns. Wenn wir den Hreflang mit in der Sitemap haben, berücksichtigen wir dies bei der erneuten Verarbeitung der einzelnen URLs. Wenn eine URL bekanntermaßen in Eurer Sitemap-Datei enthalten ist und wir diese URL erneut verarbeiten, überprüfen wir die Sitemap-Datei, um zu sehen welche Hreflang-Informationen wir dort zur Verfügung haben und verwenden diese  für die Indexierung. Hreflang in Sitemaps zu haben würde die Dinge nicht schneller machen, als auf der Seite. Bei 40 Millionen Seiten ist eine Sitemap-Datei natürlich immer eine gute Idee, da Ihr uns damit sagen könnt, welche dieser Seiten sich geändert haben, aber die Verarbeitung der Hreflang-Datei wird dadurch nicht beeinflusst.

Weiterleitung zur neuen Domain

Zeit: 74:54 Frage: Wir haben alles von unserer alten Domain zu der Neuen weitergeleitet. Wir fragen uns, wie lange es dauert, bis Google alles zur neuen Domain "rübergesendet" hat. Wir haben das vor einigen Wochen gemacht und wir sind erst bei 50 % des Traffics, bei dem wir vor der Weiterleitung waren. Wir haben die Adresse nicht geändert und wissen, dass das die Schnelligkeit beeinflusst. Hast du eine ungefähre Ahnung zu einem Zeitrahmen, wie lange es noch dauern wird? Kann die neue Search Console uns da eine Art Bericht zu geben, wieviel schon abgedeckt ist? Antwort: Wenn es einige Wochen her ist, würde ich mir noch keine Sorgen machen. Diese Dinge brauchen seine Zeit, besonders wenn es eine größere Website ist. Bezogen auf den Bericht: Die neue Search Console kann einige der Veränderungen anzeigen, aber ich wäre damit vorsichtig, da einige dieser Berichte aktuell etwas verspätet sind. Wenn Ihr sie Euch jetzt anschaut und die Veränderungen der letzten Wochen, seht Ihr dort vielleicht nicht das ganze Bild, da sie verspätet sind. Ich muss mit dem Search Console-Team klären, was genau sich verzögert und wie lange das Problem noch anhält. Das sollte man im Auge behalten, besonders wenn man sich die Änderungen der letzten Wochen oder der letzten 10 Tage anschaut. [su_youtube url="https://www.youtube.com/watch?v=mDzkW2eX82s"] Constanze Bettendorf und Jochen Moschko