Google Webmaster Hangout Transkript, 16.11.2018

von SEO Portal

Kategorie(n): Google Webmaster Hangouts Datum: 28. November 2018
Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 16. November 2018:

Leistungsbericht in der Search Console

Zeit: 4:33 Frage: Wenn ich in der Search Console eine Anfrage nach der anderen filtere, kann ich die Anfrage mit all Ihren Metriken sehen. Ich kann auch die Seiten sehen, die Google für diese Anfrage gezeigt hat. Was ist die Überlegung von Google, wenn diese Seiten als Zielseiten angezeigt werden, und wie können diese am besten so optimiert werden, dass bei Google nur die von uns gewünschten Seiten angezeigt werden? Antwort: In der Search Console gibt es bezogen auf den Leistungsbericht einen Unterschied wie man die Seiten sieht. Wenn Ihr nach Anfragen sucht, schließen wir alle Seiten, die für die einzelnen Anfragen angezeigt wurden, ein. Wenn Ihr hingegen nach Seiten sucht, zeigen wir nur die Information der spezifischen Seite. Der Grund für diesen Unterschied ist, dass bei einzelnen Anfragen möglicherweise mehrere Eurer Seiten gleichzeitig angezeigt werden, und wir verfolgen nur die oberste Eurer Seiten. Google zu sagen, welche Seite Ihr für welche Anfrage angezeigt bekommen wollt, ist nicht so einfach gemacht. Da gibt es keinen Mechanismus, dem man sagen kann wann was gezeigt werden soll. Wenn es eine Seite auf Eurer Website gibt, die Ihr nicht angezeigt haben wollt, dann solltet Ihr eher darüber nachdenken, was Ihr tun könnt, um diese Seite relevanter zu machen. Das könnte sich auf den Inhalt beziehen. Ihr könntet vielleicht klarstellen, dass dies wirklich die Seite für dieses bestimmte Thema ist, und möglicherweise einige Informationen von der anderen Seite entfernen und sicherstellen, dass sie auf der primären Seite, die Ihr anzeigen möchtet, wirklich gut sichtbar sind. Man kann auch im Allgemeinen die ganze Website durch das interne Linking relevanter machen, um wirklich zu verdeutlichen, dass wir beim Crawlen und Indexieren Eurer Website insgesamt eine wirklich wichtige Seite sehen, die möglicherweise von Eurer Homepage aus verlinkt wird, die von anderen Seiten innerhalb der Website verlinkt wird. Und all diese Dinge sagen uns, dass dies etwas ist, wo Ihr denkt, dass es die Leute sehen wollen.

Suchananlyse

Zeit: 07:38 Frage: Gibt es einen Weg, dass eine Gruppe von Anfragen in der Suchanalyse angezeigt werden? Antwort: Nicht so einfach. Ihr könnt einen Teil einer Abfrage eingeben und wir zeigen alles, was zu dieser Abfrage passt. Wenn Ihr beispielsweise ein Keyword mit unterschiedlichen Variationen habt, könnt Ihr dieses primäre Keyword einfach in die Suchanalyse eingeben und wir werden die verschiedenen Variationen auch anzeigen. Ihr könnt die Tabelle auch einfach in Google Spreadsheets oder Excel exportieren, wenn Ihr Excel verwendet, und dann die Filterung verwenden, um Dinge so zu verfeinern, wie Ihr sie sichtbar machen möchtet.

“discovered-currently not indexed”

Zeit: 11:18 Frage: 99% unserer Seiten sind ausgeschlossen mit “discovered-currently not indexed”. So ist es schon mehrere Jahre, obwohl wir sogar einige Links von hoch profilierten Zeitungen und Websites haben. Was kann das verursachen und was können wir machen, dass diese Seiten indexiert werden? Kann es sein, dass Google die hohe Anzahl unsere Seiten nicht crawlen kann? Antwort: Das hört sich danach an, dass wir viele Seiten sehen und unsere Systeme sind nicht so sehr interessiert all diese Seiten zu indexieren, besonders wenn sie ein “discovered-currently not indexed” sehen. Das heißt wir wissen über diese Seite Bescheid, sei es durch eine Sitemap-Datei oder durch internes Linking, aber unsere Systeme haben entschieden, dass es die Mühe aktuell nicht Wert ist, diese spezielle Seite zu crawlen und zu indexieren. Besonders bei Websites mit einer großen Anzahl an Seiten kann es schon an kleinen Dingen liegen, wie an internem Linking, welches nicht so toll ist oder ein Inhalt der nicht zu den Suchanfragen passt. Wenn Ihr Inhalt autogeneriert oder Inhalt von einer Datenbank nimmt und ihn einfach nur online stellt, kann das der Grund sein, wo wir den Inhalt als ähnlich zu anderen einstufen, den wir vielleicht bereits indexiert haben. Wenn Ihr wirklich 99% nicht indexiert seht, würde ich erstmal nach den technischen Dingen schauen, dass ihr z. B. nicht aus Versehen URLs mit verschiedenen URL-Mustern generiert, so dass wir nicht in einem Dschungel von URLs verloren gehen, die alle sehr ähnlich aussehen, aber subtil verschieden sind. Wenn wir viele duplizierte URLs entdecken, kann es sein, dass wir die duplizierten URLs nicht mehr crawlen brauchen, da wir dies von Variationen davon ja bereits getan haben. Im zweiten Schritt würde ich schauen, ob mit der internen Verlinkung alles ok ist, ob wir Eure Seiten auch bis zum Ende crawlen können. Das könnt Ihr grob mit einem Crawler-Tool testen, wie z. B. “Deepcrawl”. Wenn das Crawlen funktioniert, würde ich mir über die Qualität der Seiten Gedanken machen. Vielleicht sollte man darüber nachdenken, die Anzahl weit zu verringern und die Übrigen stärker gestalten.

Trust-Projekt

Zeit: 23:15 Frage: Laut dem Trust-Projekt in einem internationalen Konsortium von Nachrichtenorganisationen verwenden Google und Facebook die Indikatoren des Trust-Projekts und die zugehörigen Tags auf verschiedene Weise, wie in ihren Algorithmen oder für die Anzeige der Vertrauensindikatoren selbst. Ist die Zugehörigkeit zum Vertrauens Projekt ein Rankingfaktor für Nachrichten? Wenn nicht, ist es möglich, dass dies in der Zukunft geschieht? Antwort: Ich vermute im Allgemeinen, dass diese Art von Vereinigungen und Mitgliedschaften nicht etwas sind, was wir als direkten Rankingfaktor verwenden würden. Ich glaube eher, dass das eine Art indirekter Effekt ist, weil Leute Euren Inhalten mehr vertrauen, wenn sie sehen, dass Ihr zu einer dieser Organisationen gehört. Und diese Organisationen nehmen nicht jeden auf, der einfach dazugehören will. Und bezogen darauf, ob es in der Zukunft ein Rankingfaktor sein wird, geht es in die gleiche Richtung. Diese Organisationen oder Mitgliedschaften sind meiner Meinung nach generell eine gute Sache, um das Ökosystem voranzutreiben, aber es ist nicht unbedingt etwas, wodurch wir den Inhalt als relevanter oder besser einstufen würden. Daher denke ich nicht, dass wir es als einen direkten Rankingfaktor benutzen werden.

Fetch- and Render-Tool

Zeit: 25:16 Frage: Jede Dritte meiner Fetch- and Render-Anforderungen in der Search Console gibt einen vorübergehend nicht erreichbaren Fehler zurück. Ich sehe das nicht in meinen Protokollen. Kennt Ihr das Problem mit dem Fetch- and Render-Tool? Antwort: Im Allgemeinen gibt es kein generelles Problem mit dem Tool. Aber manchmal sehen wie das mit dem Fehler bei anderen Nutzern im Forum. Insbesondere beim Rendern einer Seite mit dem Fetch- and Render-Tool versuchen wir alle eingebetteten Ressourcen so schnell wie möglich für dieses Werkzeug für das Rendern abzurufen. Dabei haben wir ziemlich strenge Fristen in Bezug wie schnell wir den Inhalt zurück brauchen. Und wenn dieser Inhalt nicht zeitig zurückkommt, kann das als „vorübergehend nicht erreichbar“ angezeigt werden. Dies ist für das Test-Tool etwas Besonderes und es ist nicht etwas, das sich normalerweise in der Suche widerspiegeln würde, da wir bei der Suche ein Ergebnis nicht sofort zurückbringen müssen; wir müssen nicht auf die absolut aktuelle Version der eingebetteten URLs auf diesen Seiten schauen. Wir sind etwas flexibler, wir haben etwas flexiblere Fristen und viel mehr Caching für die eingebetteten Ressourcen. Wenn Ihr also den “vorrübergehend nicht erreichbar”-Fehler beim Fetch- and Render-Tool seht, heißt das nicht zwangsläufig, dass das auch ein Problem bei der Suche ist. Vor allem, wenn Ihr seht, dass die meisten Eurer Anfragen tatsächlich gut dargestellt werden, dann ist dies ein Zeichen dafür, dass dort eigentlich nichts wirklich kaputt ist. Wir können einfach nur nicht alle Inhalte so schnell wie möglich bekommen. Lest dazu doch einmal unseren Blog-Post zum Thema „Crawl-Budget“, welchen wir vor ca. einem Jahr gepostet haben. Darin sprechen wir darüber, wie Ihr Eure Anfragen verbessern könnt und Euer Server schneller wird. Auch könnt Ihr darüber nachdenken, wie man die Anzahl der eingebetteten URLs reduzieren kann, die zum Rendern der Seite erforderlich sind.

Saisonaler Inhalt

Zeit: 33:01 Frage: Einer unserer Kunden hat eine eCommerce-Geschenke-Website. Zur Weihnachtszeit launchen sie eine Landing-Page mit Weihnachtsgeschenken. Nach Weihnachten nehmen sie die Seite komplett von der Website und ein Jahr später veröffentlichen sie sie dann wieder. So geht es jedes Jahr. Beeinflusst das das Ranking? Antwort: Das ist immer sehr schwierig, bei so saisonalen Themen, wenn man nach der Saison den Inhalt entfernen möchte. Wenn Ihr den Inhalt aus unserem Index entfernt und wir ihn beim nächsten Mal dann wiederfinden, wissen wir nicht, ob er wirklich da ist oder ob er vielleicht wieder verschwindet. Am besten ist es, wenn Ihr versucht den saisonalen Inhalt nicht nur ein paar Tage zur Verfügung zu stellen, sondern so lange wie möglich, damit wir genug Zeit haben ihn zu indexieren. Auch müsst Ihr sicherstellen, dass der Inhalt innerhalb Eurer Website deutlich relevant ist. Ihr solltet demnach zum Beispiel von Eurer Homepage oder von einer anderen Seite aus zu der Weihnachtsseite verlinken. Es geht nicht nur darum, dass wir die URL finden, sondern eher, dass wir erkennen, dass ihr den Inhalt als wichtig erachtet. Eine andere Möglichkeit ist auch, eine einzelne URL zu erstellen und diese immer wieder zu verwenden, je nach Saison, die gerade ansteht. Also einfach den Inhalt austauschen, sei es beispielsweise Thanksgiving, Ostern, Weihnachten etc. Das ist von Vorteil, weil die URLs Links über eine längere Zeit sammeln können und sich die Leute langfristig darauf beziehen können. So sehen wir leichter die Relevanz, auch wenn sich das Thema der Seite innerhalb des Jahres ändert. Solange es sich nicht täglich etwas ändert sollte das so funktionieren.

404-Fehler

Zeit: 39:50 Frage: Kann ein plötzlicher Anstieg von 404-Fehlern auftreten, so dass Tausende von neuen unerwünschten Seiten, die von CMS erstellt wurden, das Ranking herabsenken? Diese Seiten sollten niemals da sein. Antwort: Wenn diese Seiten nie da sein sollten und sie hatten niemals irgendwelchen Inhalt, dann ist das vollkommen ok. Wir sehen die ganze Zeit 404-Fehler und für uns heißt es nicht, dass eine Seite daher von geringerer Qualität ist. Der 404-Fehler zeigt uns, dass Ihr technisch alles richtig macht, denn wenn eine Seite nicht mehr existiert ist es der richtige Weg uns eine 404 wiederzugeben. In dem Fall, wenn Ihr von einem CMS zu einem anderen CMS umzieht oder wenn Ihr signifikante Veränderungen vornehmt, dann würde ich darauf achten, woher diese Seiten kommen. Gibt es vielleicht etwas mit dem CMS-Setup, das Inhalte auf diesen Seiten zur Verfügung stellt und jetzt nicht mehr? Stellt sicher, dass Ihr nicht versehentlich Nutzer zu einen 404 Fehler leitet, welchen Ihr reparieren könnt. Aus SEO-Sicht sind 404-Fehler kein Problem, wenn diese jedoch extrem angestiegen sind, nachdem Ihr etwas am CMS geändert habt, solltet Ihr checken, dass diese nicht durch irgendetwas verursacht wurden, das Ihr auf Eurer Seite beeinflussen könnt.

404-Fehler

Zeit: 46:17 Frage: Eine meiner Seiten hat aufgrund eines Fehlers im SEO-Plugin eine Menge an 404-Fehlern und nun bekommt jeder Besucher, der über Google auf meine Seite kommt, einen 404 wiedergegeben. Antwort: Das ist einer der Fälle, in denen es sinnvoll ist, nach der Quelle des 404-Fehlers zu schauen. Besonders wenn wir eine Seite indexiert haben und sie dann plötzlich einen 404 wiedergibt, ist das keine gute Sache. Ich würde erstmal versuchen ein Muster zu finden, welches die Seiten, die erst indexiert werden und dann die Nutzer zu einer 404-Seite leiten, haben könnten und dann Weiterleitungen setzen. So könnt Ihr die Nutzer zu Euren eigentlichen Inhalten weiterleiten.

Entfernung von alten Seiten

Zeit: 53:04 Frage: Wir haben vor Kurzem um die 30.000 alte Seiten entfernt, ungefähr aus dem Jahr 2000. Weißt Du wie lange es dauert, bis Google erkennt, dass sie nicht mehr da sind? Antwort: Wenn das alles alte Seiten waren, die schon jahrelang nicht mehr verändert wurden, werden wir sie wahrscheinlich erst in ein paar Monaten wieder crawlen. Wenn Ihr sie wirklich schnell aus der Suche entfernt haben wollt, könnt Ihr das URL-Removal-Tool benutzen. Es gibt eine Begrenzung für die Anzahl der einzelnen URLs, die Ihr dort einreichen könnt, aber möglicherweise gibt es eine Art Unterverzeichnisse, das Ihr erstellen könnt, um alle diese alten URLs einfacher herauszunehmen.

Mobile-First-Indexing

Zeit: 55:25 Frage: Wir haben unterschiedliche URLs für Desktop und Mobile, Beispiel.com und m.Beispiel.com. Die m.Beispiel.com URL bezogen auf hreflang verweist zu der Desktop-Version der Seiten, sollten wir hier zu den m.-Versionen wechseln? Antwort: Ja, idealerweise solltet Ihr die m. Versionen der Seite durch hreflang zu den anderen m.-Versionen verlinken. Für Hreflang sollte immer der gleiche Typ von Seite zum gleichen Typen verlinken, also Mobile zu Mobile und Desktop zu Desktop. Dies ist insbesondere bei Mobile-first-Indexierung der Fall, wenn wir die mobile Version der Seite primär indexieren, dann müssen wir die hreflang-Verknüpfung zwischen den mobilen Versionen sehen.

Verunglimpfung durch Dritte

Zeit: 58:00 Frage: Jemand versucht, unsere Marke auf unserer „New Fashion“-Website abzuwerten. Es werden Spam-Inhalte auf externen Diskussionsforen veröffentlicht. Websites Dritter haben falsche Artikel über dieses Markenprodukt. Wie können Webmaster technisch gegen solche externen Angriffe ankommen? Antwort: In den meisten Fällen werden wir darauf aufmerksam, wenn so etwas passiert und ich würde auf solche Dinge nicht zu viel Zeit verschwenden. Wenn Ihr problematische Links zu Eurer Website entdeckt, würde ich das Disavow-Tool nutzen. Wenn Ihr das Gefühl habt, dass etwas gegen Eure Website oder Eure Marke gesagt wird sogar in eine nichtlegale Richtung geht, solltet Ihr rechtliche Schritte vollziehen, hier kann Google jedoch nicht weiterhelfen. Wenn Dritte involviert sind, würde ich versuchen diese zu kontaktieren und versuchen dies mit Ihnen zu klären, damit Ihr Euch wieder auf Euer Kerngeschäft konzentrieren könnt.

Sitemap für gelöschte URLs

Zeit: 62:11 Frage: Ist es in der Praxis gut, eine Sitemap für gelöschte URLs zu verwenden? Antwort: Man kann das machen, aber ich würde es nur temporär empfehlen. Die Sitemap Datei kann helfen, wenn Ihr eine Menge an Seiten löschen wollt und Google sie etwas schneller wieder crawlen soll.  Aber langfristig sollte man die Sitemap-Datei entfernen, so dass wir nicht verwirrt werden.

Soziale Signale

Zeit: 63:10 Frage: Was ist mit Trends in der Markensuche und soziale Signale, die das Ranking beeinflussen? Antwort: Ich meine, dass wir soziale Signale überhaupt nicht benutzen. Ich weiß nicht was Du mit “Trends in der Markensuche” meinst, aber ich denke, dass wenn Leute für deine Marke direkt suchen, das an sich ein gutes Zeichen ist. Einerseits bedeutet das, dass sie ausdrücklich auf Eure Website wollen und andererseits, dass es wohl dann auch nicht viel Wettbewerb gibt, wenn sie so konkret nach Eurer Marke suchen. Auch wollen sie nicht einfach nur über das Produkt lesen, sondern wirklich konkret auf Eurer Seite. Aus Google-Sicht zeigen wir dann natürlich Eure Seite, wenn jemand danach sucht. Es gibt ja keinen Wettbewerb für solch eine Anfrage. Hier lohnt es sich, darüber nachzudenken, was man machen kann, dass sich Nutzer an Eure Website und Euer Business erinnern und wiederkommen wollen.

AdWords-Kampagnen auf der Website

Zeit: 70:06 Frage: Wir ranken für ein Thema und wollen jetzt für ein anderes, neues Thema ranken. Die Website hat viele Subdomains und eine der Subdomains erstellt eine AdWords-Kampagne mit dem alten Thema. Wir wissen, dass das wahrscheinlich einen indirekten Effekt auf den organischen Traffic hat. Wir fragen uns, ob es einen negativen Effekt auf die organische Position des alten Themas haben wird, welches wir nicht mehr erwähnt haben wollen. Antwort: Es sollte keinen organischen Effekt geben, wenn eine Anzeigenkampagne für so etwas läuft. Vielleicht gibt es einen indirekten Effekt, weil Leute Euren Inhalt weiterempfehlen, aber nicht durch die Anzeigen. Es gibt zweierlei Gerüchte über Anzeigen auf einer Website. Einige glauben, dass Anzeigen auf einer Website schlecht sind und Google sie deshalb weiter unten zeigt, damit Google selbst mehr Werbung verkaufen kann, andere sagen, dass man durch Anzeigen auf seiner Website im Ranking steigt, weil Google Geld für diese Website bekommt. Beides ist nicht der Fall. In Bezug auf das Ranking gibt es keine Verbindung von Anzeige und Suche.

Text vs. Video

Zeit: 73:02 Frage: Manchmal ranken Videos in den Suchergebnissen – kann ein kurzes Video sinnvoller als ein 5.000-Wort-Blogpost sein? Antwort: Es kann schon, muss es aber nicht. Zuerst achten wir nicht auf die Anzahl der Worte einer Seite. Eine Seite mit 700 Wörtern muss also nicht zwangsläufig besser ranken, als eine Seite mit 200 Wörtern. Es ist nicht so, dass unsere Algorithmen die Anzahl der Wörter auf einer Seite zählt und versucht, anhand der Anzahl der Wörter Rankingentscheidungen zu treffen. Manchmal können sehr kurze Seiten bei bestimmten Anfragen nützlich sein, manchmal auch lange Seiten mit vielen Wörtern. Die Wortzählung kann nützlich sein, wenn Ihr die Website insgesamt nicht kennt und herausfinden möchtet, welche dieser Artikel wirklich von hoher Qualität und Tiefe sind und welche dieser Artikel eher dünn sind, auf die wir uns vielleicht mehr konzentrieren sollten. Dann kann auf Eurer Website möglicherweise die Wortzählung eine Rolle spielen und Euch Informationen zu den dortigen Artikeln geben. Aber es ist kein 1:1-Rankingfaktor. Videos im Vergleich zu Textinhalten sind etwas, das immer sehr schwierig ist im Ranking auszugleichen, ähnlich in Bezug auf Nachrichten mit dem Nachrichtenkarussell im Vergleich zu Bildern. All diese Dinge können bis zu einem gewissen Grad zusammenkommen und wir müssen auf viele Faktoren schauen, wenn wir Seiten mit vielen textlichen Inhalten haben versus Seiten mit vielen Bildern oder Videos. Und diese beiden zu ranken ist manchmal echt schwierig. Wir müssen abwägen, was dabei wichtig ist für den Nutzer. Die Mischung der Art der Suchergebnisse ändert sich im Allgemeinen mit der Zeit. Aktuell bei dem großen Feuer in Kalifornien zum Beispiel, findet man mehr Videos zu dem Thema, da Videos offensichtlich die Ausmaße des Feuers besser wiedergeben können. In ein paar Monaten hingegen wird man zu dem Thema mehr Text und weniger Videos finden, da es dann mehr darum geht Hintergrund-Informationen zu erhalten. Es gibt keine einfache Möglichkeit, um ein Videoergebnis mit einem Testergebnis zu vergleichen. Der Mix der Ergebnisse ist dynamisch und ändert sich mit der Zeit. Bezogen auf Text versus Video wird man immer Änderungen im Ranking sehen können. [su_youtube url="https://www.youtube.com/watch?v=6Lu2F_y54fg"] Constanze Bettendorf und Jochen Moschko