Deutsches Google Webmaster Hangout Transkript, 09.09.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 9. September 2016

Thema: Links

Zeit: 00:54 Frage: Sind Links in Tabs, mit denen man die Kategorien wechseln kann und die nicht standardmäßig sichtbar sind, weniger wichtig für Google? Antwort: Nein, nicht unbedingt. Die sollten total ok sein. Vor allem für die interne Navigation ist das nichts, wo ich mir Sorgen machen würde.  

Thema: 404

Zeit: 01:26 Frage: Ich habe einen Shop mit Produktkategorien und einer XML Sitemap. Manche Kategorien sind leer und Google zeigt sie als Soft 404, welchen Code sollte meine Seite zurückgeben? Antwort: Das gibt es oft. Es gibt also keine oder nur vorübergehende Inhalte. 404 ist da am besten, vielleicht mit Noindex Meta Tag.  

Thema: Crawling

Zeit: 02:29 Frage: Wie kann man dafür sorgen, dass eine Seite schneller wieder gecrawlt wird. Oft sind in unseren Preis-Snippets noch veraltete Preise zu sehen, während sie auf der Seite schon aktualisiert wurden. Antwort: Schreibt die Änderung als Last Modified in die Sitemap. In Sitemaps könnt ihr alles mögliche eintragen. Es muss aber sinnvoll sein, sodass wir lernen, dem File zu vertrauen. Also nicht Last Modified für alles auf heute setzen - es muss der Wahrheit entsprechen.  

Thema: Ranking

Zeit: 06:36 Frage: Was sagst du zur folgender These: Je mehr Traffic eine Seite von Google bekommt, desto mehr Links sollte sie mit der Zeit generieren, um weiter so gut zu ranken. Antwort: Das weiß ich nicht. Manchmal passiert das natürlich, manchmal nicht. Ich glaube nicht, dass es da Zusammenhänge gibt. Nur weil wir euch x-Traffic schicken, erwarten wir nicht, dass ihr y-Links erhaltet.  

Thema: Last Modified

Zeit: 07:12 Frage: Sieht Googlebot den Last Modified HTTP Header beim Crawlen? Macht es das Crawlen bei großen Seiten schneller? Antwort: Wir nutzen das Datum, aber vor allem für das If modified since Crawling, wo wir den Server fragen, ob etwas seit Datum X geändert wurde. Viele große CMS machen das auch automatisch.  

Thema: Google Sites

Zeit: 08:09 Frage: Ich habe eine Google Site zu einer Domain hinzugefügt und das Canonical auf die designte Seite gesetzt. Beide sind jetzt im Index. Wie lange dauert bis, bis die Google Site verschwindet? Antwort: Wahrscheinlich geht das nicht so schnell. Wir kennen dann denke ich beide und zeigen sie an, wenn ihr eine Seitenabfrage macht. Das ist normal und ihr müsst da nichts machen. Die Signale konzentrieren wir aber auf das Canonical. Wir kennen das non-Canonical vielleicht trotzdem noch, das ist aber kein Problem. Ihr könnt euch dann die gecachete Version anschauen, wenn dort das Canonical ist, ist alles gut.  

Thema: Update

Zeit: 10:01 Frage: Haben die Anzahl und die Qualität von Links einen Einfluss auf die inhaltliche Qualität einer Seite? Würde Panda also eher nicht zuschlagen, wenn man gute eingehende Links hat? Antwort: Wir versuchen Signale zu nutzen, die unabhängig voneinander sind. Wir wollen lieber ein weites Feld an Signalen, anstatt bekanntes zu mischen. Wir schauen uns also eher die Seite selbst an, anstatt andere Seiten mit in Betracht zu ziehen. Alles soll individuell genutzt und entschieden werden. Normalerweise ist es auch so, dass ihr nicht eher für Panda anfällig seit, wenn ihr schon einen Penguin habt.  

Thema: URL-Struktur

Zeit: 12:02 Frage: Wir wechseln das CMS und können dabei die URL-Struktur wechseln. Was ist der beste Weg, um URLs für Produkte zu gestalten? Antwort: Das ist euch überlassen. Sucht euch eine Struktur aus, die langfristig Sinn ergibt. Denn immer, wenn ihr das ändert, müssen wir alles neu crawlen und neu lernen. Sucht euch also eins aus und bleibt dann dabei. Überlegt euch immer gut, ob eine neue URL-Struktur wirklich nötig ist. Und wenn ihr jetzt was ändert, solltet ihr auch direkt https einbauen. Dann habt ihr die Fluktuationen nur einmal. Die besten URLs sind auch die, die in 10 Jahren noch funktionieren. Es macht auf einer Event-Seite auch Sinn, die URL zu behalten und jedes Jahr die Inhalte zu ändern. Das Alte kann dann in ein Archiv. Sonst passiert es oft, dass Leute nach einem Event suchen und das vom letzten Jahr finden, da wir dort alle Signale haben. Kommt das neue auf die alte URL, dann macht es das einfacher für uns und die URL wird über die Jahre immer stärker.  

Thema: Update

Zeit: 14:30 Frage: Kannst du etwas mehr zu dem Phantom Update im Juni sagen? Meine Seite ist stark abgestürzt. Antwort: Ich weiß nicht, welches unserer vielen Updates damit gemeint ist. Grundsätzlich ändern wir viel, und vieles davon hat mit der Qualität von Seiten zu tun. Da gibt es nicht eine HTML-Zeile, die ihr anpassen könnt, um alles zu verbessern. Versucht doch mal, Feedback in den Hilfeforen zu erhalten.  

Thema: Bilder

Zeit: 19:08 Frage: Was ist das beste Format für Infografiken auf einer Website? Antwort: Ich würde png benutzen, die nicht compressed sind. Für die Bildersuche ist das aber egal.  

Thema: 404

Zeit: 19:22 Frage: Wie ernst sollten wir 404-Benachrichtrigungen in Search Console nehmen? Antwort: Es ist kein Problem, wenn Search Console viele 404er anzeigt. Das führt nicht zu schlechterem Ranking. Wenn eine Seite nicht existiert, dann gebt uns eine 404 zurück. Das ich technisch richtig. Wir zeigen es in Search Console nur für den Fall, dass es eine versehentliche 404 ist. Dann könnt ihr das da sehen und beheben. Sind die 404 gewollt, dann lasst sie so. Standardmäßig seht ihr die 404er auch nach Priorität geordnet (da sie mal in einer Sitemap waren oder Links haben). Uns ist es auch ziemlich egal, ob es 404 oder 410 sind. Weg ist halt nicht gleich weg. Wenn unsere Systeme Zeit haben, dann schauen sie sich auch ganz alte URLs an, die schon seit Jahren weg sind. Einfach um sicher zu gehen, dass sie immer noch weg sind.  

Thema: 404

Zeit: 26:34 Frage: Wir haben eine Immobilienwebsite. Wenn etwas verkauft ist, gibt es ein 404. Soll ich dort eine Nachricht einfügen, die auf andere Angebote verweist. Antwort: Wir schauen uns 404 nicht für die Suche an. Aber für den Nutzer macht es Sinn, wenn ihm die 404 einen weiteren Weg weißt. Weiterleitungen würde ich nicht machen. Denn wenn ihr zur Homepage weiterleitet, dann ist das keine passende Weiterleitung und wir sehen es trotzdem als 404.  

Thema: Meta Tag

Zeit: 29:22 Frage: Schaut Google sich auch die Dinge an, die im Title Tag nach dem 70. Zeichen stehen? Antwort: Wir schauen uns den ganzen Title an. Wir zeigen in den SERPs dann etwas, von dem wir glauben, dass es zu dem passt, was der Nutzer sucht.  

Thema: Canonical

Zeit: 30:02 Frage: Warum nutzen viele große Seiten bei URLs mit =abcd?abcdefg=2345 das Canonical=abcd? Antwort: Wir sehen das Canonical und versuchen, das zusammenzuklappen. Große Seiten haben oft Parameter für das Tracking. Für uns ist das nicht ideal, aber so ist das Internet und wir müssen damit umgehen.  

Thema: Knowledge Graph

Zeit: 32:50 Frage: Stimmt es, dass Google auch Dinge von anderen Seiten als Wikipedia für direkte Antworten verwendet? Antwort: Ich glaube, dass hier unterschiedliche Inhalte gemixt werden. Für den Knowledge Graph versuchen wir, alle möglichen Fakten aus verschiedenen Quellen in Betracht zu ziehen.  

Thema: Noindex

Zeit: 34:18 Frage: Wir haben ein neues Design und das Theme war auf Noindex und der Webmaster hat es nicht gesehen. Dann sind wir aus den SERPs rausgeflogen, da wurde mir dann in den Foren geholfen. Jetzt sind wir wieder da. Und ich habe Angst, dass die falsche Seite indexiert wird, also die alte statt der neuen. Antwort: Ich würde die am besten laufende Version aussuchen und die als Canonical aussuchen. Zudem auch mit 301 weiterleiten. Für normale Änderungen an der Seite würde ich auch nicht Remove from Index benutzen. Denn das nimmt es nur aus den SERPs, das alte bleibt aber unter Umständen im Index. Nutzt lieber eine Weiterleitung, da werden dann auch Nutzer, die die alte URL aufrufen, weitergeleitet. Wenn in Fetch as Google keine Weiterleitung gezeigt wird, dann funktioniert sie auch nicht.  

Thema: Canonical

Zeit: 41:54 Frage: Ist es ein guter Weg, den Title und die Description oder das Canonical mit JavaScript/TagManager zu ändern, wenn man keinen Zugriff auf den Quellcode hat? Antwort: Das ist nichts wirklich gutes, man kann es aber machen. Wir schauen uns an, was in der finalen gerenderten Version ist.  

Thema: Seitenaufbau

Zeit: 42:31 Frage: Was sind die Vorteile einer konsolidierten Seite? Antwort: Das macht es für uns einfacher, alle Signale für das Thema auf einer Seite zu sammeln und die Seite damit stärker zu machen. Wenn es eigenständige Inhalte sind, dann machen einzelne Seiten Sinn - ansonsten ist eine starke Seite gut.  

Thema: Dorrway Pages

Zeit: 43:27 Frage:  Wir haben ein Angebot in allen 50 Staaten der USA. Ich überlege, für jeden Staat eine Landing Page zu erstellen, wo dann aber kaum Unterschiede bestehen. Gibt das einen Penalty? Antwort: Vielleicht, das hört sich nach Doorway Pages an. Die Inhalte sind gleich, nur eine Information ist anders. Das ist spammig, außerdem macht es vielleicht Sinn, dass auf einer wirklich starken Seite zusammenzufassen. Ich würde das also nicht machen.  

Thema: Bilder

Zeit: 44:53 Frage: Wir haben viele Hintergrundbilder auf unserer Seite als <div>. Werden die indexiert oder sollen wir sie zu <img> ändern? Antwort: Wir werden die wohl eher nicht für die Bildersuche indexieren. Ob das ein Problem ist, musst du selbst wissen. Sind es nur generische Hintergrundbilder, dann ist das vielleicht egal. Sind die Bilder dir aber wichtig, dann solltest du Image Tags nutzen.  

Thema: Indexierung

Zeit: 45:52 Frage: Bei all unseren Subdomains sinkt der Indexierungsstatus, wie können wir den Fehler finden? Antwort: Das ist schwer zu sagen, ohne die Website zu kennen. Wenn viele Seiten ähnliche Inhalte haben, dann suchen wir uns vielleicht ein Canonical aus. Es können aber auch Crawlingprobleme oder technische Probleme sein. Hier sind die Hilfeforen der richtige Ort.  

Thema: Duplicate Content

Zeit: 54:43 Frage: Unsere Seite hat eine Liste mit URLs zu den Kategorien und Unterkategorien. Es gibt also 20 Seiten mit den gleichen Links und Metadaten. Ist das DC? Antwort: Wenn es nur um die Links oder die Descriptions geht, ist das kein Problem. Geht es um die Inhalte, dann ist es Duplicate. Aber das ist kein Problem, Dinge wiederholen sich halt, z.B. Produkte in unterschiedlichen Kategorien. Wenn Seiten einzigartige Inhalte haben, ist es natürlich einfacher, sie gut zu ranken. Ansonsten klappen wir Dinge auch mal zusammen.  

Thema: https

Zeit: 55:57 Frage: Eine unserer Subdomains ist auf https umgezogen, seitdem geht der Indexierungsstatus zurück. Antwort: Vielleicht schaut ihr euch die http Version in Search Console. Ihr müsst die https Version verifizieren und solltet dort den entsprechenden Anstieg sehen.  

Thema: Disavow

Zeit: 59:16 Frage: Gibt es andere Wege als das Disavow File, um schlechte eingehende Links loszuwerden? Antwort: Disavow ist das, was ihr machen solltet. Ihr könnt auch direkt die ganze Domain eintragen, dann werden alle Links von der Domain rausgefiltert. Ihr müsst das auch nicht im Voraus machen, sondern einfach sobald es passiert ist. Wir sehen auch Dinge wie .xyz Spam. Da müsst ihr dann gar nicht so viel machen, weil wir vieles (aber nicht alles) davon rausfiltern. Die Leute von der TLD arbeiten auch daran.  

Thema: Weiterleitung

Zeit: 1:03:05 Frage: 301 Weiterleitung oder Canonical Tag, was ist besser? Antwort: Wir nutzen beide, ihr könnt also auch beide nutzen um das Signal stärker zu machen.  

Thema: Ajax

Zeit: 1:03:30 Frage: Wie geht Google mit Pushstate bei endlosem Scrollen in Ajax um? Antwort: Wir haben eine Beispielseite, die ihr euch anschauen könnt. Da seht ihr alles, was in dem Zusammenhang funktioniert. Am besten sind beiderseitige Links und Pagination, damit wir es crawlen können.  

Thema: Sitemap

Zeit: 1:04:08 Frage: Unser CMS erstellt eine automatische Sitemap mit Hunderten 404ern und kaputten Links. Wir haben auch eine richtige Sitemap, aber die alte wird immer noch gecrawlt. Wie kann ich das verhindern? Antwort: Ihr könnt die alte Sitemap mit robots.txt blockieren, das sollte der einfachste Weg sein, wenn ihr nicht am Server arbeiten wollt.  

Thema: Duplicate Content

Zeit: 1:04:45 Frage: Du hast gesagt, dass eine Website mit nur einem Feed von einer anderen Seite keinen Mehrwert hat. Aber wie sieht es mit einer Seite aus, die mehrere Feeds zusammenfasst und dazu Bewertungen veröffentlicht? Antwort: Das hört sich danach an, dass eure Hauptinhalte aus Feeds kommen. Das ist nicht gut, eure Hauptinhalte sollten einzigartig sein und von euch kommen. Feeds sollten nur unterstützend wirken.  

Thema: 508 Compliance

Zeit: 1:05:38 Frage: Hat 508 Compliance einen Effekt für SEO? Antwort: Soweit ich weiß nicht, das ist eine rechtliche Sache.  

Thema: Lokale Seiten

Zeit: 1:05:45 Frage: Was passiert, wenn wir eine Hompage löschen und die Stadtseiten zur Homepage machen? Es sind lokale Produkte und so würden Nutzer z.B. aus Delhi direkt auf der passenden Seite landen. Antwort: Ihr müsst vorsichtig sein, wenn ihr Inhalte je nach dem Ort des Nutzers anbietet. Googlebot crawlt vor allem aus den USA und würde Dinge für Delhi gar nicht sehen.  

Thema: Duplicate Content

Zeit: 1:06:46 Frage: Ich manage eine Google my Business Seite und der Unternehmer kopiert nun meine Inhalte als Blogposts auf die Unternehmenswebsite. Wird das zu DC Problemen führen? Antwort: Es könnte DC sein. Wenn jemand also nach dem Text sucht, zeigen wir eine der beiden Seiten in SERPs. Das ist aber kein Problem, denn Nutzer finden die Inhalte. Da kann euch ja dann egal sein, wo.  

Thema: Sitemap

Zeit: 1:08:42 Frage: In Search Console haben wir 750 XML Sitemaps eingereicht, es werden aber maximal 500 angezeigt. Gibt es ein Limit oder wo können wir die restlichen sehen? Antwort: Das Limit ist nur in der UI. Und 500 ist ziemlich viel. Ihr könnt auch Sitemap Index Files nutzen. Das könnte es übersichtlicher machen. Ihr könnt auch alle Million Sitemaps einreichen, wir können damit umgehen aber es wäre eher nicht so sinnvoll.  

Thema: Interstitials

Zeit: 1:10:16 Frage: Was ist beim P enalty mit Interstitials, die erst nach dem Scrollen aktiv werden? Antwort: Das könnte auch problematisch sein, denn es blockiert ja die Inhalte. Wir suchen aber nach so etwas, auch wenn ich nicht weiß, wie wir das genau machen. Ich denke, es ist etwas anderes, wenn ein Interstitial kommt, nachdem man einen langen Artikel gelesen hat. Wir wollen, dass Nutzer die Inhalte sehen uns lesen können. Die Unterscheidung ist aber manchmal schwammig. Rausfiltern tun wir auch nur Seiten, die wirklich schlimm gegen die Richtlinien spammen. Wenn es aber einfach eine nicht so gute Seite ist, dann ranken wir sie einfach nur schlechter.   Den ganzen Hangout könnt ihr euch hier ansehen: