Deutsches Google Webmaster Hangout Transkript, 20.10.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 20. Oktober 2016

Thema: Mobiloptimierung

Zeit: 01:00 Frage: Für unsere mobile Nachrichten-Seite nutzen wir kein Structured-Data-Markup, wohl aber für Desktop und AMP. Wenn, wie zuletzt gemeldet, der mobile Index der Hauptindex wird, muss dann auch das Markup für die separate mobile Seite eingepflegt werden oder reicht weiterhin der canonical tag auf die Desktop-Hauptseite oder muss hier auch umgeswitcht werden (m.meineseite.de als canonical)? Wie viel Vorlauf in der Ankündigung wird es geben, wenn das umgebaut werden muss? Antwort: Momentan haben wir da noch nichts genaues bekannt zu geben. Da werden wir uns noch genauer mit beschäftigen und euch alles rechtzeitig bekanntgeben. Wir versuchen bei solchem Umstellungen immer sicherzustellen, dass ihr nicht alles umstellen müsst - sondern nur ein wenig. Wir werden da sicher noch einen Blogpost, hoffentlich auch mit Terminen - veröffentlichen. Stellt aber schon mal sicher, dass die mobile Version und die Desktop Variante vom Inhalt und von der Funktionalität gleich sind.  

Thema: Versteckte Inhalte

Zeit: 03:40 Frage: Wir nutzen Bootstrap und nutzen die Möglichkeit per Class „visible-xs“ und „hidden-xs“ gewisse Inhalte nur für Desktop bzw. Mobile Geräte anzuzeigen…Stellt das ein Problem dar aus Sicht von Google, da es sich um versteckte Inhalte handelt? Es ist beispielsweise so, dass eine große Tabelle nur auf dem Desktop angezeigt wird, während auf Mobile die Produkte als Grid sichtbar sind Antwort: Grundsätzlich sollten die Funktionalität und die Inhalte gleich sein. Es ist nicht kritisch, wenn ein paar Dinge unsichtbar sind. Aber die Algorithmen schauen das an und sehen diese Dinge dann nicht als die wichtigsten Inhalte der Seite - diese behandeln wir dann entsprechend.  

Thema: Google Analytics

Zeit: 05:26 Frage: Bei einigen Shops (z.b. goo.gl/ON3Oyh) wird die erste Seite der Pagination (?p=1) sofort nach dem Scrollen aufgerufen. User Signale sind ja für Google wichtig, diese erfolgen dann auf Seite 1 der Pagination (webseite.de/kategorie?p=1) und nicht auf die Kategorie-Seite. Kann Google das differenzieren und die User Signale der Hauptkategorie zuordnen? könnte das vielleicht Auswirkungen auf die Rankings haben, oder soll das einfach vernachlässigt werden? Antwort: Soweit ich weiß sehen wir das gar nicht. Wir nutzen Analytics nicht für das Ranking. Wichtig ist nur, dass wir die Seiten crawlen können, dass wir die Inhalte finden können und dass nicht unendlich viele URLs entstehen. Dazu gibt es auch einige Hilfeartikel. Das muss also alles richtig eingebaut sein. Ich würde keine endlose Paginierung oder alle Filter indexieren lassen, aber zu einem gewissen Grad macht das schon Sinn.  

Thema: Indexierung

Zeit: 08:34 Frage: Für die Suchanfrage nach "GMX" rankt oft die Domain gmx.de. Unsere Haupt-Domain ist aber gmx.net. Wie kann man es deutlicher machen, dass die Marke "GMX" zur Domain gmx.net gehört? Antwort: Das müsste ich mir mal anschauen. Wir scheinen die Äquivalenz nicht zu erkennen.  

Thema: Robots.txt

Zeit: 09:28 Frage: Googlebot und robots.txt, werden hier bei Google gerade Änderungen vorgenommen? Weil sämtliche Seiten, die ich in der robots.txt auf noindex gesetzt habe, tauchen im Moment in der Suche auf, als ob sie disallow wären. Und zählen disallowte Seiten mit in die Gesamtqualität der Website oder werden diese nicht gewertet, da der Bot den Inhalt nicht kennt? Antwort: Da kommen wohl verschiedene Komponenten zusammen. Der Noindex in der robots.txt wird von uns nicht offiziell unterstützt. Da kann es dann sein, dass das gar nicht angesehen wird uns es nicht funktioniert. Wenn du aber Noindex auf Seiten hast, die mit robots.txt blockiert werden, dann können wir das gar nicht sehen. Wir haben dann auch keine Inhalte dazu und die Seiten werden nur aufgrund der Links indexiert. Dann werden sie aber zum Großteil nicht in den SERPs erscheinen und wir können die Inhalte auch nicht für die Qualitätsbestimmung nutzen. Bei Seitenabfragen sieht man sie dann aber schon. Um einen Noindex da sehen zu können, müssen wir die Seiten crawlen dürfen.  

Thema: Disavow

Zeit: 13:26 Frage: Ist die Disavow Datei in Search Console global oder wird diese nur auf die angelegt Subdomain/Protokoll angewendet? Also wir haben https://www.example.de, was aber wenn Links auf http://example.de zeigen, werden diese dann mit der Disavow auf https://www.example.de entwertet? Antwort: Für uns gehen die Links da zwischen zwei Canonical URLs. Wenn ihr da sauber arbeitet, wir also https und www. als Canonical indexieren, dann zählen auch alle anderen Links dazu und die Disavow Datei muss nur auf dem Canonical hochgeladen werden. Sie muss immer vom Ursprung bis zum Ziel gelten.  

Thema: Internationale Seiten

Zeit: 15:09 Frage: Ich bin verantwortlich für eine deutschsprachige Website in der Schweiz. Der Hautpsitz der Firma ist in Deutschland und hat eine ähnliche/gleiche Website. Vor allem im Informationsbereich für unsere Produkte sind die Erklärungen naturgemäß die Gleichen. Nun habe ich gehört, dass dies für Suchmaschinen ein Problem ist der sich "Externer Duplicat Content" nennt. Die eine Seite befindet sich auf der Domain www.platinum.com und die andere Seite mit ähnlichem Inhalt liegt auf www.platinum-swiss.ch. Ist das wirklich ein Problem. Wie kann ich das lösen, da ja die Beschreibungen für unsere Produkte logischerweise in beiden Ländern gleich sind. Meine deutschen Kollegen wollen, dass ich alles umschreiben, da sie für Ihre Seite ein Nachteil beim Ranking auf Google befürchten. Wenn ich Änderungen machen muss, wie viel Prozent muss geändert werden. Oder lässt sich das mit "hreflang" lösen. Oder gibt es eine andere sinnvolle Lösung. Antwort: Grundsätzlich würde ich mir keine großen Sorgen wegen Duplicate Content machen, das ist für uns ein technisches Problem. Wenn wir sie erkennen, dann klappen wir sie zusammen und bestrafen die Seiten nicht. Problematisch ist es nur, wenn es Scraping gibt. Bei Länderversionen ist das normal. Aus unserer Sicht ist hier das Hreflang sinnvoll, um immer anzugeben, welche Seiten äquivalent sind und für welches Land sie gelten sollen. Wir zeigen dann die passende Seite in den jeweiligen SERPs. Ihr könnt auch im Footer noch die jeweilige Adresse angeben, um uns zu zeigen, wer getargetet wird.  

Thema: JavaScript

Zeit: 19:58 Frage: Wie geht Google aktuell mit dynamischen Seiten um? Muss man diese sicherheitshalber vorher noch Prerendern? Wir habe einen Prototypen (dynamisch) gebaut und stellen fest, dass der Bot die Inhalte lesen und verarbeiten kann - Indexierungsstatus liegt aber dennoch nur bei 40%. Was uns weiter verunsichert ist das Renderverhalten in der GSC - hier hat der Bot offensichtlich noch Probleme und stellt unterschiedliche Ansichten zur Verfügung. Antwort: Ja, das kann sein. Vor einem Monat habe ich bei einer Angular Konferenz gesprochen, wo es auch um diese Themen ging. Das werde ich euch hier mal verlinken. Prerendern ist auch immer eine Möglichkeit, das sollte dann aber für alle und nicht nur für den Googlebot gemacht werden. Das ist oft aber auch schwierig, und nicht alle Tools lassen sich dann 1:1 wie auf HTML Seiten nutzen.  

Thema: Interne Verlinkung

Zeit: 22:56 Frage: Ist die interne Verlinkung ein wichtiges Signal, dass sich auf Rankings auswirkt oder ist die interne Verlinkung kein wichtiges Signal, dass sich nicht auf Rankings auswirkt - eine sitemap.xml reicht völlig aus? Antwort: Sie ist nicht ein wichtiges Signal, aber ein wichtiges Element. Denn so können wir erkennen, was es für Zusammenhänge gibt und wie die Seite aufgebaut ist. Es ist kein Rankingsignal, aber eine grundlegende Funktionalität die das Ranking erst ermöglicht. Denn wenn wir sie nicht verstehen, helfen auch die ganzen Rankingfaktoren nicht. Eine Sitemap ist wichtig, die kann uns das Leben einfacher machen und das Crawlen gerade bei neuen Inhalten schneller machen. Bei kleinen Websites braucht man sie nicht unbedingt für das Crawlen, aber es ist trotzdem eine gute Praxis sie zu haben. Dadurch merkt man schnell, welche Seiten wirklich wichtig sind und wo es vielleicht Probleme gibt.  

Thema: Google Analytics

Zeit: 26:17 Frage: Beeinflussen Performance Indikatoren wie z.B. Bounce Rate Rankings? Antwort: Wir nutzen das höchstens, um die Algorithmen aufgrund z.B. von Klickmessungen anzupassen. Aber für das Ranking nutzen wir Analytics nicht, nur für solches A/B Testing, wo vielleicht 1% der Nutzer eine alternative Variante erhält. Da sehen wir dann welche Änderungen vielleicht Sinn machen und welche nicht.  

Thema: Redirect

Zeit: 28:33 Frage: Wir haben ein EPG und damit einhergehend viele Tausend URLs (Sendungsdetailseiten), die nach 10-14 Tagen ablaufen und somit verschwinden. Was ist hier die beste Lösung, um mögliche Rankings zu behalten und keine negativen Signale zu senden? Aktuell leiten wir abgelaufene Seiten auf das EPG weiter - was nicht unbedingt themenrelevant ist aber Traffic bringt. Idee: Langlebige Themenseiten für Sendungen erstellen und darauf weiterleiten? Auf neuere, gleiche Sendung weiterleiten? Oder doch per 404 oder 410 verfallen lassen? → Trafficverlust, da Google die Seiten nicht rechtzeitig aus dem Index nimmt. (Und sollten wir alle Sendungen (> 300k) in die Sitemap mit aufnehmen?) Antwort: Ich weiß nicht, was ein EPG ist. Die Frage ist aber, was man mit abgelaufenen Inhalten macht. Hat man saubere Kategorieseiten, dann kann man Dinge darauf umleiten - z.B. bei wiederkehrenden Events. So können sich die Seiten längerfristig aufbauen. Das geht aber nur, wenn die Seite wirklich relevant ist. Man kann auch auf neue, themengleiche Seiten weiterleiten, die die alten ersetzen. Aber nicht einfach irgendwie weiterleiten, zum Beispiel auf die Homepage. Das bringt dem Nutzer nichts. Man kann auch eine hilfreiche 404er Seite erstellen, die den Nutzer auf ähnliche Inhalte hinweist.  

Thema: Redirect

Zeit: 32:23 Frage: Wir machen einen Relaunch mit einer Seite, die aktuell (leider) aus ca. 90% Parameter-URLs besteht (Filter, aber auch normale Seiten - ca. 60k). Die neue Seite benutzt so gut wie wie keine Parameter. Wir würden jetzt für das Mapping gewisse Regeln definieren (auf Parameter-Ebene), um richtig Weiterleitungen zu setzen. Wenn wir aber bei bestimmten Parametern weiterleiten, können wir keine anständigen Bedingungen für Parameter und Canonicals setzen. Hier sehe ich eine Schwierigkeit: Alte vorhandene Parameter-URLs weiterleiten, gleichzeitig für das neue System die alten ungültigen, und neuen willkürlichen Parameter kanonisieren. Gibt es hier einen Tipp? Antwort: Das müsste ich mir mal genauer anschauen. Grundsätzlich sind aber Parameter-URLs nichts schlechtes. Wenn man ein Redesign macht, dann ist das aber bestimmt eine gute Chance, um das mal aufzuräumen. Ich würde hier am besten so weiterleiten, dass das aufgeräumt wird und die Parameter auf den richtigen Seiten landen. Wie man das technisch richtig macht, müsst ihr aber selbst schauen. Canonicals sollte einfacher sein, denn nach dem Redirect kann man ja die Endseite als Canonical setzen. Am besten ist es 1:1 ein Mapping aufzustellen, damit nichts verloren geht. Wir haben dazu auch ein paar Hilfeartikel. Es wird auch etwas dauern, bis sich alles nach so einer Umstellung stabilisiert und nur noch die neuen URLs im Index sind. Das kann auch für diese Wochen oder Monate das Ranking beeinflussen. Macht so etwas also zu einer Zeit, wo ihr vielleicht weniger Traffic habt - oder wenn ihr zeitgleich eine Werbekampagne starten könnt, um das aufzufangen.  

Thema: SERPs

Zeit: 33:33 Frage: Es gibt jetzt die Schlagzeilen, die in den SERPs nebeneinander stehen. Bleibt das? Antwort: Das müsste ich mir mal anschauen, da weiß ich nicht genau was du meinst. Das könnte den englischen Stories entsprechen und wäre dann nicht auf Google News begrenzt. Ich weiß aber nichts genaues zu dem Thema, da gibt es immer wieder Tests und Änderungen.  

Thema: Ranking

Zeit: 35:10 Frage: Wir schaffen es nicht in die Newsbox bei 5 Themen, woran kann das liegen? Antwort: Laut dem Team ist das eine Rankingsache. Die Algorithmen schauen, welche Seiten zu einem Thema gerade am relevantesten ist. Das kann sich dann mit der Zeit ändern, denn es ist ein normales organisches Ranking. Es ist nicht so, dass ihr auf einer schwarzen Liste steht und deswegen nie gezeigt werdet. Es kann auch immer mal sein, dass wir einige Seiten überbewerten und im Gegenzug andere zu schlecht bewerten. Am besten sucht euch einen (kleineren) Markt in dem ihr nicht genauso gut seit wie die anderen, sondern bei Weitem die besten Dinge liefert. Ihr müsst euch immer die Konkurrenzsituation anschauen, um realistische Erfolgsaussichten zu haben. Wenn wir dann so eine gute Seite sehen, dann können wir auch zu den Technikern gehen und sie ändern das. Warum sollten sie das tun, wenn die Seiten gleichwertig sind?  

Thema: Sitelinks

Zeit: 43:50 Frage: Seit Anfang letzter Woche fehlen unsere organischen Sitelinks für die Brandsuche nach "sport conrad" für diese Seite sport-conrad.com. In der Vergangenheit wurden die Sitelinks jedoch immer angezeigt. Wir können uns leider überhaupt nicht erklären warum Google die Sitelinks nun entfernt hat. Die einzigen technischen Änderungen die wir in letzter Zeit gemacht haben waren: 1) URLs für Sitelinks, die über die Search Console abgewertet wurden wieder gelöscht 2) Die Reihenfolge der Kategorien bei unserer Top Navigation geändert Können wir jetzt nichts anderes machen als abwarten, bis Google die Sitelinks (hoffentlich bald) wieder anzeigt? Oder gibt es eine Möglichkeit selbst etwas zu optimieren? Antwort: Grundsätzlich werden die Sitelinks wie organisches Ranking erstellt. Wir haben da keine gezielte separate Funktionalität. Wichtig ist für uns nur eine klare Struktur. gerade, wenn die Top Navigation geändert wurde, müssen wir uns die Sitelinks vielleicht nochmal neu überlegen. Stellt sicher, dass die URLs selbst noch die gleichen sind und dass die Navigation sauber als Text dargestellt werden kann. Das könnt ihr mit Fetch as Google nutzen.  

Thema: Googlebot

Zeit: 47:19 Frage: Kann Googlebot mit Websockets umgehen? Antwort: Aktuell nicht. Ich weiß nicht, ob das noch kommen wird.   Den ganzen Hangout könnt ihr euch hier ansehen: