Google Webmaster Hangout Transkript, 12.12.2017

Hier findet Ihr das deutsche Transskript des Google Webmaster Hangout vom 12. Dezember 2017:

Thema: Doorway-Pages
Zeit: 0:42

Frage: Die Definition des Begriffs „Doorway-Page“ ist etwas schwammig. Kann eine Standort-basierte Website seitens Google auch als Doorway-Page eingestuft werden? Beispielsweise wenn ein Unternehmen viele verschiedene Services (an verschiedenen Standorten) anbietet und für diese eigene kleine Websites hat?

Antwort: Als „Doorway-Pages“ werden Seiten eingestuft, die sehr intensiv auf bestimmte Keywords optimiert werden und die dann auf viele andere Seiten verlinken, wie beispielsweise eine reine Sitemap-Seite.

 

Thema: TLS-Verschlüsselung
Zeit: 4:57

Frage: Über die Google Search Console werden seitens Google Warnungen versendet, dass man als Zahlungsanbieter zeitnah auf „TLS 1.2“ aktualisieren soll. Nutzt Google denn auch selbst TLS 1.2?

Antwort: Ja, selbstverständlich. Die genannten Nachrichten wurden in einem anderen Zusammenhang versendet, beispielsweise wenn SSL-Zertifikate falsch verwendet wurden.

 

Thema: SERP-Schnipsel
Zeit: 6:28

Frage: Ich arbeite als SEO für ein Unternehmen. Wir haben in den letzten 2, 3 Monaten bemerkt, dass immer, nachdem wir den Titel einer Seite geändert haben, Google bei diesen Seiten in den Suchergebnissen automatisch den Markennamen der Website hinzufügt. Was kann man hiergegen tun?

Antwort: Wenn man eine Site-Abfrage durchführt, sieht man in der Regel den tatsächlichen Title und die tatsächliche Meta-Description der einzelnen Seiten. Im Zuge normaler Suchanfragen passt Google die in den SERPS angezeigten Schnipsel hingegen oftmals an die Suchanfrage an. In Fällen, in denen wirklich unpassende Schnipsel angezeigt werden, benötigt Google etwas Zeit, bis sich das Problem in den meisten Fällen von alleine behebt.

 

Thema: HTTPS
Zeit: 11:30

Frage: Wir haben von HTTP zu HTTPS migriert. Zuerst sah alles gut aus, aber jetzt fällt die Anzahl der indexierten Seiten rasch ab. Woran könnte das liegen?

Antwort: Das klingt nach einem möglichen technischen Problem. Falls Sie die Zahlen aus dem „Index Status Report“ der Search Console erhalten haben sollten, kann das manchmal irreführend sein, weil es eine Weile dauern kann, bis sich diese Statistik wieder normalisiert hat. Ein besserer Weg, die Index-Situation sowie mögliche Probleme herauszufinden ist über Sitemap-Dateien. Sie können mehrere Sitemap-Dateien für verschiedene Bereiche aufsetzen und können dann herausfinden, wie die Neuindexierung der einzelnen Seitenbereiche vonstatten geht. Mit der nächsten Version der Search Console wird es an dieser Stelle Verbesserungen gehen.

 

Thema: Robots.txt
Zeit: 13:34

Frage: Unsere Robots.txt-Datei untersagt das Crawlen unserer Filterseiten. Diese Filterseiten sind nicht auf „Noindex“ gesetzt, enthalten aber ein Canonical-Tag. Vergeuden wir dadurch unser Crawl-Budget oder gibt es etwas, das wir tun sollten?

Antwort: Wenn Dateien durch die Robots.txt-Datei gesperrt sind, werden diese gar nicht erst vom Googlebot gecrawlt. Von daher sind alle weiteren Punkte irrelevant. Ob diese Vorgehensweise in Ihrem Fall die Beste ist, ist fraglich. In manchen Fällen kann es sinnvoll sein, den Googlebot auch diese Seiten crawlen zu lassen und den Canonical-Tag bzw. rel=prev/next zu verwenden oder das Parameter-Handling in der Search Console zu aktivieren.

 

Thema: rel=prev/next und Canonical
Zeit: 15:02

Frage: Auf unserer Website bieten wir einige Produkte an und verwenden rel=prev/next sowie den Canonical-Tag für die Produktübersicht, die sich über mehrere Seiten erstreckt. Wir halten uns hierbei an die Google-Empfehlungen. Wir verlinken auch auf eine „alle anzeigen“-Seite. Uns wäre es lieber, anstatt auf die „alle anzeigen“-Seite auf die erste Seite der Produktübersicht zu verlinken.

Antwort: Das können Sie selbst frei entscheiden. Für den Googlebot ist es lediglich wichtig, dass er alle aufgelisteten Produkte indexieren kann. Achten Sie darauf, dass Sie bei paginierten Seiten nicht versehentlich den Canonical-Tag auf Seite 1 der Produktübersicht setzen, da der Googlebot sonst die Produkte auf Seite 2, 3 usw. möglicherweise nicht indexieren kann.

 

Thema: Spam-Reports
Zeit: 16:36

Frage: In einem früheren Hangout sagten Sie, dass an Google gesendete Spam-Reports ignoriert werden. Worin liegt dann der Sinn von Spam-Reports?

Antwort: Google ignoriert Spam-Reports nicht, sondern geht den gemeldeten Fällen selbstverständlich nach. Natürlich kann nicht garantiert werden, dass in jedem gemeldeten Fall auch Maßnahmen gegen die gemeldete Website verhängt werden, weil es immer vom Einzelfall abhängt. Oft werden auch einfach nur Mitbewerber gemeldet mit dem Ziel, deren Platz in der Google-Suche einnehmen zu können.

 

Thema: Noindex und Nofollow
Zeit: 19:09

Frage: Wir haben Seiten mit schwachem Content auf „Noindex“ gesetzt, um unsere Performance in Suchmaschinen zu erhöhen. Wir sind uns nicht sicher, ob wir „Noindex Nofollow“ oder „Noindex Follow“ verwenden sollen.

Antwort: Wenn Sie schwachen Content auf Ihren Seiten anbieten, lautet der erste Vorschlag: verbessern Sie Ihren Content. In manchen Fällen ist das nicht möglich, in diesem Fall hilft „Noindex“ natürlich weiter. Im Laufe der Zeit wird Google Links, die von oder auf diese „Noindex“-Seite führen, jedoch ignorieren, deshalb ist es an dieser Stelle unwichtig, ob „Nofollow“ oder „Follow“ verwendet wird.

 

Thema: Adblocker
Zeit: 25:03

Frage: Gibt es eine ideale Vorgehensweise betreffend Adblocker-Deaktivierungs-Meldungen, ohne dass es in den Bereich von „Cloaking“ fällt? Also wenn ein Besucher mit einem Adblocker eine Seite besucht und dieser Besucher gebeten wird, den Adblocker zu deaktivieren?

Antwort: Das ist eine interessante Frage. Der Googlebot ignoriert Ads, also könnte er möglicherweise selbst wie ein Adblocker in Erscheinung treten. Es hängt von der Art der technischen Umsetzung ab. Wenn dem Durchschnittsbenutzer eine solche Meldung gezeigt wird, sollte der Googebot sie ebenfalls zu sehen bekommen. Normalerweise benutzt ein durchschnittlicher Benutzer jedoch keinen Adblocker. Stellen Sie deshalb einfach sicher, dass Ihr normaler Content indexiert werden kann.

 

Thema: Sitemap
Zeit: 28:26

Frage: Wie oft crawlt Google eine Sitemap und wird dann die gesamte Sitemap gecrawlt? Wir möchten nämlich eine Sitemap mit 2-3 Millionen URLs hochladen und sicherstellen, dass diese nicht unser gesamtes Crawl-Budget aufbraucht.

Antwort: Die Sitemap-Datei hilft Google zu verstehen, welche Dateien wann geändert wurden. Deshalb gibt es die „Last-Modification“-Angabe. Sie unterstützt Google dabei, zu entscheiden, welche Dateien als nächste (neu) gecrawlt werden sollen und welche sich seit dem letzten Besuch des Googlebots (offenbar) nicht geändert haben.

 

Thema: Meta-Descriptions
Zeit: 29:40

Frage: Es wird viel über die neue, verlängerte Anzeige von Meta-Descriptions gesprochen. Viele Optimierer wissen nicht, wie sie sich jetzt verhalten sollen – ob sie bestehende Meta-Descriptions eigenhändig verlängern oder dies Google überlassen sollen.

Antwort: Google zeigt in den SERPs häufig Auszüge aus den Meta-Descriptions der aufgelisteten Seiten an. Je nach Suchanfrage oder falls Google weitere Informationen zum Anzeigen benötigt, werden auch Teile der Seitencontents hierfür oder stattdessen herangezogen. Die Meta-Description ist kein Ranking-Faktor; mit einer gut formulierten Meta-Description lässt sich jedoch die Klickrate der eigenen Seiten erhöhen, deshalb kann es durchaus Sinn machen, bestehende Meta-Descriptions zu verlängern. Hier muss man aber abwägen, denn gerade bei großen Websites, wie Shops, kann es sehr viel Arbeit bedeuten, alle Meta-Descriptions zu bearbeiten.

 

Thema: Thematische Veränderung
Zeit: 36:39

Frage: Wenn eine Website lange Zeit von einem Publisher betrieben wurde und eine entsprechende Historie hat, ist es dann schwierig, sie zukünftig in einem anderen Themenfeld zu betreiben?

Antwort: Google schaut sich das Gesamtbild einer Website an und berücksichtigt, welche Inhalte im Laufe der Zeit indexiert wurden. Allerdings verändern sich nicht wenige Websites im Laufe der Zeit und das ist somit nichts Ungewöhnliches.

 

Thema: json-Id
Zeit: 38:12

Frage: Google scheint Seiten zu bevorzugen, die dem Besucher die Möglichkeit bieten, tiefergehende Informationen zum jeweiligen Thema zu erhalten. Manchmal werden solche Seiten auf „Noindex“ gesetzt. Ich frage mich, ob ich json-Id einsetzen und dafür nutzen soll, um diese Seiten als „Collection“ zu deklarieren, anstatt die Seite auf „Noindex“ zu setzen.

Antwort: Es kann nicht allgemein gesagt werden, dass solche Seiten auf „Noindex“ gesetzt werden sollten. Das muss von Fall zu Fall entschieden werden. Auch im Hinblick darauf, wie Ihr Content Ihren Wünschen entsprechend in der Google-Suche erscheinen soll. „Noindex“ und „Index“ ist ein sehr schwarz/weißes Signal für Google, sprich: entweder darf eine Seite indexiert werden oder nicht. Angaben wie „Collection“ werden seitens Google eher nicht berücksichtigt.

 

Thema: AMP
Zeit: 41:31

Frage: Ich habe eine Frage zu AMP. Soll ich von AMP-Seiten aus immer auf die AMP-Version anderer Seiten verlinken oder kann ich auch zur kanonischen Seite verlinken?

Antwort: Das ist eine Frage der Benutzererfahrung. Es gibt zwei Möglichkeiten: 1) Eine AMP-Seite enthält einen Canonical-Tag, welcher auf die Desktopversion verweist – oder auf welche Version auch immer. Der Googlebot crawlt und indexiert immer die kanonische URL, also hält Google beim Crawlen Ausschau nach der kanonischen Seite. 2) Wenn von einer AMP-Seite auf eine andere Version der Seite, bspw. eine mobile Version mit individueller Navigation verlinkt werden soll, ist das ebenfalls kein Problem. Lediglich Verlinkungen von AMP-Seiten auf Desktopseiten werden nicht empfohlen, weil das für die Besucher irreführend sein könnte („AMP“ steht für „Accelerated Mobile Pages“ und betrifft somit mobile Webseiten, Anm. d. Red.).

 

Thema: Geolocation
Zeit: 43:28

Frage: Kann Geolocation-spezifischer Content auf mobilen Seiten dabei helfen, den Panda-Score zu erhöhen, wenn dieser die Benutzererfahrung verbessert?

Antwort: Es ist nicht klar, was an dieser Stelle gemeint ist. Häufig wird der bestehende Content mit einer Angabe des aktuellen Ortes versehen (Anm. d. Red.: z. B. „Sie befinden sich in Köln“). Häufig werden aber auch ortsspezifische Inhalte angezeigt, wie ein Wetterbericht für den Ort des Besuchers. Das ist aus Sicht von Google nicht zu beanstanden. Allerdings befindet sich der Googlebot in Kalifornien. Wenn Sie also ortsspezifischen Content anbieten, wird der Googlebot diesen für Kalifornien erhalten. Dieser Umstand kann zu Problemen führen, weil Google diese Seiten von seinem Standort in Kalifornien aus indexiert und andere Standorte dabei außen vor bleiben. Aus diesem Grund sollte eine Website stets auch standortunabhängigen Content enthalten.

 

Thema: In-App-Indexing
Zeit: 46:28

Frage: Ich benötige einen Tipp betreffend der Verlinkung aus Apps heraus zu Webseiten, wenn AMP verwendet wird.

Antwort: Wenn diese Frage auf „In-App-Indexierung“ abzielt, ist sie im Support-Bereich von Firebase besser aufgehoben. Wenn es darum geht, dass die Website auch als AMP-Version vorliegt und die App auf diese Seiten verlinkt, so ist nichts besonderes zu beachten – sie können wahlweise auf die AMP-Version oder auf die kanonische Version verlinken.

 

Thema: Google Cache
Zeit: 49:04

Frage: Meine Seiten nutzen JavaScript. Wenn ich diese Seiten in der Search Console rendere, sieht das Layout perfekt aus, wenn ich mir die Seiten im Google Cache ansehe, hingegen nicht.

Antwort: Manchmal kann innerhalb des „Google Cache“ JavaScript auf gecachten Seiten ausgeführt werden. Wenn die Skripte jedoch Domain-spezifisch programmiert wurden, kann es passieren, dass dies nicht möglich ist. In diesem Fall ist die Darstellung der Seiten in der Google Search Console ausschlaggebend (Anm. d. Red.: „Abruf wie durch Google“).

 

Thema: Viewport
Zeit: 50:55

Frage: Wie sieht es mit dem Rendern von Seiten mit sehr großen Bildern aus? Ich habe gehört, dass es hier ein Limit von 900 Pixel gibt?

Antwort: Nein, das Limit liegt bei 9000 Pixel. Hier spielt aber die „Viewport“-Angabe der Seite die entscheidende Rolle: Ausschlaggebend ist, wie die einzelnen Seiten Besuchern gegenüber angezeigt werden. Tragen Sie Sorge dafür, dass Ihre Seiten dem Googlebot gegenüber ebenfalls korrekt angezeigt werden.

 

Thema: Rendering
Zeit: 53:28

Frage: Ich habe eine Frage, wie JavaScript von Google gerendert wird. Wenn Text im HTML-Code enthalten, aber via CSS auf „display:none“ gesetzt ist, wird dieser vom Googlebot erkannt. Wenn der Text jedoch erst auf eine Aktion des Nutzers hin von außerhalb geladen wird, kann der Googlebot diesen Text dann trotzdem rendern?

Antwort: Nein, der Googlebot kann in letzterem Fall den Text nicht rendern.

 

Hinterlasse eine Antwort