Deutsches Google Webmaster Hangout Transkript, 11.11.2016

von Michael Schöttler

Kategorie(n): Google Webmaster Hangouts Datum: 14. November 2016

Thema: App-Indexierung

Zeit: 00:45 Frage: Eine Frage bezüglich der Indexierung von Single Page Applications unter Einsatz von Angular: Google PageSpeed Insights zeigt uns für unsere SPA einen Verbesserungsvorschlag, der lautet, JS- und CSS- Ressourcen zu entfernen, die das Rendering blockieren. Das betreffende JS ist aber das, was die Seite rendert. Kann es sein, dass Pagespeed Insights noch nicht mit Single Page Applications und Angular klarkommt? Antwort: Theoretisch kann das sein. grundsätzlich ist es so, dass wir solche Tools nicht an unsere Produkte ausrichten. Das ist also neutral. Es kann also auch passieren, dass unsere eigenen Dinge als nicht perfekt gesehen werden. Gerade Single Page Apps brauchen ja JavaScript, während PageSpeed Dinge lieber direkt geladen hätte. Das ist in dem Fall also vielleicht nicht so relevant und das heißt auch nicht, dass ihr nun schlechter rankt. Zu dem Thema haben wir auch einen neuen Beitrag auf dem englischen Webmaster Blog.  

Thema: Versteckte Inhalte

Zeit: 04:10 Frage: Wir sind eine traditionelle E-Commerce Seite mit vielen Bildern und basierend auf unserer Erfahrung mit den Ladezeiten unserer Webseite, speziell auf Smartphones, haben wir Lazy Loading für diese Bilder implementiert. Aus technischer Sicht funktioniert das indem wir das src Attribut von allen Bildern durch einen Platzhalter Bild ersetzen, und das eigentliche Bild in data-src referenzieren. Sobald das Bild in den Viewport scrollt, wird die URL via Javascript von data-src in src kopiert und der Browser lädt das Bild. Aus Google Sicht, sieht es so aus als ob wir nur ein Bild auf der Seite haben, das wir 100x einbinden. Um die Ladegeschwindigkeit beizubehalten, aber Google die Bilder auch zu zeigen, haben wir überlegt basierend auf dem User-Agent string lazy-loading für Google zu deaktivieren. Für uns macht das Sinn, weil der User und Google immer noch die gleiche Seite sehen, haben aber die Befürchtung es könnte von Google als Black-hat eingestuft werden, da wir unterschiedliches HTML ausliefern. Ist das trotzdem OK? Antwort: Wir rendern das, was wir direkt sehen. Und wenn die Bilder dadurch durch die richtigen Bilder ersetzt werden, dann sehen wir sie und sollten sie indexieren können. Wenn man aber erst scrollen muss, dann sehen wir das eher nicht. Ihr könnt die Bilder auch per Link auf die Bilddatei einbinden, dann sehen wir das. Oder ihr lasst einfach die wichtigsten Bilder richtig laden. Bei einer Kategorie macht Lazy Load sicher Sinn, bei einer Produktseite kann man das Bild einbinden - oder wir sehen es auch bei Lazy Load.  

Thema: Canonical

Zeit: 06:50 Frage: Wir haben gute redaktionelle Artikel, welche wir auf zwei unterschiedlichen URLs veröffentlichen wollen. A) auf einer redaktionellen Webseite (ohne Produkte). B) auf einer E-Commerce Webseite (mit Produkten). Können kanonische URLs über unterschiedliche Domains verwendet werden bzw. ist dies sinnvoll und falls nein, wie sollen wir vorgehen, damit Google die Inhalte der E-Commerce Webseite zuweist. Antwort: Ja, da könnt ihr das Canonical nutzen. Das versuchen wir dann auch zu beachten, aber es klappt vielleicht nicht immer. Auch in der Seitenabfrage seht ihr dann sicher noch beide Varianten.  

Thema: Versteckte Inhalte

Zeit: 08:10 Frage: Wertet Google Accordions und Tabbing Navigations als "hidden-content" an, sprich ist dies negativ? Wie sieht es aus wenn ich mit der Class "hidden-xs" von Bootstrap arbeite und damit Tabelle bei Mobile Devices verstecke, aber für Desktops anzeige? Problematisch? Antwort: Grundsätzlich stellen wir auf lange Sicht auf Mobile First Indexierung um. Da wird es etwas anders aussehen. Aktuell sehen wir versteckte Inhalte aber als weniger wichtig an. Für die Navigation ist das kein Problem, bei Inhalten sehen wir sie einfach als sekundär an. Wie wir das dann genau bei Mobile machen, versuchen wir aktuell noch durch Experimente herauszufinden.  

Thema: Interstitial

Zeit: 10:15 Frage: Wenn eine " intrusive interstitial "-Ad von Google erkannt wird: Verliert (nur) die spezielle Page oder die ganze Website im Ranking? (Hypothetisch gefragt) Wenn Du Publisher wärst und die Refinanzierung teilweise über Werbung stattfindet: Wie risikobereit wärst Du, wenn künftig ein werbender Kunde an Interstitial Ads festhalten und evtl. die Auslieferung auf der Startseite buchen möchte? Antwort: Das bezieht sich auf die jeweilige Unterseite, die dann als nicht mobilfreundlich gesehen wird. Schwer zu sagen, wie risikofreudig ich wäre. Da müsst ihr abwägen, was für die Seite und die Benutzer am besten ist. Und als Nutzer sind Interstitials ärgerlich und oft ein Grund für mich, die Seite aktiv zu meiden. Ihr werdet dann auf lange Sicht vielleicht einige Nutzer verlieren.  

Thema: URL-Struktur

Zeit: 13:13 Frage: Ich habe bisher Umlaute in der URL vermieden, wenn ich nun bei Keywordpalnner Keyword checke habe ich verschiedene Suchvolummen. Und wenn man z.B. Flüge und Flüge bei Suche eingibt hat man nicht die gleichen Ergebnisse, warum? Antwort: Unsere Systeme sollten mit der Zeit lernen, dass das Synonyme sind. Dann klappen sie das zusammen. Aber oft ist es auch so, dass sie das nicht sehen und das als zwei unterschiedliche Wörter behandeln. Bezüglich der URL ist das aber nicht so wichtig, denn Keywords sind dort nur ein sehr sehr kleiner Faktor. Ich würde jetzt also nicht anfangen, das alles umzubauen.  

Thema: Seitenstruktur

Zeit: 15:10 Frage: Ich hätte eine Frage bzgl. der Strukturierung von Content. Ist es besser ein Thema erschöpfend auf einer Seite zu behandeln oder diesen auf mehrere Artikel/Seiten zu splitten? Beispielthema "Einführung in Android": - Benutzeroberfläche allgemein - Einstellungen - Apps / Play Store - etc... Macht es jetzt Sinn den Content auf einer Seite zu platzieren und entsprechend zu gliedern und strukturieren oder sollte man für die einzelnen Unterpunkte eigene Unterseiten erstellen und von einer "Hauptseite" auf die Themen eingehen (verlinken? Antwort: Da müsst ihr euch überlegen, was für euch besser passt. Für uns haben beide Versionen eine Daseinsberechtigung. Für die Suche kann daher beides relevant sein, schaut euch also an, was eure Nutzer bevorzugen - vielleicht mit A/B Tests.  

Thema: Backlinks

Zeit: 17:00 Frage: Eine bestehende Domain verfügt über Backlinks, deren Inhalt für die neue Website nicht mehr relevant sind. Sollte man eine neue Domain nutzen oder besser die ältere Domain nutzen und die irrelevanten Backlink-Ziele per 410 entwerten? Antwort: Schwer zu sagen. Manchmal haben Domains eine sehr komplizierte Geschichte, wo sich das Aufräumen kaum lohnt. Oft lohnt es sich aber natürlich auch. Schaut euch also an, was mit der alten Domain verbunden ist und ob sich das für euch lohnt. Das ist dann immer eine Entscheidung von Fall zu Fall. Backlinks können auch per Disavow entwertet werden. Wenn ihr die Ziele mit 404 oder 410 deindexiert, dann lassen wir sie auch fallen. Das geht aber nur, wenn es um Unterseiten geht - nicht die Homepage.  

Thema: Https

Zeit: 19:25 Frage: Bewertet Google die Validierung von SSL-Zertifikaten? Ich möchte unsere neue Webseite über Https ausliefern. Werden domainvalidierte, organisationsvalidierte und erweitert validierte SSL-Zertifikate unterschiedlich bewertet? Antwort: Wir unterscheiden da nicht. Wenn das Zertifikat in einem modernen Browser funktioniert, ist das ok,  

Thema: Internationale Seiten

Zeit: 20:00 Frage: Wir haben ein Produktwebsite vor einiger Zeit auf englisch gelauncht. Nach und nach haben wir die Inhalte in weitere Sprachen übersetzt und veröffentlicht. Die Texte werden per Script ausgetauscht und sind alle auch über separate Links erreichbar, für die die Hreflang-Tags auch immer gesetzt sind. X-Default ist aber Englisch geblieben. Als die 5. Sprache übersetzt und releast war, haben wir in der internationalen Ausrichtung das Land auf "Nicht gelistetet" gesetzt. In den sonst englischen Content-Keywords haben wir nun aber auch Worte wie "sie" (Platz 10), "und" (19) oder das spanische "que" (24). Ist das bedenklich? Wenn ja, wie kann man diese wieder aus der Liste entfernen? Ein erneutes einreichen der gelisteten Links hat bisher nichts geändert. Antwort: Ich würde mich nicht auf die Content Keywords konzentrieren. Das sind einfach alle Inhalte, die wir gefunden haben - das heißt nicht, dass sie relevant sind. Das ist aber sehr verwirrend, deswegen werden wir die Funktion auf Dauer wohl abschaffen. Wenn die texte per JavaScript ausgetauscht werden, muss Googlebot aber die einzelnen Varianten aufrufen und sehen können. Denn wir crawlen aus den USA, stellt also sicher, dass wir nicht nur diese Variante sehen.  

Thema: Noindex

Zeit: 22:44 Frage: Wir binden Produktbeschreibungen anderer Anbieter auf unserer Seite ein. Da wir aber nicht mit diesen, sondern nur unseren eigenen Inhalten ranken wollen, wir sie dem Kunden aber zeigen müssen, laden wir diese mit AJAX nach. Der HTTP Header der Antwort enthält x-Robots Noindex und die Inhalte sind im Cache der Seiten auch schon nicht mehr zu finden. Leider findet man die Inhalte aber noch, wenn man Textausschnitte sucht. Sollten wir die AJAX URLs sicherheitshalber per robots.txt sperren? Oder kann das sperren von AJAX URLs bzw. Inhalten per robots.txt das Ranking negativ beeinflussen, auch wenn man mit den entsprechenden Inhalten ohnehin nicht ranken will? Antwort: Der Header funktioniert nur für die indexierte Seite. Wenn Dinge eingebunden werden, wird das nicht verwendet. Das bringt bei euch also eher nichts. Hier könnte man die AJAX URLs per robots.txt blockieren. Nutzer können dann alles sehen, Google aber nicht. Wenn das generische Produktbeschreibungen sind, dann werdet ihr dafür aber sicher eh nicht gut ranken, daher hat das dann einen geringeren Einfluss. Da könnt ihr euch die ganze Arbeit sparen. Aber vielleicht habt ihr ja auch gute Gründe für ein Noindex.  

Thema: Bewertungen

Zeit: 25:35 Frage: Ein Kunde von mir hat im Basis-Template die TÜV Saarland Bewertung (ähnlich wie Trusted Shops) per JSON-LD semantisch ausgezeichnet. Die Bewertung bezieht sich auf die gesamte Domain und nicht ein einzelnes Produkt. Daher erscheint bei verschiedenen URLs die Bewertung in den Suchergebnissen. Laut verschiedenen Posts von John Müller sollten Bewertungen seitenspezifisch verwendet werden. https://www.seroundtable.com/google-rich-snippets-not-home-20645.html http://webmasters.stackexchange.com/questions/69292/rich-snippets-review-rating-on-homepage/69408#69408 Daher die Frage, sollte die TÜV Bewertungen auf allen Seiten, außer der Startseite, nicht mehr semantisch ausgezeichnet werden, also nur noch auf der Startseite. Oder sollte die Auszeichnung komplett entfernt werden und nur noch das TÜV Siegel eingebunden bleiben? Oder ist es egal und es kann so bleiben? Antwort: Wir möchten Bewertungen pro Produkt sehen. Die allgemeine Firmenbewertung kann also nicht als Produktbewertung herhalten. Für Nutzer geht das auf der Seite, aber eben ohne strukturiertes Markup.  

Thema: Duplicate Content

Zeit: 27:05 Frage: Wenn man eine Seite A, B und C hat, welche alle 1:1 den gleichen Inhalt haben, dies aber technisch wegen einem Filter erforderlich ist, wie ist es am besten DC zu vermeiden? Variante A auf index, follow zu lassen und B und C ebenfalls auf Index aber mit Canonical auf Seite A. Oder Seite A auf index, follow und Seite B und C einfach auf noindex, follow? Antwort: Man kann beides machen, sowohl Canonical als auch Noindex. Aber beim Noindex verlieren wir die Links, die auf die entsprechende Seite zeigen. Beim Canonical klappen wir alles auf der einen besten Seite zusammen.  

Thema: Redirect

Zeit: 28:50 Frage: Bei einem Redesign wird immer empfohlen, dass alle wichtigen URLs, sofern sich die URL Struktur geändert hat, mittels 301 weitergeleitet werden. Bei Websites, die aber aus vielen 1000 Seiten besteht ist es zum Teil sehr zeitaufwendig alle URLs weiterzuleiten. Wenn ich aufgrund gewisser Statistiken aus Google Analytics und der Search Console die wichtigsten URLs definiert habe und diese weitergeleitet werden, wie soll ich mit jenen URLs umgehen, die nicht weitergeleitet werden. Sollen diese im Index (vorübergehend) bleiben und auf eine 404 Seite zeigen oder soll in diesem Fall die Funktion „URLs entfernen“ angewandt werden, um die meisten nicht mehr vorhandenen URLs aus dem Index zu bereinigen? Antwort: Ihr solltet wenn möglich alle weiterleiten. Vielleicht kann man das ja automatisieren. Wenn das gar nicht geht, dann muss man halt damit leben und sollte nur die wichtigsten nehmen. Die anderen werden dann aber verloren gehen und es wird etwas dauern, bis die neuen wieder dazukommen. Die URL Entfernungsfunktion braucht ihr da nicht, da geht es nur darum, was in den SERPs gezeigt wird. Das hat also nichts mit der Indexierung zu tun. Wenn es machbar ist, solltet ihr aber alles weiterleiten.  

Thema: Redirect

Zeit: 31:40 Frage: Wir haben eine .com und eine .de Domain. Die .com leitet per 301 auf .de weiter. Seit einiger Zeit taucht nun aber nur noch die .com bei einigen Keys in den Google Rankings auf. Die .com URLs haben keine eigenen Inhalte mehr auf dem Server, ohne 301 würden sie 404 ausgeben. Für .de sind Canonicals und Hreflangs gesetzt. Was kann ich machen? Natürlich soll die .de gefunden werden. Beispiel: http://bit.ly/2e6ZRMy Antwort: Ich habe mir das mal mit dem Team angeschaut. Wir müssten das etwas besser behandeln. Ihr könnt da also erstmal nicht so viel machen. Grundsätzlich hat euer Wechsel aber keinen Einfluss auf das Ranking, sondern nur darauf, was in den SERPs dargestellt wird.  

Thema: Crawling

Zeit: 32:45 Frage: In zahlreichen unserer Länder sehen wir seit dem 11. Oktober eine drastische Abnahme an KB welche pro Tag heruntergeladen werden - auch scheint sich die Zahl der pro Tag gecrawlten Seiten seit diesem Zeitpunkt kontinuierlich zu senken. Kann ein CDN switch hier etwas mit zu tun haben? Antwort: Da kommen mehrere Faktoren auf unserer Seite zusammen. Unsere Systeme passen sich automatisch an euren Server an. Wenn wir also große Veränderungen sehen, dann gehen wir vielleicht auf Nummer Sicher und crawlen erstmal weniger. Wenn wir dann mit der Zeit sehen, dass wir mehr crawlen können, dann machen wir das. Und wenn wir sehen, dass der Server immer langsamer wird, dann crawlen wir weniger. Im Hilfecenter gibt es einen Link, auf dem ihr Crawlingfehler melden könnt. Da könnt ihr das Formular ausfüllen, damit das Team das anpassen kann. Das geht dann meistens innerhalb von ein paar Tagen. Da geht es aber nur um das Crawlen, nicht um das Ranken.  

Thema: Bilder

Zeit: 35:55 Frage: Wie bewertet Google das Laden von Bildern, die nicht auf der Seite angezeigt werden? Ich lese in den letzten Tagen dauernd von bootstrap hidden-xs, welche display none für Viewports unter 768px. Auf manchen Websites sehe ich, dass in Verbindung mit diesen CSS-Regeln 2 unterschiedliche Bilder geladen werden. Das geht doch viel besser mit dem Picture Element. Antwort: Man kann mit dem Picture Element arbeiten. Wichtig ist einfach, dass wir erkennen können, dass das Bild eingebunden wurde. Da hilft zum Beispiel ein Link. Ansonsten können wir das vielleicht nicht in der Bildersuche zeigen. Aber bei Bildern, die nur für das Layout oder so wichtig sind, ist das vielleicht auch egal. Die Bildersuche hat auch keinen Einfluss auf die SERPs.  

Thema: AMP

Zeit: 37:35 Frage: 1.) Frage: Ist in der SearchConsole künftig eine Auswertung des AMP-Traffics geplant? In Analytics ist aktuell nur die aufgerufene Unterseite sichtbar & eine Einschätzung der verwendeten Keywords nur grob möglich bzw. einschätzbar. 2.) Frage: Wurde AMP bereits vollständig ausgerollt? Mir ist aufgefallen das der Traffic sehr volatil ist (im Bild) bzw. scheint es als ob die AMP-Versionen nur sporadisch vom Algorithmus berücksichtigt werden. Antwort: Wir versuchen, die Suchanalyse da etwas auszubauen. Aber wenn ihr für AMP ein spezielles Muster (Subdomain, Parameter) nutzt, dann könnt ihr einen Filter setzen und euch nur das anzeigen lassen. AMP in den SERPs ist glaube ich noch nicht komplett ausgerollt.  

Thema: Mobiloptimierung

Zeit: 39:15 Frage: Wir haben für Desktop und Mobile zwei getrennte Webseiten mit eigenen URLs, aber ähnlichem Inhalt. Die jeweilige Desktop Seite (www.domain.com) zeigt mit einem Alternate Tag (rel alternate und media max-width) auf die mobile Seite (m.domain.com), und die dazugehörige mobile Seite hat einen Canonical auf die Desktop Seite. Seit dem letzten Penguin Update folgendes Problem: Die Desktop Seite rankt stetig gut. Die mobile Seite schwankt. Wenn die mobile Seite gut rankt, dann mit der mobilen Domain. Gelegentlich verschwindet die mobile Seite jedoch komplett aus dem Index und die Desktop Seite wird (natürlich schlecht da nicht mobile optimiert) gerankt. Machen wir bei unserem Setup etwas falsch, bzw. woran kann das liegen? Antwort: Schwer zu sagen, das klingt nach einem technischen Problem. Vielleicht können wir die Links zwischen beiden nicht richtig erkennen. Postet da mal im Hilfeforum. Das sollte eigentlich nicht mit dem Penguin oder anderen Updates zusammenhängen.  

Thema: Hreflang

Zeit: 40:55 Frage: Falls ich eine separate mobile Website unter m.domain.com betreibe, und der gegenseitige Verweis per Canonical/alternate vorhanden ist, benötige ich dann dennoch bei Mehrsprachigkeit und Mobile Index First Approach Hreflang für die Desktop wie auch für die mobile Website. Oder reicht es aus, wenn hreflang fuer die Desktop Varianate implementiert ist? Antwort: Das ist eine gute Frage, das weiß ich nicht. Aktuell reicht Desktop aus, aber in Zukunft sieht das vielleicht anders aus. Wenn ihr auf Nummer sicher gehen wollt, dann nehmt den Hreflang auf beide Varianten.  

Thema: Search Console

Zeit: 42:48 Frage: Wie kann ich herausfinden unter welcher E-Mail Adresse der Hauptinhaber einer Domain in einer Google Search Console läuft. Wenn ich nur Ansprechpartner habe die anscheinend "Delegierte Inhaber" sind? Antwort: Als Externer geht das nicht. Ist es deine eigene Seite, dann kannst du sie neu verifizieren. Dann kann man alle Hauptinhaber auflisten. Dadurch gehen auch keine Daten verloren.  

Thema: Meta-Daten

Zeit: 44:10 Frage: Wir haben einige Hundert Firmen aus einer bestimmten Branche, die sich bei uns präsentieren. Wenn wir jetzt den title tag nicht statisch präsentieren, sondern den dort den Firmennamen aus der Datenbank (mysql/php) herauslesen und auch den Description tag zu jedem unternehmen individualisieren, hilft uns das beim Ranking? Antwort: Im Prinzip ist das eine gute Sache. Ich würde auf jeden Fall schauen, dass die Meta-Daten an die Inhalte angepasst sind.  

Thema: Analytics

Zeit: 45:35 Frage: Nun ist es so, dass ich eine Seite habe, auf der die Besucher eine Umrechnung vornehmen können. Jetzt habe ich zwei Varianten dieses Rechners entwickelt. Eine die per JavaScript die Eingabe direkt umrechnet und eine Rechner, der erst nach dem Klick auf "berechnen" das Ergebnis ausgibt. Nun habe ich beide einmal getestet und die Absprungrate ist in die höhe gesprungen. Bei der zweiten Variante wird die Seite ja neu geladen und somit nicht mehr direkt als Absprung gewertet wenn ein Besucher die Seite wieder verlässt. Jetzt bin ich natürlich etwas paranoid - in wie fern ist ein so drastischer Anstieg der Absprungrate problematisch? Ich habe etwas angst, den "moderneren" Rechner online zu lassen. Antwort: Ich würde mir da keine großen Sorgen machen. Das bezieht sich auf Analytics, und da kann man vielleicht den Rechnerknopf markieren, um zu sehen, wir viele es ausführen. Analytics hat aber auch nichts mit der Suche zu tun.  

Thema: Redirect

Zeit: 47:28 Frage: Wir haben eine alte Seite auf eine neue weitergeleitet, Die alte rankt aber noch, die neue taucht gar nicht auf. Antwort: Wir verbinden da beide Seiten und wissen, dass sie zusammengehören. Ein Redirect ist dann ein starkes Signal, aber es gibt noch andere - z.B. interne Links und Sitemaps. Da kann es dann passieren, dass wir die alte weiterhin als Canonical wählen. Für das Ranking ist das egal, aber wenn ihr die neue Seite sehen wollt, sollten alle Signale darauf hinweisen. Auch Canonicals und ähnliches.   Den ganzen Hangout könnt ihr euch hier ansehen: