Deutsches Google Webmaster Hangout Transkript, 30.07.2015

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 31. Juli 2015

Die Sommerpause ist vorbei! John Mueller hat zum ersten Hangout nach seinem Urlaub geladen und wie immer viele interessante Antworten geliefert. Viel Spaß beim Lesen.

Thema: Crawlen von JavaScript und CSS

00:33 Frage: Viele Webmaster befürchten, dass es durch das crawlen von Java und CSS zu Sicherheitsproblemen kommen könnte. Du hast ausgeschlossen, dass diese Daten indexiert werden. Aber es gibt doch die Befürchtung, dass gewisse Sachen mit ausgelesen werden und dadurch Sicherheitslücken entstehen. Antwort: Wenn die Dateien in einer HMTL-Seite eingebunden sind, dann werden die JavaScript-Dateien nicht separat indexiert, also nicht in der Websuche sichtbar gemacht. Wichtig finde ich, dass die Sicherheit von Webseiten eigentlich nicht von solchen Maßnahmen abhängen sollte. Die robots.txt Datei ist eigentlich kein Weg, um eine Webseite sicherer zu machen. Ein Hacker, der eine Seite angreifen will, schaut nicht auf die robots.txt und hält sich an die dortigen Vorgaben. Hacker lassen eher Programme über alle Seiten laufen, um Sicherheitslücken zu finden – sie nutzen nicht die Websuche, um einzelne JavaScript-Versionen zu finden. Wenn man merkt, dass es Sicherheitslücken – beispielsweise im JavaScript – gibt, bringt auch das Verstecken nichts. Dann muss man diese Lücken schließen und die Webseite immer aktuell halten.

Thema: Crawlen von JavaScript und CSS

03:29 Frage: Müssen die Leute, die das in der robots.txt nicht für den Googlebot freigeben wollen, mit Rankingverlusten oder anderen Nachteilen rechnen? Antwort: Ich würde das nicht als Penalty oder so sehen. Aber die Inhalte werden immer mehr gerendert. Wir versuchen also zu sehen, wie die Seite im Browser aussieht. Wir wollen alles über die Seite wissen, um sie in der Suche möglichst sauber darstellen zu können. Wenn wir JavaScript nicht sehen können, dann entgehen uns möglicherweise viele Inhalte. Wenn es Inhalte sind, die die Seite nicht verändern (wie Analytics), dann ist es weniger problematisch. Das können wir aber nur bei manueller Ansicht sehen, die Suchmaschine merkt das nicht.

Thema: Hreflang

05:57 Frage: Wie sollte man das x-default auf einer Unterseite verwenden? Option 1: Link auf Fallbacksprache. Option 2: Link auf globale Sprachauswahl (Startseite). Option 3: Link auf URL spezifische Sprachauswahl. Option 4: Auf Unterseiten weglassen. Antwort: Ihr könnt das grundsätzlich machen, wie ihr wollt, auch für jede Unterseite unterschiedlich. Es muss nur konsequent und sauber genutzt werden. Man verlinkt einfach die Seiten untereinander, damit wir immer die richtige Seite anzeigen – das ist vor allem bei Seiten sinnvoll, die die gleiche Sprache haben, aber für verschiedene Länder gelten (z.B. Deutschland, Österreich und Schweiz). Man kann das x-default nutzen, damit wir eine Version anzeigen können, wenn wir keine anderen haben (weil es die entsprechende Sprache nicht gibt). Dann werden alle anderen auf diese Seite verwiesen.

Thema: Hreflang

11:13 Frage: Wir haben mehrere ccTLDs und haben ein Hreflang Markup in einer XML Sitemap erstellt. Muss jede ccTLD das Hreflang Markup haben oder reicht es, es einmal (z.B. auf UK) hochzuladen, da alle Seiten mit demselben Search Console Account verifiziert sind? Antwort: Wir müssen den Link zwischen den Seiten bestätigen können. Wenn z.B. die Uk-Version auf die deutsche und die französische Version verweist, dann müssen diese auch zurück auf die UK-Version verweisen. Hier geht es zur ausführlichen Betrachtung der o.g. Aussage zur hreflang

Thema: "Phablets"

12:10 Frage: Frage: Welcher Algorithmus wird bei der Verwendung eines "Phablets" (großes Mobiltelefon) genutzt? Mobile oder Desktop? Da Tablets den Desktop Algorithmus verwenden würde es mich interessieren wo die Grenze ist? Antwort: Ich weiß es nicht genau. Ich habe nachgefragt, aber noch keine Antwort vom Team erhalten. Wenn ich eine Antwort bekomme, schreibe ich sie in die Kommentare zum Hangout.

Thema: YouTube Indexierung

12:56 Frage: Um sein Youtube Video in Google indexiert zu bekommen, muss man dazu eine Video XML Sitemap haben oder das Youtube Video auf seiner Webseite im Text einbauen oder kann das Video direkt von Youtube indexiert werden ohne das man irgendetwas anderes macht? Antwort: Ja, das kann man direkt auf YouTube lassen. YouTube ist selbst eine Seite und wird für alle Suchen entsprechend indexiert. Wir zeigen dann die YouToube-Seite in den Suchergebnissen.

Thema: Panda 4.2

13:48 Frage: Kannst Du uns einige Details über Panda 4.2 erzählen? Wie unterscheidet es sich zu den vorherigen Panda Versionen? Warum dauert ein Rollout mehrere Monate? Gibt es neue Bewertungsgrundlagen? Antwort: Ich habe leider keine neuen Informationen dazu, die ich mit euch teilen kann. Der längere Rollout ist eher eine technische Sache auf unserer Seite.

Thema: Länderseiten

15:34 Frage: Wir haben eine gute .org Domain mit deutschem Inhalt und wollen den Inhalt mit spanisch und italienisch erweitern, um in diesen Ländern zu ranken. Sollen wir die Stärke der .org nutzen oder eine .it und .es Domain erstellen um in IT und ES gut zu ranken? Antwort: Man kann beides machen. Wenn es wirklich länderspezifische Inhalte sind, müsst ihr sichergehen, dass man das Geotargeting nutzen kann – das geht auf einer generischen Domain wie .org sehr gut. Bei einer .de Domain würde es nicht gehen. Man kann auch mit Subdomains arbeiten.

Thema: Weiterleitungen

16:46 Frage: Wir sind dabei unsere neue Seite zu launchen und sind schon fleißig daran alle URL`s richtig mittels 301 weiterzuleiten. Die alteSeite hatte über 600 Fehler mit dem 404 Fehlercode. Wie sollte man diese sinnvoll umleiten da es die Seiten nicht mehr gibt.   Antwort: Das kann man machen, wie man will. Z.B. mit einer 1 zu 1 Weiterleitung aller alten URLs zur neuen Seite. Man könnte auch dafür sorgen, dass die Seiten direkt ein 404 zurückgeben. Das kann aber umständlich sein, da man jede einzeln durchgehen muss. Einfacher wäre es, alle weiterzuleiten und dann sicherzugehen, dass sie ein 404 anzeigen.

Thema: Lange Seiten

18:10 Frage: Hi John, lange Seiten mit viel scrollen. Sollen diese mit einer dynamischen Navigation (Verlinkung auf Zwischenüberschriften) oder mit Klapptexten (wird der Content gelesen und als genauso wichtig eingestuft?) erweitert werden? Was empfiehlst du? Antwort: Lange Seiten sind immer schwierig für uns, da sie oft verschiedene Inhalte haben. Es kann aber Sinn machen, welche zu haben. Und dann sind beide Möglichkeiten sinnvoll – sie sind aus unserer Sicht relativ ähnlich. Man sollte aber nicht zu viel mit Klapptext arbeiten, weil wir dann sehen, dass ein Großteil der Inhalte nicht für den Benutzer sinnvoll ist. Dynamische Navigation wäre dann besser – oder auch die Erstellung mehrerer Seiten.

Thema: Panda 4.2

19:47 Frage: Kann der sehr langsame Rollout des aktuellen Panda-Updates als Einstieg in einen kontinuierlich laufenden Panda-Algorithmus angesehen werden? Antwort: Ich möchte jetzt nicht sagen, dass es das schon ist, dass wir schon so weit sind. Aber wir arbeiten schon daran, dass es ein bisschen regelmäßiger klappt. Als Einstieg kann man es vielleicht sehen. Aber eigentlich ist es mehr ein erster Schritt in diese Richtung als das es jetzt schon der Fall ist.

Thema: Search Console

20:24 Frage: [Search Console > Crawling > Sitemaps]: Gibt es eine Möglichkeit den Verarbeitungszustand etwas genauer einzusehen? Momentan sehe ich nur x-eingereicht / x-davon indexiert. Interessant wäre zu wissen, welche eben noch nicht indexiert sind. Antwort: Im Moment kann man das nicht machen. Wir haben diese Bitte schon oft gehört und sind dabei abzuklären, was man da besser machen kann. Es ist aber sehr schwierig, gerade bei großen Seiten. Man kann die Sammlung der Sitemaps aber so aufteilen, dass man logische Bereiche hat. Statt einer großen Sitemap für die ganze Seite also mehrere für verschiedene Kategorien – damit kann man sehen, welche Bereiche gut indexiert werden und welche nicht.

Thema: Social Signals

22:18 Frage: Wie wichtig sind Social Signals? Ich ging bisher davon aus, dass eher eine sinnvolle und gute Formatierung der Seite (H1, H2...usw.) wichtig ist, allerdings habe ich eine Grafik gefunden die mir etwas anderes suggeriert, siehe http://bit.ly/1DcIHTd. Antwort: Im Moment verwenden wir keine Social Signals für die Websuche. Man sieht das indirekt, zum Beispiel durch persönliche Resultate durch das, was deine Freunde bei Google+ teilen. Meist sind die Links aus den Netzwerken ja eh nofollow. Der Einfluss ist also eher indirekt.

Thema: Lazy Load

23:50 Frage: Wir haben Lazy Load auf der Startseite implementiert und das Problem, dass nun die Bilder nicht mehr vom Googlebot indexiert werden. Welchen Lösungsansatz schlägt Google da vor? URL: http://www.firstclass-estate.com Antwort: Das Hauptproblem auf der Seite ist, dass die Bilder erst geladen werden, wenn man runterscrollt. Googlebot scrollt nicht aktiv auf der Seite, kann die Bilder also nicht sehen und nicht indexieren. Da gibt es keine direkte Lösung, vielleicht müssen manche Bilder direkt eingebaut werden. Man kann die Bilder auch im Hintergrund laden lassen - nutze das Fetch and Render Tool um das einzustellen.

Thema: JavaScript und CSS

26:18 Frage: Aktuell werden über die Search Console Meldungen bei blockierten JS / CSS Files verschickt. Ebenfalls heißt es weiter, dass es dabei zu einem Rankingverlust kommen kann. Wann genau kann dies eintreten? Gäbe es dazu ebenfalls eine Meldung? Antwort: Im Moment ist es nicht so, dass wir die Seiten bestrafen wollen. Es ist einfach so, dass zum Teil Inhalte in JavaScript nachgeladen werden. Und wenn wir diese nicht laden können, dann können wir sie für die Suche nicht nutzen. Dies führt dann zu schlechteren Rankings – oder hat sogar schon dazu geführt. Wenn man sichergehen will, dass diese Dateien nie indexiert werden, kann man mit dem x-robots-tag arbeiten. Das ist ein http-Header, den man bei allen Dateien angeben kann.

Thema: Trafficeinbruch

28:36 Frage: Meine Webseite www.autoankauf-thiele.de hat seit dem Re-Launch auf ein Reponsive Webdesign massive Trafficeinbrüche. Leider kann ich das Problem nicht identifizieren. Mein Geschäft ist überregional ausgerichtet, spielt aber bei Google nur in FFM eine Rolle. Antwort: Ich habe nichts Spezielles gefunden. Es sollte auch keine Manual Action geben. Es sind Anpassungen, die passieren, wenn man eine Webseite neu launcht. Einige vergessen bei einem Relaunch, Analytics wieder sauber einzubinden – dann sieht es nach Trafficeinbrüchen aus, ob wohl das nicht der Fall ist (oder Analytics war vorher falsch). Oft werden auch alle Inhalte und die Navigation verändert – sobald das passiert, gibt es Veränderungen (nach oben oder nach unten). Es können auch kurzfristige Schwankungen sein.

Thema: HTML Code

32:54 Frage: Pagespeed Insights schlug HTML Optimierung vor, durchgeführt mit Code in zwei Zeilen ohne Leerzeichen und Zeilenumbrüche. Ergebnis 98/100. Der SEO des Kunden wollte dann den Code wieder strukturiert haben weil Google das angeblich verlangt, stimmt das so? Antwort: Nein, das stimmt nicht. Wir versuchen, die Inhalte aus dem HTML und der gerenderten Version rauszuholen, aber dafür braucht ihr keinen sauber formatierten Code. Unsere Systeme arbeiten automatisch und schauen nicht auf die Struktur. Es kann für euch in Zukunft aber einfacher sein, wenn alles sauber strukturiert ist – hinterher kann man es ja komprimieren und dann hochladen.

Thema: Disavow

34:48 Frage: [search console > disavow tool] Gibt es eine Möglichkeit, einzusehen, welche disavow Links man eingesendet hat? Wird die Datei beim erneuten Upload ersetzt? Warum gibt es keinen Menüeintrag für disavow in Search Console? Antwort: Ja, man sieht die alten Versionen. Man kann die aktuelle Version also immer herunterladen. Eine neue Datei ersetzt die alte, nur die neueste ist gültig. Die meisten Webmaster müssen damit nichts machen, deshalb gibt es keinen Menüeintrag.

Thema: Klick Content

36:58 Frage: Ist es sinnvoll, Tabs zu benutzen die auf Klick Content ein oder ausblenden? (display:none/block) Antwort: Man kann das machen. Wenn wir aber eine Seite laden, und einige Inhalte nicht sichtbar sind, dann nehmen wir an, dass diese nicht so wichtig sind. Wir können sie trotzdem indexieren, sehen sie aber als sekundär. Wenn etwas sehr wichtig ist, sollte es im sichtbaren Bereich sein.

Thema: Datumsanzeige

38:27 Frage: Google scheint weiterhin Probleme mit dem Erkennen des Artikeldatums und damit korrekten Darstellens in den SERPS zu haben. Was ist zu empfehlen? Auszeichnung mit datepublished? Mit datemodified? Kenntlichmachen mit dem Markup Helper? Last-Modified Header? Antwort: Wenn wir die Daten in einer machinenlesbaren Form haben, hilft uns das. Markup Helper würde ich weniger empfehlen – das direkte Einbauen ist besser. Lastmodified ist zu technisch, um hierbei Sinn zu machen.

Thema: Phantom Update

41:11 Frage: Seit Phantomupdate mit dem Hauptkeyword Ohrstecker von Seite 1 auf 2. Nun ranken nur große Marken und Portale davor und das auch noch teilweise in Unter-Unterkategorien. Wieso werden die bevorzugt? Es wäre sehr nett von dir wenn du dir das mal anschaust. Antwort: Ich müsste dazu die Seite sehen. Ich weiß allerdings nicht, ob man das so direkt beantworten. Aber schicke mir doch mal einen Link.

Thema: Trafficverlust

42:01 Frage: Hi John. Mich interessiert ganz konkret: Wir haben einen Themenbereich aufgesetzt, an den Index geschickt und das lief super. Tolle User Resonanz. Aber plötzlich rutschten wir ab. Kann keine Penalties sehen. Was könnte das Problem sein? goo.gl/8gZwwt Antwort: Es ist immer schwierig, wenn in einem Bereich große Konkurrenz herrscht. Gerade wenn man etwas Neues macht, dann gibt es oft große Fluktuationen. Manchmal wird etwas zu Beginn zu gut oder zu schlecht dargestellt – das spielt sich dann auf Dauer durch die Signale ein. Aber ich muss es mir noch genauer anschauen.

Thema: Phantomupdate

43:33 Frage: Seit dem Phantomupdate (Mai) ist unser Ranking down. Im Juni wurde die Site auf HTTPS (gem. Vorgaben) umgestellt und in Search Console neue Properties dazu angelegt (mit/ohne www). Seit dem schwankt Indexierung. Woran liegt's? Gibt's von Google Unterstützung dazu? Antwort: Das ist schwer zu sagen. Wenn man die URL-Struktur verändert, dann brauchen wir etwas Zeit um die Indexierung anzupassen. Wenn ihr es per 301 weiterleitet, versuchen wir dem zu folgen – aber das dauert etwas, unter Umständen mehrere Monate.

Thema: Listenseiten

46:39 Frage: Thema: Portal mit vielen Listenseiten. Diese haben auch rel=next/prev im Code. Ab Seite 2-xxx ist allerdings auch index,follow im Code. Sollte man ab Seite 2 besser auf noindex,follow stellen? Oder reicht eine Umstellung der Paramenter "pagenr" in Search Console? Antwort: Das bleibt euch überlassen. In vielen Fällen macht es Sinn, dass man ab Seite 2 oder 3 mit Noindex arbeitet. Oder man nutzt eine Faceted Navigation. So kann man sichergehen, dass die relevanten Seiten in der Suche sind und wir trotzdem alle sehen können.

Thema: 2 Domains

49:21 Frage: Unsere Domain: domain.com beinhaltet zwei "Webseiten" die sich optisch und vom Inhalt unterscheiden. Unter page1.com/page1 und page1.com/page2 - page2.com wird auf page1.com/page2 mittels 301 weitergeleitet. Wir würden gerne auf 2 Domains, aber die Links? Antwort: Ich weiß nicht, o ich die Frage richtig verstehe. Bei einer kleinen Anzahl an Seiten ist es weniger problematisch, ähnliche Inhalte zu haben. Aber man sollte es nicht übertreiben, um Webspam zu vermeiden.

Thema: Subdomains

52:18 Frage: Man geht ja meist davon aus, dass Subdomains als eigenständige Domains behandelt werden. Wenn man nun zwei verschiedensprachige Subdomains haben, profitieren diese gegenseitig von den Links der jeweils anderen - und von denen  der Hauptseite? Antwort: Je nach dem. Wir versuchen, festzustellen, ob es eine eigenständige Seite ist – oder der Teil einer Seite. Wenn wir das richtig feststellen, behandeln wir es entsprechend. Wenn die Seiten offensichtlich zusammengehören, profitieren sie auch voneinander.

Thema: Inhalt hinter Bildern

54:06 Frage: Hi John, ich erstelle gerade eine Website (http://goo.gl/rQUSqy) für eine Stadt und verwende dabei auf einigen Seiten Bilder + Headline (wobei der Content hidden ist) Erst wenn man auf das Bild klickt, wird der Inhalt sichtbar. Ist das SEO technisch ok? Antwort: Ich habe mir die Seite noch nicht angeschaut. Aber ich glaube, dass das nicht optimal ist. Siehe meine Antwort von vorhin zu versteckten Inhalten.  

Thema: Konversionsrate

55:21 Frage: Bei gleichem Keyword haben User, welche auf eine angezeigte AdWords-Anzeige klicken eine höhere Conversionrate als User, welche auf das organische Suchresultat klicken. Verzerrungen wie Ladezeit, richtiges Tracking etc. konnten wir ausschließen. Antwort: Ich weiß nicht genau, woran das liegen kann. Zu AdWords kann ich nicht wirklich Informationen geben. Konversionen hängen immer von eurer Seite ab.

Thema: Googlebot

57:09 Frage: Warum "merkt" sich der Google-Bot alte URL's so lange? Wir haben von "viele" CSS-Includes auf "einen" Include, mittels PHP-Script umgestellt, dennoch versucht der Google-Bot laufend die alten CSS-Files zu crawlen, trotz 404? Antwort: Wir haben sehr viel Speicher und versuchen, immer wieder zu kontrollieren, ob die Seiten wirklich weg sind. Wir schauen sie uns dann alle paar Monate mal an. Wichtig ist, dass sie auch wirklich 404er zurückgeben.

Thema: Affiliate-Seiten

58:09 Frage: Kategorisiert Google Affiliate-Nischenseiten generell als qualitativ etwas minderwertiger ein oder kann man mit einer informativen Affiliate-Seite, die viel Mehrwert bietet genauso gut ranken, wie z.B. mit einem Infoportal/Ratgeberseite? Antwort: Ja, kann man. Wir haben keine gezielten Affiliate-Algorithmen. Es gibt nur einfach sehr viele schlechte Seiten in diesem Bereich, die Inhalte von anderen Seiten übernehmen. Das liegt nicht am Affiliate-sein, sondern am Webmaster. Wenn eine Seite gut ist und etwas bietet, dann werden sie auch gut gerankt.   Den ganzen Hangout könnt ihr euch hier ansehen: