Deutsches Google Webmaster Hangout Transkript, 05.11.2015
von Oliver Engelbrecht
Kategorie(n): Google Webmaster Hangouts
Datum: 5. November 2015
John Mueller hat heute einen weiteren deutschen Webmaster Hangout veranstaltet. Wie immer haben wir für euch alle Fragen und Antworten mitgeschrieben. Viel Spaß beim Stöbern!
Thema: URL Struktur
Zeit: 00:48Frage: Bei größeren Shops sind alle Artikel auf der ersten Verzeichnisebene, aber ich kategorisiere es immer ordentlich. Ist eine Lösung besser?
Antwort: Solange die URLs sauber sind (also ohne Session IDs oder Ähnliches) ist das egal. Aber Kategorien sind für euch vielleicht einfacher. Auch mehrere Verzeichnisebenen sind kein Problem.
Thema: Search Console
Zeit: 02:26Frage: Search Console, Abruf wie durch Google, Rendering Status: Teilweise. Denn per CSS3 (animation) werden Inhalte optisch schön animiert eingeblendet, wenn diese in den Viewport des Besuchers gelangen. Google rendert dafür eine weiße Seite. Ist das ein Problem?
Antwort: Vielleicht. Wenn wir die Seiten gar nicht rendern können, dann können wir sie auch nicht indexieren. Kontrolliert die Elemente, die ihr verwendet. Vielleicht werden diese nicht unterstützt. Manchmal ist auch das Timing problematisch, wenn die Inhalte erst nach ein paar Sekunden eingeblendet werden. Probiert vielleicht verschiedene Varianten aus und passt dann CSS und JavaScript an.
Thema: AJAX
Zeit: 04:00Frage: Wie genau behandelt Google AJAX URLs nun? Was passiert wenn wir AJAX URLS in unserem Hreflang Markup in der XML Sitemap verwenden? Werden diese gecrawled und verstanden oder ignoriert Google das Hreflang Markup auf Grund der AJAX URLS? Danke Johannes!
Antwort: Wir haben vorher mit der AJAX Empfehlung einen Vorschlag gehabt, wie alles gecrawlt werden kann. Inzwischen ist es aber so, dass wir in den meisten Fällen alles rendern können, ohne die Escape Fragment Variante zu brauchen. Daher brauchen wir auch die Empfehlung nicht mehr - unterstützen es aber weiterhin. Das sollte euch auch Arbeit sparen, wenn ihr es nicht noch zusätzlich auf AJAX ausrichten müsst. Ihr könnt damit normal weiter arbeiten, aber wenn ihr etwas Neues erstellt, solltet ihr es nicht mehr nutzen. Die Verwendung wie bei euch ist theoretisch möglich, damit wir die Länderversionen zusammenhalten können.
Thema: Länderseiten
Zeit: 07:07Frage: Wir haben .net/de/ und .net/es/. Für .net/es/ soll es zusätzlich eine deutsche Übersetzung geben. Z. B. .net/es-de/, da anderer DE Text wie auf .net/de/. Was würdest du empfehlen, um den Bot nicht zu verwirren? Wir haben dann 2 ähnliche, aber doch andere DE Seiten.
Antwort: Man kann das z. B. mit dem Hreflang angegeben. Als allgemein für Deutsch und Spanisch und als Deutsch für Suchen aus Spanien. Das sollte uns nicht verwirren - auch wenn es kein Hreflang gibt, könnte es funktionieren. Wir wüssten dann aber vielleicht nicht, welche deutsche Seite wir wo zeigen sollen.
Thema: Server
Zeit: 08:59Frage: Unser Webhoster zieht von München nach Frankreich mit seiner Serverfarm. Wir haben viele gute lokale Rankings im Raum München. Könnte das Einfluss haben auf das Ranking unserer Seite?
Antwort: Nein, das sollte total unproblematisch sein. Aber geht sicher, dass wir während des Umzugs kein 404 sehen.
Thema: User Engagement
Zeit: 09:35Frage: Kannst du Informationen über die Gewichtung des Einflussfaktors User Engagement geben und beispielsweise sagen, ob eine Seite mit starkem Backlink-Profil aber schwachem User Engagement höher gerankt wird als eine mit schwachem Backlink Profil aber hohem User Engagement?
Antwort: Wir verwenden das in erster Linie, um unsere Algorithmen entsprechend anzupassen. Wir nutzen es nicht so sehr auf Seitenebene.
Thema: Analytics
Zeit: 11:10Frage: Hey John, du hast in einer der letzten Hangouts erwähnt, dass Google keine Analytics Daten einfließen lässt, um die Suchergebnis-Rangfolge zu bilden. Kannst du Auskunft dazu geben, welche Daten anstelle dessen verwendet werden?
Antwort: Analytics ist ein ganz spezielles System auf unserer Seite, das von den Suchergebnissen abgegrenzt ist. Wir verwenden viele Faktoren als Ranking Faktoren, da kann man nicht wirklich etwas hervorheben. Ihr müsst nicht bei einem Faktor alles geben, sondern alles zwischen den Faktoren ausgleichen. Das Ranking kann sich auch über die Zeit verändern, wenn wir denken, dass sich die Suchintentionen ändern.
Thema: Penguin
Zeit: 13:09Frage: Wird das Google Penguin 4.0 endlich alle Seiten erkennen, die massives Linkbuliding betreiben?
Antwort: Ich denke, so extrem kann man das nicht sagen. Ich würde nie sagen, dass unsere Algorithmen alles erkennen können und alles richtig machen - das wäre übertrieben. Ich weiß nicht, wann das genau kommen wird. Das Ziel ist Ende des Jahres, aber ich denke, das werdet ihr dann von uns hören. Wenn wir etwas auf Seiten nicht erkennen, dann schickt mir das.
Thema: Ladezeiten
Zeit: 14:57Frage: Was ist die aktuelle Google Benchmark für die empfohlenen optimalen Ladezeiten von Webseiten?
Antwort: Wir haben da eigentlich keine genauen Zahlen. Wir versuchen, zu unterscheiden, ob die Seite normal schnell ist (das ist ein breiter Rahmen) oder ob sie extrem langsam ist. Man kann also nicht sagen, dass eine Seite besser ranken wird, nur weil sie ein paar Zehntelsekunden schneller ist. Aber Nutzer können auf einer Seite mehr machen, wenn sie schneller ist - und würden sie dann vielleicht auch eher empfehlen. Das ist also eher ein indirekter Effekt, weil es gut für den Benutzer ist.
Thema: App Interstitials
Zeit: 16:46Frage: Barry informiert auf SearchEngineLand über "Google’s App Interstitial Giant Ad Penalty". Müssen auch werbefinanzierte Websites mit Responsive Design künftig auf Interstitials ganz verzichten, um ihren Status "mobil-optimiert" zu sichern?
Antwort: Das bezieht sich nur auf App Install Interstitials. Wenn ich auf eine mobiloptimierte Seite gehe und alles, was ich sehe, ist die Aufforderung zum Installieren einer App - dann ist das keine mobiloptimierte Seite. Ein Banner oder ein werbendes Interstitial, das irgendwann kommt, ist etwas anderes. Das sollte werbefinanzierte Seiten eigentlich nicht betreffen, die Unterschiede sollten wir erkennen. Aber schaut mal, ob es sinnvoll ist, so etwas anzuzeigen, wenn der Nutzer gerade erst ankommt - denn oft ist das wie eine Schranke, die den Nutzer abschreckt.
Thema: Search Console
Zeit: 19:21Frage: Search Console zeigt viele Crawling Fehler mit aktuellem Datum. Der Broken-Link kann aber auf keiner der "Verlinkt über" Seiten gefunden werden. Könnte man nicht nur wirklich entdeckte 404er anzeigen? Wie wichtig ist der Report für's Ranking?
Antwort: Für das Ranking ist das nicht wichtig, solange das keine URLs sind, die ihr in den SERPs sehen wollt. Wenn es einfach alte, kaputte URLs sind, dann ist das total normal. Aber andernfalls könnten sie aus dem Index fallen und ihr solltet das bereinigen.
Thema: Disavow
Zeit: 21:13Frage: Sollte der Anteil der Disavowed Domains einen bestimmten Prozentsatz nicht überschreiten, zum Beispiel 50 % der gesamten Domain-Pop?
Antwort: Aus unserer Sicht ist das ein technisches Hilfsmittel. Es ist euch überlassen, wie ihr das einsetzt. Wenn ihr viele problematische Links habt, dann disavowed sie. Das ist kein schlechtes Zeichen, wenn ihr da viele drin habt.
Thema: Ranking
Zeit: 22:09Frage: Was können wir tun: Unser Wettbewerber mit fehlerhaften Seiten, aber über 500.000 Backlinks mit 1200 Domains ist top gerankt und wir kommen !NUR! mit hochwertigem Content ohne illegales Linkbuliding nicht auf die Top-Platzierungen.
Antwort: Das ist immer schwierig, du kannst mir das gerne mal zuschicken, damit ich mir das anschauen kann. Aber es gibt auch Seiten, die einiges falsch machen - anderes aber richtig gut. Deswegen können sie dann immer noch gut ranken. Es ist also nicht so einfach, zu sagen, dass jemand nicht ranken sollte, weil er etwas falsch macht.
Thema: Mobiloptimiert
Zeit: 24:16Frage: Clients, die sich im Useragent als Smartphone ausweisen werden automatisch auf eine optimierte Seite umgeleitet. Ist das für die SERPs schädlich?
Antwort: Nicht unbedingt. Wir crawlen auch so und würden dann denken, dass es die entsprechende mobile Version ist. Ihr könnt das angeben und technisch optimal einrichten, dass wir das auch richtig erkennen. Da sollte also kein Problem sein.
Thema: Duplicate Content
Zeit: 25:13Frage: Wir wollen Duplicate Content durch URL Manipulationen vermeiden. Der Plan: künftig enden Kategorieseiten mit / , Produktseiten ohne / (per Canonical und Redirects für .html htm...). Allerdings wird dadurch der Pagespeed schlechter (Prüfschleife). Sinnvoll?
Antwort: Vielleicht, das ist schwierig zu sagen. ich denke, es macht Sinn, wenn man die Inhalte konzentrieren kann. Auf welche Art ihr das macht, ist euch überlassen. Wenn die Seite dadurch sichtbar langsamer wird, dann wählt eine andere Variante.
Thema: Linkaufbau
Zeit: 26:45Frage: Unsere neue SEO-Agentur baut Links auf - wir haben Sorgen, ob diese den Google Richtlinien entsprechen oder zur einer Strafe führen können. Beispiel: www.der-klapprahmen.de (der Footer Backlink Messebauer) - Im Impressum steht die SEO-Agentur. Ist das ok?
Antwort: Ich denke, wichtig ist, dass ihr euch immer überlegt, was in eurem Namen gemacht wird. Schaut euch also immer an, wie die Links aussehen. Wenn ich mir diese Seite so anschaue, sieht das nicht so gut aus. Wenn da in großem Rahmen Links aufgebaut werden, dann sollte man das vielleicht zurückbauen. Ich würde sagen, das ist kein guter Link, so etwas kann auch zu manuellen Abstrafungen führen.
Thema: HTTPS
Zeit: 30:35Frage: Unsere Seiten sind nur noch über HTTPS aufrufbar, http Aufrufe werden per 301 Redirect auf die entprechende HTTPS-Seite umgeleitet. Ist das schädlich oder solle ein Canonical Tag gesetzt werden?
Antwort: Ich finde das toll, wenn man zu HTTPS wechselt. Der Redirect ist aber wichtig - und ein Canonical kann etwas helfen. Schädlich ist das aber auf keinen Fall.
Thema: iFrame
Zeit: 31:18Frage: Ist es schädlich, dass Inhalte unserer Seiten in anderen Webseiten teilweise als iFrame eingebunden werden können (Cloaking)?
Antwort: Schädlich nicht, wir können iFrames ansehen und können so etwas dann mit euren SERPs zusammenklappen. Wenn ihr nicht so angezeigt werden wollt, könnt ihr einen entsprechenden Header einbauen.
Thema: iFrame
Zeit: 32:28Frage: Früher konntet ihr iFrame nicht erkennen - sind also Erstellungen von Extraseiten nicht mehr notwendig?
Antwort: Notwendig eigentlich nicht mehr, wenn wir nur den iFrame finden, dann können wir das meist sehen und das ist ok. Es ist aber auch nicht problematisch im Hinblick auf DC, wenn ihr das macht.
Thema: Duplicate Content
Zeit: 33:46Frage: Wir hatten ziemlich viel Duplicate Content. Diese URLs geben jetzt einen HTTP 410 Status zurück. In den Webmastertools sieht man, dass diese Seiten noch monatelang aufgerufen werden. Ist das schädlich? Wenn ja, was kann man dagegen machen?
Antwort: Das ist eigentlich normal. Wir nehmen die URLs aus dem Index, crawlen sie aber immer mal wieder, um sicherzugehen, dass wir nichts verpassen. Es kann ja immer mal sein, dass Seiten einmal wiederkommen. Wenn das für euch problematisch ist, dann könnt ihr mit der Robots.txt Datei bearbeiten und diese Teile der Seite blockieren. Aber für die normale Suche ist es kein Problem, wenn wir es immer mal wieder versuchen und dann 404 oder 410 sehen.
Thema: Robots.txt
Zeit: 35:45Frage: Frage zu Robots.txt vs. Noindex: Ist die Robots.txt für den Robot nach wie vor eine nützliche Crawlhilfe oder oft eher hinderlich bzw. ist es empfehlenswerter betreffende Seiten z. B. Loginseite CMS auf Noindex zu setzen?
Antwort: Es kann durchaus Sinn machen. Wir sagen nicht, dass man sie nicht mehr verwenden soll. Man soll aber alles, was zum Seitenaufbau beiträgt, freigeben. Z. B. JavaScript, CSS und Bilder. Bei Loginseiten würde ich eher mit Noindex arbeiten. Denn wenn sie mit Robots.txt blockiert ist, können wir sie zwar nicht sehen, zeigen sie aber unter Umständen trotzdem an. Also in solchen Fällen das Crawlen erlauben und dann per Noindex aus dem Index fernhalten.
Thema: RankBrain
Zeit: 38:26Frage: Kannst du vielleicht noch was zum angekündigten "RankBrain" sagen? Was muss man hier beachten? Gibt es einen Zusammenhang zu den von SEOs benannten "Phantom-Update"?
Antwort: Es ist ein maschinell lernendes System, um die Suchanfragen besser zu verstehen. Es läuft schon seit einiger Zeit, also müsst ihr nicht unbedingt etwas ändern. Ich glaube nicht, dass das mit dem Phantom Update zusammenhängt. Es bezieht sich vor allem auf neue Suchanfragen, die wir dann besser verstehen können. Unterstützung durch strukturierte Daten geht nicht wirklich, aber trotzdem solltet ihr strukturierte Daten nutzen.
Thema: (Sub) Domains
Zeit: 41:22Frage: Wie sieht es aus mit Subdomains und Domains: Ist hier eine Trennung oder doch ein Zusammenhang beider Domains... Beispiel: test.maydomain.com zu mydomain.com?
Antwort: Wir versuchen, herauszufinden, ob ein Verzeichnis zu einer gesamten Seite gehört - oder ob es etwas Separates ist. Es kann sein, dass wir dann annehmen, dass es einzeln ist oder Teil eines Ganzen. Man kann nicht sagen, dass wir bei einer Subdomain immer das Gleiche erkennen - das ist von Fall zu Fall unterschiedlich.
Thema: Serverumzug
Zeit: 43:09Frage: Ein großer deutscher Webhoster zieht alle Server nach Straßburg. Hat das einen (negativen) Einfluss auf die dort gehosteten Webseiten mit Zielland Deutschland?
Antwort: In der Regel nicht. Wenn eine Seite per Geotargeting festgelegt wird, dann ist der Serverstandort total egal. Wenn ich mit einer .de Domain arbeite, dann ist für uns klar vorgegeben, dass es eine Seite für Deutschland ist - egal wo sie gehostet wird. Wenn ihr aber eine Generic TLD habt, für die wir keine weiteren Infos haben, dann kann so ein Standortwechsel uns ins Grübeln bringen. Das sollte aber nur sehr selten der Fall sein, normalerweise sollte ein Umzug des Hostings keinen Einfluss haben.
Thema: Content
Zeit: 45:25Frage: Kann Google erkennen, dass in einer Seitenspalte kein Hauptcontent steckt, sondern z. B. nur amüsante Zitate von berühmten Persönlichkeiten oder anderes „Beiwerk“? Falls nein, kann man es entsprechend kennzeichnen?
Antwort: Manchmal können wir das anhand der Struktur erkennen. Im schlimmsten Fall, wenn wir das nicht erkennen, zeigen wir die Seite trotzdem normal in den SERPs. Es gibt einen sogenannten Google On und Off Tag, der bezieht sich aber nicht auf die normale Websuche.
Thema: Domainaufteilung
Zeit: 46:53Frage: Spezialist vs. Alleskönner. Ist es Google lieber, Qualitätsinhalte verschiedener, aber ergänzender Art, auf verschiedenen Domains zu finden, die unter einander sinnvoll verlinkt sind, oder ist eine zentrale Domain besser, auf der alle Inhalte zu finden sind?
Antwort: Meistens ist es so, dass wir mit einer einzelnen Domain besser zurechtkommen, da wir die besser verstehen und beurteilen können. Längerfristig ist es auch praktisch, euch auf eine Domain zu branden und eine Beziehung zu den Nutzern aufzubauen.
Thema: Links
Zeit: 49:04Frage: Warum wird bei seiteninternen Links das Sprungziel hinter dem "hash", z. B. ...#urlaub von vorneherein von Google ignoriert? Gleiches soll auch beim "Title Attribute" von Links geschehen. Warum nicht als Mini-Faktoren werten wie viele andere?
Antwort: Wir ignorieren sie in der Regel dann, wenn die Seite eigentlich das Gleiche ist. Wir indexieren sie dann also nicht separat. Ich weiß allerdings nicht, warum es kein Ranking Faktor ist.
Thema: Google News
Zeit: 50:30Frage: Google News blockieren: 1. <meta name="Googlebot-News" content="noindex, nofollow"> ignoriert Google. 2. Verzeichnis über Robots.txt ausgesperrt: Artikel werden immer noch teilweise gelistet. Jetzt sind wir etwas ratlos, was wir noch tun können!?
Antwort: Ich müsste das mit dem News Team anschauen. Schicke mir doch bitte den Link. Wenn ihr Noindex und Robots Blockierung auf einmal macht, dann sehen wir den Noindex vielleicht nicht, da wir es uns ja nicht anschauen dürfen.
Thema: Indexierung
Zeit: 51:41Frage: Wenn ich einem Inhalt eine neue URL gebe und diese zur Indexierung einreiche, sollte ich dann gleich die alte URL zum De-Indexieren einreichen? Oder sortiert Goggle das von alleine? Korrekte Weiterleitung ist gesetzt.
Antwort: Die Weiterleitung ist uns da wichtig, dann sehen wir, dass die URL ersetzt wird. Da braucht ihr keinen extra Antrag stellen. Eine Zeit lang kann es aber passieren, dass die alte URL noch angezeigt wird, wenn man gezielt nach ihr sucht. Das führt aber zu keinen Problemen.
Thema: Ranking
Zeit: 53:12Frage: Die Seiten (http://goo.gl/kbThzU | http://goo.gl/MWFnPG) fallen seit 2 Monaten erheblich. Leider ist mir ein Grund völlig unklar. Könnten Sie mir auf die Sprünge helfen und mal danach schauen was hier schief läuft? Bin leider live verhindert. Danke.
Antwort: Aus unserer Sicht werden die normal gerankt. Ich kann da nichts Bestimmtes sagen, außer dass die Inhalte sehr gleich sind und man das zusammenklappen könnte.
Thema: Analytics
Zeit: 54:11Frage: Hallo John, derzeit ist bei unserer Website der Google Analytics Code doppelt eingebunden - einmal direkt für GA, einmal durch den Tag Manager. Können wir den aus GA übernommenen Code einfach entfernen oder wirkt sich das auf unsere Auswertungen aus?
Antwort: Ich kann eigentlich nicht für Analytics sprechen. Aber wenn beides gleich ist, würde ich eines davon entfernen. Vielleicht erst mal ausklammern und sehen, ob es weiter funktioniert.
Thema: Linkjuice
Zeit: 55:06Frage: Hi, wirkt sich Linkjuice durch externe Links, die auf 404-zeigen in irgendeiner Form auf die Domains aus oder geht dieser Linkjuice ins Nichts und bleibt ohne Effekt? Das gilt natürlich auch für 404er, die interne Links haben.
Antwort: Solche Links nehmen wir in unserem System nicht auf. Wir kennen zwar den Ursprung, aber nicht das Ziel. Entsprechend wird hier kein PageRank weitergegeben.
Thema: Neue Seite
Zeit: 56:06Frage: Wir haben ein Messemagazin. Das war erst auf unserer eigenen Seite, wurde dann aber ausgelagert. Ein Teil der Artikel ist aber noch auf der alten Seite. Wir haben jetzt Bedenken, wenn wir das verlinken.
Antwort: Da sollte es keine Probleme geben.
Den ganzen Hangout könnt ihr euch hier ansehen: