Deutsches Google Webmaster Hangout Transkript, 11.08.2015
von Oliver Engelbrecht
Kategorie(n): Google Webmaster Hangouts
Datum: 12. August 2015
Gestern hielt John Mueller einen weiteren Google Webmaster Sprechstunden Hangout ab. Wie immer beantwortete er in seiner freundlichen Art viele Fragen - wir präsentieren euch hier die Übersetzung des Ganzen.
Thema: Parameter
Zeit: 00:30Frage: Wir versuchen seit langem, mehrere Parameter wie die Paginierung aus dem Index zu entfernen. Aber es scheint alles drin zu bleiben.
Antwort: Hier können mehrere Gründe vorliegen. Wenn die Parameter z.B. in der robots.txt geblockt werden, dann können wir die Noindex oder Canonical gar nicht sehen und entsprechend auch nicht anwenden. Daher solltet ihr die robots.txt nicht nutzen und auch langfristig offen lassen, damit wir die Hintergründe eurer Seite immer sehen können. Bevor wir einen Canonical nutzen können, müssen wir crawlen und es sehen. Es kann also sein, dass die Seiten noch in der Suche auftauchen, man sie aber nicht mehr finden kann, wenn man nach dem Text der Seite sucht.
Thema: JavaScript
Zeit: 03:37Frage: Wir haben eine Seite gelauncht und alle Inhalte sind in JavaScript. Wir sehen, dass Google in der Textversion alles crawlt, was wir auf der Seite haben. Wie werden diese Inhalte bewertet und wie werden interne Links auf diesen Seiten bewertet?
Antwort: Wir versuchen, solche Dinge wie ein Browser zu rendern und das dann für den Index zu nutzen. Sind dort Inhalte oder Links, sehen wir sie als normal an. Wir werden sie nicht abwerten, weil sie JavaScript sind - aber es ist wichtig, dass wir sie crawlen können. Geht also sicher, dass die Seite nicht per robots.txt geblockt wird.
Thema: RSS Feed
Zeit: 05:26Frage: Gibt es SEO-Vorteile durch die Nutzung eines RSS Feed?
Antwort: Es gibt keinen Ranking-Boost durch RSS Feeds. Es ist mehr eine technische Sache, die uns dabei hilft, Seiten schneller zu crawlen und zu indexieren - besonders, wenn sich eure Inhalte schnell verändern. Eure Seiten werden also einfach schneller im Index angezeigt. Das geht auch mit einer News Sitemap, aber nur für kleinere Seiten - wenn ihr pro Tag hunderte von Updates habt, bietet sich eher der RSS Feed an.
Thema: 404
Zeit: 08:24Frage: Würde es zu einem kleinen Ranking-Vorteil führen, wenn eine Seite mit vielen 404 und Soft 404s sowie technischen Problemen wie falschen Hreflangs und Canonical Tags mit einer identischen, aber technisch "perfekten" Seite vergleichen wird?
Antwort: Normalerweise sind diese Dinge keine Probleme, außer vielleicht das Hreflang. Es hilft nicht, um besser zu ranken, aber sorgt dafür, dass immer die richtige Seite angezeigt wird. 404 und soft 404s sind technische Probleme, die auf jeder Seite auftreten können. Daher zählen sie nicht gegen euch. Auf der anderen Seite wird dadurch das Crawlen und Indexieren erschwert. Wir müssen uns also unter Umständen mit langem crawlen aufhalten und verpassen daher neue Inhalte.
Thema: Ranking
Zeit: 10:18Frage: Mir ist in den letzten 6 Monaten aufgefallen, dass die Rankings für viele Seiten statisch zu sein scheinen. Und das, obwohl wir viele On- und Offpage-Maßnahmen und virale Marketing-Kampagnen durchgeführt haben.
Antwort: Ich weiß nicht, woran das liegen könnte. Wir arbeiten an konstanten Updates, im letzten Jahr waren es über 1000, daher sollten die Rankings sich immer wieder ändern. Es ist nicht so, dass wir die Änderungen für irgendwelche Seiten oder Branchen eingefroren haben.
Thema: Dynamische URLs
Zeit: 13:17Frage: Macht es Sinn, den Meta Robots Tag: Nofollow zu nutzen, wenn dynamische URLs per robots.txt geblockt werden?
Antwort: Wenn eine Seite durch robots.txt blockiert wird, dann können wir keine Meta Tags auf den entsprechenden Seiten mehr sehen. Wenn die Tags euch also wichtig sind, dann müsst ihr das Crawlen erlauben - ggf. als Noindex.
Thema: Doorway Pages
Zeit: 14:15Frage: Um Doorway Pages loszuwerden, denken wir an 301. Ist es besser als follow, noindex zu nutzen, da diese Seiten Traffic generieren? Wir versuchen, unsere Seite zu säubern, wollen dabei aber nichts falsch machen.
Antwort: Beide Möglichkeiten funktionieren, auch ein 404 würde gehen, das hängt also von euch ab.
Thema: Knowledge Graph
Zeit: 15:21Frage: Was muss ich tun, um Infos aus Wikipedia bei der Markensuche im Knowledge Graph meiner Firma erscheinen zu lassen? Ich habe bereits alles bei Wikipedia und Freebase eingetragen.
Antwort: Wir nutzen die Infos aus Wikipedia, wenn unsere Algorithmen sie für sinnvoll halten. Manchmal entscheiden sie sich dagegen - und dann könnt ihr da technisch nichts machen.
Thema: Lokale Suche
Zeit: 16:29Frage: Als Firma mit vielen Filialen nutzen wir dieselbe Telefonnummer für alle Filialen. Ich habe gelesen, dass wir immer lokale Nummern nutzen sollten. Beeinflusst das das Ranking?
Antwort: Diese Frage bezieht sich mehr auf Google My Business und die lokale Suche, daher kann ich das nicht wirklich beantworten. Versucht es mal im Maps oder Business Forum.
Thema: Search Console
Zeit: 17:13Frage: Sind die Parameter in Search Console nur ein Anhaltspunkt für Google oder verbindlich? Sollte man sie mit robots.txt kombinieren, um Seiten vom Crawling auszuschließen?
Antwort: Grundsätzlich sind die Parameter in Search Console ein guter Weg, um uns zu zeigen, was im Index angezeigt oder gecrawlt werden soll - aber es ist keine komplette Blockierung. Wenn etwas wirklich blockiert werden soll, nutzt robots.txt als definitive Aussage.
Thema: Search Console
Zeit: 19:08Frage: Wo kann man in Search Console sehen, wie Google bzw. der Nutzer eine Seite sehen? Wenn ich Inhalte vom Crawling ausschließe, wie zeigt Google diese Inhalte dem Nutzer.
Antwort: Ich glaube, das Fetch as Google Tool zeigt dir beide Möglichkeiten: Wie Google die Seite sieht und wie der Nutzer die Seite trotz der robots.txt sieht.
Thema: Knowledge Card
Zeit: 20:31Frage: Werden die Bewertungen in den Knowledge Cards auch global nutzbar sein, inklusive der Länder, die andere Schriftsysteme nutzen (wie Japan oder Korea)?
Antwort: Ich weiß nicht, wie die Pläne in diesem Bereich aussehen. Aber generell versuchen wir immer, Dinge auf kleiner Ebene zu testen und dann so weit wie möglich auszuweiten. Unterschiede in den Schriftsystemen sind normalerweise kein Problem.
Thema: Duplicate Content
Zeit: 21:49Frage: Würden folgende URLs als Duplicate Content zählen:
domain.com/product/item-25 <- regular English product/ url domain.com/es/product/item-25 <- same product but in Spanish
Antwort: Übersetzungen sind kein Duplicate Content. Sobald etwas übersetzt wird, zählt es als einzigartig. Aber ein Hreflang kann uns helfen, bei Suchanfragen die jeweils passende Seite anzuzeigen.
Thema: Seiten zusammenführen
Zeit: 23:41Frage: Wie soll ich zwei Seiten kombinieren, wenn eine davon Qualitätsprobleme hat und die andere nicht?
Antwort: Grundsätzlich sollten alle alten URLs auf die neue Seite umgeleitet werden. Aber zwei Seiten zusammenzuführen ist nicht immer einfach. Wir müssen alle URLs crawlen, um das umzusetzen. Wir versuchen dabei, das Gesamtbild zu betrachten, damit ein Penalty nicht einfach von einer Seite zur nächsten weiterwandert. Es ist aber schwer, zu sagen, wie Panda reagieren würde. Wenn die Qualitätsprobleme nur auf einem kleinen Teil der Seiten vorhanden sind, sollte es nicht allzu schlimm sein.
Thema: Lokale Suche
Zeit:29:28Frage: Für ein Unternehmen mit vielen Filialen haben manche für jede Filiale eine eigene Seite. Wie kann man es schaffen, für alle Orte zu ranken, wenn man überall die gleichen Dienstleistungen anbietet?
Antwort: Wenn jede Filiale eine eigene Seite hat, dann handelt es sich fast um Doorway Pages und wird von uns als spammy angesehen. Wenn man nur eine Seite für alle Filialen hat, dann ist das oft aber auch nicht ideal. In dem Fall ist zum Beispiel der Local Business Eintrag ein guter Weg, um für die Filialen zu ranken. Wenn ihr spezielle Informationen über die Filialen teilen wollt, könnt ihr auch mehrere auf einer Seite zusammenfassen, z. B. sortiert nach Bundesländern oder Dienstleistungen.
Thema: Links
Zeit: 31:34Frage: Wie wichtig sind Links und Content Marketing (zur Linkgenerierung) für die aktuellen Google Algorithmen?
Antwort: Wir benutzen beides. Ich denke, das spannende an unseren Algorithmen ist, dass wir so viele verschiedene Faktoren nutzen und diese nicht immer gleich anwenden. Es ist nicht der Fall, dass jede Website so viele Links haben muss wie Wikipedia, um in den Suchergebnissen angezeigt zu werden. Wichtiger ist, das zu bieten, was die Besucher erwarten. Manchmal bedeutet das, dass wir Links stärker gewichten, weil das immer noch eine gute Art und Weise ist, festzustellen, wie eine Website im Kontext des Internets positioniert werden sollte. Manchmal bedeutet es auch, dass wir Links vollständig ignorieren, weil wir viel guten Content sehen. Auch eine kleine Menge Links kann manchmal schon ausreichend sein. Es ist auch nicht der Fall, dass es innerhalb der Algorithmen eine Gewichtung gibt. Es ist also nicht festgelegt, dass z. B. 85 % der Bewertung auf Links entfallen, während X % für Content gewertet wird, etc. Wie das ausbalanciert wird, hat damit zu tun, was wir in den SERPs sehen und was für Nutzer relevant ist.
Thema: Ranking
Zeit: 33:09Frage: Man sollte also im Prinzip eine Qualitätswebsite mit gutem Content, einigen externen Links und Interaktionen aus dem Bereich Social Media bauen, was dann zu positiven Resultaten führt?
Antwort: Generell, ja. Aber das hängt immer auch davon ab, was das Ziel ist. Wenn du z. B. ein Online Buchgeschäft eröffnest, einige eingehende Links hast und die Leute auf Twitter über dich reden, dann wirst du nicht die Online Buchgeschäfte überholen, die seit 20 Jahren am Markt sind. Man sollte sich seine Website anschauen und herausfinden, wohin man damit möchte. In manche Nischenmärkte kommt man nur sehr schwer rein - da reicht es nicht, eine nette Website zu haben, man braucht eine große Präsenz. Das ist nicht einfach. Manchmal braucht das viel Zeit, manchmal braucht es viel Arbeit, manchmal braucht man sehr viel Geld, um eine Website zu kreieren, die dafür sorgt, dass die Nutzer ihr Vertrauen.
Thema: Multi-Location Geschäfte
Zeit: 34:33Frage: In Bezug auf die vorhin gestellte Frage: Hilft es, wenn man für jedes Bundesland eine Location hat, die Adresse, Anfahrtbeschreibungen und Kontaktinformationen zu hinterlegen, um die Einzigartigkeit der Page zu stärken? Wäre das genug, um Google mitzuteilen, dass es sich nicht nur um eine Page handelt, die ranken soll (Doorway Page)?
Antwort: Ja, das sind alles gute Dinge, die auf einer solchen Page eingebunden werden können. Das Hinzufügen von Öffnungszeiten und einzigartigen Informationen der Filiale kann ebenso helfen. Das sind alles Sachen, die zusätzlichen Wert schaffen. Diese Informationen helfen uns, festzulegen, welche Ergebnisse wir bei welchen Suchanfragen anzeigen sollten.
Thema: Domain Umzug
Zeit: 35:56Frage: Eine Website hat den Firmennamen und die Domain geändert. In den SERPs werden immer noch Ergebnisse mit der alten Domain angezeigt. 301-Weiterleitungen wurden eingerichtet. Muss ich das Adressänderungstool in der Search Console benutzen?
Antwort: Die Nutzung des Adressänderungstools in der Search Console ist definitiv eine gute Idee. Wir haben ein ganzes Set von Richtlinien in unserem Hilfecenter, die Webmaster mitteilen, was gemacht werden sollte, wenn eine Website von der einen Domain auf eine andere Domain umzieht. Ich würde diese Richtlinien durchgehen und prüfen, ob wirklich alles korrekt umgesetzt wurde. Was im Hinterkopf behalten werden sollte, ist, dass es eine ganze Weile dauert, bis die alten Resultate aus den Suchergebnissen verschwinden, wenn speziell nach der alten Domain gesucht wird. Das kann einige Monate oder auch ein Jahr dauern. Die gute Nachricht ist aber, dass, wenn jemand nach dem Firmennamen sucht, Google die neue Domain anzeigen wird.
Thema: Ranking Faktoren
Zeit: 38:07Frage: Ich bin Webmaster für eine informationsbasierte Website. Zählt es für Google in das Ranking hinein, wenn Nutzer z. B. ein Formular ausfüllt? Oder auch das Lesen eines Blogartikels durch den Besucher - stärkt das die Autorität meiner Website?
Antwort: Wenn ich mich nicht irre, sehen wir nicht, ob Websitebesucher Formulare auf der Website ausfüllen oder nicht. Wir sehen auch nicht, ob sie etwas kaufen. Da wir diese Dinge nicht sehen können, können wir sie auch nicht für das Ranking verwenden. Aus meiner Sicht würde ich diese Dinge also nicht als Ranking Faktoren sehen. Offensichtlich ist es aber ein positives Signal, wenn Besucher sich die Zeit nehmen, Formulare auszufüllen, sich für Newsletter zu registrieren, etc - es bedeutet, dass etwas richtig gemacht wird.
Thema: JavaScript & Links
Zeit: 39:18Frage: Google hat angefangen, die Inhalte im JavaScript zu indexieren. Hat das genauso viel Wert wie HTML Inhalte? Sind Links innerhalb des JavaScripts genauso wertvoll wie anderswo?
Antwort: Ja, wenn wir die Pages rendern und den Inhalt im JavaScript indexieren können. Dann ist das etwas, was wir als Content behandeln. Links innerhalb des JavaScripts behandeln wir wie reguläre Links. Das bedeutet auch, dass Webmaster vorsichtig mit Links sein sollten, die sie nicht auf ihrer Website haben wollen - z. B. User Generated Content oder Werbung. Da sollte sicher gegangen werden, dass der Nofollow-Tag genutzt wird, damit kein PageRank weiter gegeben wird.
Thema: 500 Fehler
Zeit: 40:24Frage: Hi John, haben Desktop/Mobile Serverfehler (5XX) Auswirkungen auf das Ranking? Mir ist aufgefallen, dass in der Search Console viele 5XX Fehler angezeigt werden, aber diese URLs sind größtenteils alle noindex. Aber warum werden diese von Google als Fehler ausgeben?
Antwort: Wir gehen davon aus, dass 5XX Fehler Serverfehler sind. Betroffene Pages werden nicht indexiert. Wenn eine Page einen Noindex-Tag hat, wird sie sowieso nicht indexiert. Die Fehler können Einfluss darauf haben, wie schnell Google crawlt. Wenn eine Website sehr viele 5XX Fehler ausgibt, dann kann es sein, dass Google zur Erkenntnis gelangt, dass die Website zu stark gecrawlt wird, was zu den vielen 5XX Fehlern führt. Google kann daraufhin unter Umständen die Crawlinggeschwindigkeit reduzieren.
Thema: SSL
Zeit: 43:47Frage: HTTPs-Boost. Bezüglich von Websites, die HTTPS implementiert haben - Ist es relevant, welche Art von SSL-Zertifikat genutzt wird?
Antwort: Nein, aus Sicht von Google ist das nicht der Fall. Wir behandeln die Zertifikate gleich. Welches Zertifikat genutzt wird, ist eine Frage, die sich der Webmaster stellen muss.
Thema: SSL
Zeit: 45:25Frage: Hi John, ich habe gerade ein SSL-Zertifikat für meine Hauptdomain gekauft. Eines meiner Verzeichnisse läuft mit WordPress. Würde es meinen Rankings schaden, wenn ich für dieses Verzeichnis kein SSL einsetze? Oder gar Duplicate Content generieren?
Antwort: Wir schauen uns die Zertifikate je Page an. Wenn einige Teile der Website auf HTTPS laufen und andere auf http, wird das dementsprechend gewertet. Einige Bereiche können einen kleinen Boost erhalten, andere Teile nicht. Ich sehe kein Problem darin, wenn http und HTTPS zusammen genutzt werden. Andererseits macht es es schwieriger, die Website zu pflegen. Daher würde ich eher darauf setzen, die gesamte Website mit einem SSL-Zertifikat auszustatten, um nur eine Version betreuen zu müssen.
Thema: Site Maps
Zeit: 46:35Frage: Hi, ich bin ein neuer Webmaster. Gibt es einen Weg, dass ich Unterstützung bei der Erstellung von Site Maps erhalte? Eine Schritt-für-Schritt Anleitung z. B.? Ich habe alles gelesen, was ich finden konnte, aber ich bräuchte jemanden, der mich Schritt-für-Schritt durch den Erstellungsprozess führt. Gibt es ein interaktives Tutorial?
Antwort: Mir ist kein solches Basistutorial bekannt. Generell verfügen aber die meisten Content Management Systeme über eingebaute Site Map Systeme oder es gibt Plug Ins, die es sehr leicht machen, eine Site Map zu konfigurieren.
Thema: SERPs
Zeit: 47:39Frage: Hat Google jemals darüber nachgedacht, dynamische SERPs auszugeben? Viele Websites sind so gut, dass sie auf Platz 1 stehen sollten.
Antwort: Es gibt diesbezüglich verschiedene Ideen, wo anstatt - wie aktuell - 10 blaue Links angezeigt werden, andere Möglichkeiten durchgespielt werden. Das Team testet ständig neue Ansätze. Manchmal sind das Kleinigkeiten, manchmal große Veränderungen. Wenn man als Nutzer eine Suchanfrage stellt, befindet sich häufig innerhalb von zehn, 20 oder 30 Experimenten. Wir ändern ständig Dinge, manchmal sehr offensichtlich, manchmal sind die Änderungen für Nutzer nicht ersichtlich.
Den ganzen Hangout könnt ihr euch hier ansehen: