Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 09. März 2018:
Duplicate Content
Zeit: 12:40
Frage: Ist es besser, Kategorien aufgrund von Duplicate Content zu kombinieren, auch wenn nicht dieselben Worte genutzt werden, aber dieselbe Bedeutung haben?
Antwort: Das kommt auf die Website drauf an. Eine Option ist es, starke, einzigartige Kategorieseiten zu erstellen.
Indexierung
Zeit: 14:09
Frage: Was nimmt bei einer komplett neu erstellten Seite mehr Zeit in Anspruch? Der Neuindexierungs-Prozess oder die Neuauswertung nach dem Indexieren?
Antwort: Normalerweise der Neuindexierungs-Prozess. Das Neuindexieren ist technischer und kann seine Zeit brauchen.
Reviews
Zeit: 15:40
Frage: Wir nutzen ein externes Unternehmen, die unsere Seiten beobachten. Dafür betten wir deren Code in unsere Website über ein API ein, um Service- & Produktreviews zu sammeln und zu zeigen. Ich verstehe, dass wir dadurch keinen direkten SEO-Vorteil von den Review-Texten erhalten. Daher denken wir jetzt darüber nach, unsere eigenen Reviews zu sammeln. Kunden können also ihre eigenen Produkt-Reviews direkt übermitteln, welche wir auf unserer Seite und auch in den Markups zeigen können. Gibt es dabei irgendwelche Probleme oder müssen wir einen Drittanbieter für das Sammeln der Reviews nutzen?
Antwort: Nein, das könnt Ihr definitiv selbst machen. Viele Websites machen das. Manchmal ist es entscheidend, das richtige Plugin für Deinen Server zu finden, um alles einfacher zu handhaben. Aber Reviews sammeln ist etwas, das auf einem Webserver nicht besonders schwierig ist. Wenn Ihr das selbst übernehmen könnt und die Kapazitäten dafür habt, ist es eine großartige Idee, dies auch zu tun.
Indexierung
Zeit: 16:40
Frage: Wir erstellen ganz regulär neue Seiten. In der Search Console nutzen wir „Fetch and Render“ und übermitteln danach zum Indexieren. Aber nach 10 Stück erhalten wir stets die Fehlermeldung „an error has occured.“ Was passiert dort? Wie können wir mehr einstellen?
Antwort: Allgemein empfehle ich, nur das „submit to indexing“ (übermitteln zum Indexieren) Feature für Dinge zu benutzen, die wirklich kritisch sind. Wenn Du sagst, es handelt sich um eine komplett neue Website und Google hat noch nie zuvor davon etwas gesehen, dann macht es Sinn, da Du uns zum ersten Mal davon erzählst. Wenn Du etwas auf Deiner Seite modifizierst, veränderst oder neue Seiten hinzufügst, dann würde ich immer den normalen organischen Prozess durchlaufen lassen. Das bedeutet, entweder crawlen wir Deine Website oder entdecken deren Links und indexieren diese danach. Eine andere Möglichkeit ist es, eine Sitemap zu nutzen und uns alle neuen URL-Änderungen und Seiten direkt mitzuteilen. Danach können wir diese URLs direkt crawlen. Die meisten CMS lassen Dich direkt automatisch eine Sitemap erstellen oder haben Plugins, die diese erstellen. Wenn Du also ein CMS nutzt – es klingt so als würdest Du das, wenn Du ganz regulär neue Seiten anlegst. Das würdest Du sicher nicht händisch tun – versichere Dich, dass dein CMS so eingerichtet ist, Google anzupingen, sobald die Sitemap geupdated wurde. Dann brauchst Du keine manuellen Tools zur Übermittlung der URLs nutzen.
Geolocation
Zeit: 18:19
Frage: Unsere Homepage implementiert Geolocation 302 Weiterleitungen für User und Crawler. Die Homepage hat ein sehr starkes externes Linkprofil. Da die meisten Google Crawler-Besuche aus den Vereinigten Staaten kommen, bedeutet dies, dass der meiste Linkjuice durch die US-Domain kommt. Genau wie google.com haben wir ein starkes Interesse daran, dass Geolocation und 302 Weiterleitungen auf die Homepage benötigt werden.
Antwort: Generell, wenn Du den Googlebot auf eine Version deiner Website weiterleitest, dann nehmen wir an, dass diese Version die Hauptversion der Website ist. Wir versuchen diese als die primäre Website zu ranken. Dies ist eine Art Problem der Geo-Weiterleitungen. In dem Sinne, dass der Googlebot gar nicht erst die Chance hat, die andere Version der Website zu sehen oder auf diese zu stoßen. Meine generelle Empfehlung ist, anstatt Weiterleitungen zu verwenden oder den Content direkt auszutauschen, etwas wie ein Banner auf den Seiten zu nutzen. So, dass Leute, die auf Deine Homepage gehen, zum Beispiel ganz oben ein Banner sehen, welches sagt: „Hey, sieht aus, als wärst Du aus den US. Hier ist unsere US-Homepage.“ Führe die Besucher dadurch zur angemessenen Sprachversion oder Länderversion. Unser Googlebot wird stets alle verschiedenen Versionen crawlen können. Er wird wissen, dass möglicherweise eine dieser Seiten eine generische Homepage ist, welche zu den spezifischen Seiten weiterleitet. Du kannst uns mittels des hreflang informieren, dass diese Seite die x-default ist.
Lokalisierte Inhalte
Zeit: 22:13
Frage: Wenn wir JavaScript nutzen möchten, um bestimmte Texte auf einer Landingpage zu lokalisieren, abhängig davon, woher die IP-Adresse des Users kommt, kann Google diese Texte dann lesen?
Antwort: Google crawlt für gewöhnlich aus den USA, daher werden wir wohl jedes Mal die englische oder US-Version der Texte sehen und diese indexieren. Wenn es mit JavaScript generiert ist, können wir dies meistens verarbeiten. Die verschiedenen Lokalisierungen können ein wenig verwirrend sein. Dies sollte man beachten. Es gibt sicher Wege, dies anders zu lösen. Wenn es sich nur um einen kleinen Teil der Seite handelt, kann das JavaScript per robots.txt ausgeschlossen werden, wodurch Du sicherstellst, dass kein Crawler das JavaScript sieht. Dabei ist es wichtig, dass es sich nur um einen kleinen Teil der Seite handelt, damit es nicht als Cloaking (Anm. d. Red.: Verstecken von Inhalten oder Anzeige komplett anderer Inhalte gegenüber Suchmaschinen) verstanden wird. Wenn Du einen Großteil Deiner Seite mit JavaScript änderst und keine Suchmaschine sehen kann, wie diese Änderung aussieht, dann ist es für uns schwer zu verstehen, wo wir die Seite zeigen sollen.
Mobile-first-Index
Zeit: 26:13
Frage: Eine Frage zum neuen Mobile-first-Index: Empfiehlst Du die Produktbeschreibungen auf unserer mobilen Version standardmäßig anzuzeigen?
Antwort: Detailliert müsste ich dafür die Seite genauer betrachten. Allgemein lässt sich jedoch sagen, dass wenn der Inhalt auf der Seite irgendwo im HTML ist, dann können wir diesen auch indexieren. Es ist möglich Inhalte erst später vom Server nachzuladen, wenn man irgendwo hin klickt zum Beispiel. Je nach Implementierung können wir die neu zu ladenden Inhalte nicht mit aufnehmen, da wir nicht wissen, wohin man klicken muss. Wenn die Inhalte allerdings bereits geladen sind, können wir diese verarbeiten. Wichtiger ist allerdings der Usability-Aspekt. Wenn User nach einem Text suchen und Deine URL erhalten, verstehen diese dann, wonach Sie auf der Seite suchen und klicken müssen? Darauf muss man achten. Wikipedia zum Beispiel hat dasselbe Problem. In der mobilen Ansicht, hat man viele „Expand“-Sektionen zum ausklappen. Wenn man nach etwas auf den ausgeklappten Bereichen sucht, kann man als User verwirrt sein, wo genau die gesuchte Textzeile zu finden ist. Ich würde dennoch sicherstellen, dass der Content tatsächlich auf der Seite geladen wird, damit wir ihn indexieren können.
Spam-Reports
Zeit: 28:31
Frage: Was passiert mit Spam-Reports?
Antwort: Wir schauen uns die Spam-Reports an. Sie werden nicht weggeworfen und sind wirklich wichtig für unser Team. Wir versuchen zu erkennen, wo die größeren Probleme liegen, um unseren Algorithmus zu verbessern. Wenn Ihr etwas findet, dass schwer über das Spam-Report-Formular zu erklären ist oder einen großen Spam-Vorfall findet, dann könnt Ihr das direkt an mich per Google+ senden.
hreflang
Zeit: 38:19
Frage: Was passiert, wenn hreflang genutzt wird, um auf mehrere URLs zu zeigen, welche Inhalte in unterschiedlichen Sprachen enthalten, aber diese URLs nicht die korrekten Canonical-Tags enthalten? Diese Seiten werden auf eine Version in ein „/us/“-Verzeichnis weitergeleitet. Warum sollen diese URLs in den Suchergebnissen angezeigt werden? Wenn man zum Beispiel aus dem UK sucht, wird „/uk/“ in der Suche angezeigt, welche aber nicht indexiert sind. Der neue Index-Coverage-Report zeigt diese als ausgeschlossen an. Das widerspricht dem eigentlichen hreflang-Setup, bei dem alle URLs ein selbstreferenzielles Canonical-Tag enthalten sollten.
Antwort: Allgemein können wir den hreflang-Links auch folgen. Selbst wenn wir eine Version als Canonical wählen. Das ist durchaus üblich in Fällen, in denen gleichsprachiger Content auf mehreren Länderversionen genutzt wird. Dann verstehen wir die hreflang-Verlinkungen zwischen den einzelnen Versionen und verstehen auch, dass der Content eigentlich identisch ist. Also wählen wir eine Version des Contents zum indexieren, tauschen so oder so allerdings die URLs wegen der hreflang-Verbindung aus. Was auch manchmal vorkommt ist, dass wir die Sprach- oder Länderverbindung auf Grundlage anderer Faktoren verstehen, wie zum Beispiel durch die URL. Wenn wir die unterschiedlichen Sprachversion-Links zwischen den Seiten erkennen, schließen wir manchmal auch die Verbindung ohne klare hreflang-Instruktionen vorzufinden. Aber natürlich ist eine gute hreflang-Anweisung die beste Möglichkeit, die Chancen zu verbessern, dass wir alles richtig zuordnen.
Gute Platzierungen
Zeit: 40:20
Wenn eine einzelne Domain die Top drei organischen Positionen für hochumkämpfte und kommerzielle Keywords hat, ist dies ein Fehler? Was können wir machen, um eine für Position vier und fünf geeignete Strategie zu entwickeln?
Antwort: Allgemein ist das kein Fehler. Manchmal zeigen wir die selbe Seite mehrfach in den selben Suchergebnissen. Das ist ganz normal. Das hängt ganz von den Queries und Seiten ab, die involviert sind. Wir sagen nicht, dass eine Seite nur einmal in den Suchergebnissen vorkommen sollte.
Lokalisierte Inhalte
Zeit: 42:37
Frage: Wenn wir zum Beispiel in englischsprachigen Ländern, wie Australien, arbeiten, scheint dort eine Menge US-relevanter Content in den lokalen Märkten zu ranken. Das ist ein Unterschied zu dem, was in den Suchergebnis-Seiten, die hauptsächlich australische Seiten sind. Liegt das an Produktverbesserungen oder muss an der Stelle etwas verbessert werden?
Antwort: Häufig sind diese Produktteams in Mountain View oder irgendwo in den US ansässig. Feedback von anderen Orten zu bekommen, die außerhalb liegen, ist häufig nützlich, um herauszufinden, wie man diese Produkte verbessern kann. Wenn das passiert, kannst du über den Feedback-Button unterhalb der Suchergebnisse Feedback senden oder mir Screenshots zuschicken. Ich kann diese Fälle an das Produktteam weiterleiten. Gerade der nicht-US Content ist manchmal etwas kompliziert für das Produktteam. Dafür Beispiele zu haben ist sehr nützlich.
Crawling
Zeit: 44:40
Frage: Wir eine Website mit 500.000 Seiten und eine „kleine“ mit 500 Seiten. In der Google Search Console sehen wir, dass die kleine Website häufig vom Googlebot gecrawlt wird, während die große Website weniger häufig von ihm besucht wird. Was können wir tun?
Antwort: Wie oft eine Website gecrawlt wird, hängt nicht von deren Umfang ab, sondern der Googlebot entscheidet anhand verschiedener anderer Kriterien, wie oft ein Besuch sinnvoll ist.
Versteckte Links
Zeit: 53:52
Frage: Wir haben Links innerhalb des Quellcodes gesetzt, die auf der Website jedoch nicht sichtbar sind. Werden sie ebenfalls als Links gezählt?
Antwort: Das ist in Bezug auf die Google Webmaster-Richtlinien eigentlich nicht in Ordnung. Wenn die URL jedoch innerhalb eines HTML-Kommentars angegeben wird, beispielsweise wie „Diese Seite ist Powered by Example.com“, dann ist es in Ordnung.
Verwirrende Signale
Zeit: 54:54
Frage: Ist es problematisch, wenn innerhalb der Navigation jedes Element als H1-Überschrift ausgezeichnet ist? Kann das verwirrende Signale an Google senden, beispielsweise im Hinblick darauf, wovon die Seite thematisch handelt?
Antwort: Google betrachtet Webseiten nicht so streng, was die Semantik angeht. Im Gegenzug bedeutet das auch, dass ein semantisch sauberer Aufbau des Quellcodes nicht automatisch für Vorteile beim Ranking sorgt. Ein sauberer Aufbau sorgt aber dafür, dass die Seite in vielen verschiedenen Browsern und auf vielen unterschiedlichen Geräten bestmöglich dargestellt werden kann.
Suchvorschläge
Zeit: 56:53
Frage: Wenn ich bei Google etwas Suche, beispielsweise nach „Apple“ und danach zur Google-Suche zurückkehre, sehe ich neuerdings „Andere suchten auch nach“. Ist das die Vorschlags-Funktion von früher oder ist das neu?
Antwort: Ich vermute, dass es neu ist. Möglicherweise handelt es sich momentan noch um eine experimentelle Funktion.
Fokussierung
Zeit: 63:34
Frage: In den letzten Jahren habt Ihr immer gesagt, dass der Fokus darauf liegen sollte, wonach die Leute wirklich suchen. Spielen da inzwischen auch Aspekte, wie Konversionen rein oder ob die Leute einen Artikel auf einer Seite komplett lesen?
Antwort: Denkt einfach aus der geschäftlichen Sicht. Ihr bietet eine Website an, die einem bestimmten Zweck dient. Verkäufe oder Newsletter-Anmeldungen beispielsweise. Oft suchen Nutzer auch nur nach der Adresse oder Telefonnummer eines Unternehmens. All diese Dinge summieren sich.
[su_youtube url="https://www.youtube.com/watch?v=6sDpYKV13aY"]
Transskript von Nils Wessel und Jochen Moschko
Kategorie(n): Google Webmaster Hangouts
Datum: 28. März 2018