Google Webmaster Hangout Transkript, 12.06.2018

von SEO Portal

Kategorie(n): Google Webmaster Hangouts Datum: 22. Juni 2018
Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 12. Juni 2018:

Safe Search

0:32 Frage: Wir haben vor kurzen einen Auftrag für eine ziemlich große Reisewebsite erworben, sie heißt ###. Sie bestand zuvor aus zwei verschiedenen Seiten, ### und ###asia.com, wir haben jedoch entschieden sie zu einer Seite zusammenzufügen, ###. Seitdem wir das gemacht haben und alle Weiterleitungen eingefügt haben, fällt der Traffic um die 80%. Wir haben alles nach Fehlern gecheckt, wir haben das Umzugstool richtig benutzt. Wir denken das liegt daran, dass die Domian die letzten 10 Jahre nicht als erwachsenen Domain genutzt worden ist und sie ist daher auf vielen Safe Search geblockt. Bing hat nun die Safe Search aufgehoben. Wie läuft das jetzt mit Google? Wir haben eine Safe Search Anfrage vor ca. 10 Tagen gestellt. Antwort: Diese Anfragen dauern manchmal einige Wochen bis sie von uns bearbeitet werden.  

AMP

4:28 Frage: Vor einigen Monaten haben wir eine AMP-Version all unserer Artikel eingestellt, nun beobachten wir, dass alle unsere AMP-Seiten nicht aktiv gecrawlt werden. Brauchen wir, damit AMP-Seiten besser gerankt werden, eine spezielle Sitemap? Antwort: Zum Crawlen von AMP-Seiten müsst Ihr normalerweise nichts tun. Wir crawlen die AMP-Seite neu, wenn wir die normale Webseite neu crawlen, wenn wir sehen, dass AMP-HTML auf diesen Seiten wächst, dann werden wir auch die AMP-Seite neu crawlen. Wir werden auch die AMP-Seite erneut durchsuchen, wenn ein Benutzer eine Seite im Cache anschaut, also wenn jemand zum AMP-Cache geht. Es ist nicht so, dass sie selbst indexiert werden müssen. Normalerweise ist die normale Webseite auf diesem Index und die AMP-Seite wird quasi ausgelagert. Wir crawlen die AMP-Seiten aus zwei Gründen. Zum einen um sicher zu gehen, dass es wirkliche ein gültige AMP-Seite ist, mit einem Canonical Tag zu der eigentlichen Website, und zum anderen um sie in den AMP-Cache zeigen zu können.  

Google Top Stories

6:31 Frage: Unsere Seite heißt ### und wir bringen aktuelle Neuigkeiten über Autos. Wir sind die einzige Website von den Auto-Websites, die jeden Tag Neuigkeiten über Subaru bringen. Wenn man z.B. nach „Subaru News“ googelt, sind wir ganz oben. Was können wir machen, um eine Chance zu haben, in den Google Top Stories zu erscheinen? Antwort: Die „Google Top Stories“ sind ein organisches Suchelement und wir haben dafür keinen An/Aus-Knopf, den wir händisch einstellen können. Es basiert auf dem, was wir im Index auf der Website gecrawlt haben. Unser „Google Top Story“-Team arbeitet stetig daran, immer wieder neue Google Top Stories zu finden.  

Crawl Anomalie Bericht der Google Search Console

11:26 Frage: Ich habe viele alte 404-Fehlerseiten aus den Jahren 2015/2016, die als Crawl-Anomalie reportet werden. Warum werden sie immer noch als Crawl-Anomalie reportet und nicht als 404 Fehler? Das verwirrt mich etwas. Antwort: Als erstes würde ich Feedback beim Search-Console-Team einreichen. Eine andere Sache bei Crawling-Fehlern ist, dass wenn wir lange Zeit URLs crawlen oder uns daran erinnern, selbst wenn sie einen 404 Fehler zurückgeben, erinnern wir uns daran, dass es da mal eine URL gegeben hat, dann probieren wir sie von Zeit zu Zeit aus. Es kann also durchaus vorkommen, dass eine URL, die vor langer Zeit auf Ihrer Website existierte, immer noch gelegentlich neu gecrawlt wird und das ist nicht unbedingt ein Nachteil. Wir zeigen das in der Search Console speziell als Crawling-Fehler oder als Crawl-Anomalie, damit Ihr wisst, dass wir diese URL, die wir ausprobiert haben, nicht funktioniert. Wenn Ihr dort eigentlich Inhalt haben wollt, weiß man durch die Fehleranzeige, dass man vielleicht lieber nochmal die Serverkonfiguration überprüfen sollte, um sicherzustellen, dass es auch Inhalte gibt und somit stattdessen einen 200 Code zurückgegeben wird. Man sollte sich also nicht zu sehr sorgen, wenn man alte Crawl Fehler in der Search Console sieht.  

hreflang

13:39 Frage: Unterstützt Google inoffiziell hreflang-Attribute in Anchor-Tags, z. B. in einem A-Tag, an das ein href- und hreflang-Link angehängt ist? Antwort: Nein, das tun wir nicht. Ich würde wirklich empfehlen, sie nur so zu verwenden, wie wir sie im Kopf einer Seite, im HTTP-Header oder in einer Sitemap-Datei dokumentiert haben. Normalerweise ist das Einrichten von hreflang mit dieser Basic-Einrichtung kompliziert genug, besonders wenn Ihr viele verschiedene Sprach-Seiten oder viele Seiten habt, auf denen Ihr hreflang verwendet.  

Video-Snippets

15:00 Frage: Es besteht ein Problem mit der sinkenden Klickrate, die durch das Video-Snippet in den Suchergebnissen verursacht wird. Wir haben Dich in der vorherigen Hangout-Sitzung konsultiert und Du hast uns empfohlen, den Googlebot daran zu hindern, die Videodatei zu crawlen. Das hat zunächst funktioniert, weil wir das Video-Snippet verloren haben und die Klickrate wieder erreicht haben. Aber dann tauchte es ein paar Tage später wieder auf. Was kann hier passiert sein? Antwort: Meine Vermutung ist entweder, dass wir die Videodatei von einem anderen Ort aus gesehen haben oder sie ist auf eine etwas andere Art eingebettet, oder dass es sich nur um Dinge handelt, dass manche Seiten-Rechenzentren den aktualisierten Inhalt haben mit dem Nicht-Video-Schnipsel und andere noch den älteren Inhalt mit dem Videoausschnitt angezeigt bekommen. Die andere Sache ist, dass Ihr die Videodatei mit einem Dollarzeichen am Ende der URL, gemäß dem gesetzten Kommentar, verboten habt. Das heißt, wenn das Video in einer Weise eingebettet ist, die einen URL-Parameter oder ähnliches damit verbunden hat, könnte es sein, dass wir immer noch versuchen, dieses Video zu crawlen. Wir könnten es crawlen, weil das Verbot und die robots.txt-Datei ist so spezifisch, dass alles, was mit Kleinbuchstaben mp4 endet, vom Crawling blockiert wird. Abhängig davon, wie das auf der Seite eingebettet ist, kann es was sein, was von uns immer noch aufgenommen wird. Ihr solltet in eurem Serverprotokoll kontrollieren, ob wir irgendein anderes Video crawlen.  

Hash-Fragmente

17:13 Frage: Ich erstelle ein AJAX-basiertes Datenvisualisierungstool, die Namen werden mit Infinite Scrolling geladen. SVG und Textelemente ändern sich als Reaktion auf das Klicken auf Namen. Zusätzlich wird die URL manchmal mit einem Hash-Fragment modifiziert, um die Funktionalität der Zurück-Schaltfläche zu aktivieren und Crawlern zu helfen. Was ist der beste Weg, den Googlebot-Crawler beim Durchlaufen dieser Hash-Fragmentseiten zu unterstützen? Sollte ich sie in die Sitemap aufnehmen? Wird es für Google-Content bestraft? Antwort: Generell crawlen oder indexieren wir keine URL mit nur dem Hash-Fragment. Wenn Ihr also nur das Hash-Zeichen und danach einen Text habt, löschen wir das normalerweise und crawlen nur die Version ohne das Fragment. Was ich dort empfehlen würde, ist stattdessen die History-API von HTML5 zu nutzen. Mit dieser API könnt Ihr den normalen Teil der URL ändern und diesen für die Navigation in einer JavaScript-App verwenden. Das würde uns das Crawlen sehr erleichtern.  

HTML-Verbesserung

21:18 Frage: Kurze Frage zu Titeln bei HTML-Verbesserungen: Das Problem ist, wie Google Titel für JavaScript-Websites identifiziert oder ob es sich um unsere Angular-Anwendung handelt (Anm. d. Red.: „Angular“ ist ein TypeScript-Framework). Google warnt uns vor Seiten mit doppelten Titel-Tags, aber die Seiten haben unterschiedliche Titel in unserem Back-End und Front-End. Das Problem ist, dass Google scheinbar den richtigen Titel erhält, aber in einer anderen Sprache. Also für Seite A in Englisch nimmt es einen Titel für die Seite A in Deutsch zum Beispiel. Ich denke, Google bestraft uns für doppelte Inhalte. Antwort: Google indexiert definitiv keine Website für doppelte Inhalte in Bezug auf Titel. Ich denke das Hauptthema auf das ich hier achten würde ist, wenn wir Titel zwischen einzelnen URLs wechseln scheint es als ob etwas auf Eurem Backend nicht so funktioniert wie es funktionieren sollte. Wir sollten immer in der Lage sein, eine Seite zu holen und eine Seite zu rendern und jedes Mal genau denselben Titel zu erhalten. Es sollte nicht der Fall sein, dass abhängig davon, wie Seiten gecrawlt und gerendert werden, plötzlich der Seitentitel in einer anderen Sprache erscheint. Wir verwenden keine Cookies für verschiedene Sprachen beim Crawlen oder Rendern. Ihr müsst das dann so einrichten, dass wir diese spezifische URL crawlen können und dass wir einen bestimmten Titel in dieser Sprache erhalten und nicht, dass dort irgendeine Art von Crosstalk stattfindet. Was normalerweise bei ähnlichen Inhalten passieren kann ist, dass wir in diesem Falle zusammenfassen und eine Version erstellen. Normalerweise passiert das nicht für einzelne Sprachen, sondern mehr innerhalb derselben Sprache. Wenn Sie also eine deutsche Seite für Österreich und eine deutsche Seite für Deutschland haben und der Inhalt genau gleich ist, dann könnte man sagen, dass dies eine deutsche Seite ist. Wenn Ihr also in einem solchen Fall denselben Inhalt auf zwei Seiten eingegeben hättet, würden wir den Inhalt nicht austauschen. Wenn Ihr seht, dass das funktioniert und es vor allem in verschiedenen Sprachen, ist das ein starkes Zeichen dafür, dass das ein Problem bei eurem Backend ist, also würde ich das untersuchen.  

Einfluss von Sterne-Bewertungen in der Google-Search

24:00 Frage: Wir haben gesehen, dass viel Wert auf Bewertungen und Sterne-Bewertungen, einschließlich bei Google-Umfragen, gelegt wird. Wie stark werden die Suchergebnisse von diesen Vor-Ort-Umfragen und im Gegenzug die Sterne-Bewertungen beeinflusst? Wenn ich zum Beispiel eine Umfrage auf meiner Website durchführe und wir meistens niedrigere Bewertungen sehen, wird dies meine Suchergebnisse beeinträchtigen oder verhindern, dass ich in den Suchergebnissen höher klettere, oder ist das nur für lokale Suchanfragen wichtig? Sollten sich Marken auf Umfragen und Bewertungen konzentrieren? Antwort: Wir nutzen die Inhalte, die wir in Umfragen sehen, nicht als Ranking-Faktor. Wenn Ihr also Umfrage auf eurer Website habt und die Dienstleistung derzeit nur zwei Sterne hat, werden wir die Website nicht niedriger bewerten. Bei der lokalen Suche könnte es sich jedoch anders verhalten, wenn Ihr bei „Google My Business“ gelistet seid und Bewertungen daran geknüpft sind. Aber das ist von den organischen Suchergebnissen komplett getrennt. Wenn Ihr Bewertungen oder Sterne-Bewertungen auf Euren Seiten haben wollt, könnt Ihr dies mit dem Hinzufügen von Rich Snippets oder mit dem Schema.org-Markup begünstigen.  

Disavow-Datei

29:29 Frage: Wir haben Konkurrenten mit tiefen Taschen, die alles in ihrer Macht stehende getan haben, uns zu verletzen oder zu diskreditieren. Man hat uns sogar hunderttausende Male mit russischen Pornoseiten verbunden, die im Allgemeinen auf unsere Homepage und bestimmte getaggte Seiten verweisen. Es gibt sogar Warnungen, die uns betreffen. Hatten andere das in der Vergangenheit eingestellt? Wie wichtig sind Disavows und wie lange dauert es bis man nach dem Einstellen positive Effekte sieht? Sollen wir das immer wiederholen? Antwort: Unsere Algorithmen erkennen das Problem in der Regel und ignorieren diese Art von Spam-Links. Wir gehen nicht davon aus, dass es eine Seite mit Absicht macht. Falls Ihr euch nicht sicher seid, ob das Google auch wirklich merkt, dann schlage ich vor, dass ihr einfach alles direkt in eine Disavow-Datei legt, idealerweise nach Domain, und uns das so einreicht.  

Impressions in der Search Console

37:19 Frage: Wenn sich eine Website auf Seite 2 befindet und die Person, die nach einer bestimmten Keyword-Wortgruppe sucht, Seite 2 nicht besucht, wird sie trotzdem noch als Impression gezählt? Antwort: Nein, es wird nur als Impression gezählt, wenn der Benutzer es tatsächlich auf der aktuellen Suchergebnis-Seite sieht.  

Impressions

38:32 Frage: Wenn ich den AdWords-Keyword-Planer überprüfe, kann ich sehen, dass ein bestimmtes Keyword 2.000 Mal pro Monat durchsucht wird, aber meine Impressionen zeigen nur 300 pro Monat und auf der ersten Seite. Warum gibt es einen so großen Unterschied? Antwort: Im Allgemeinen hängt es davon ab, wie man Impressions betrachtet. Wenn Ihr beispielsweise Google Analytics oder andere Analysetools verwendet, werdet Ihr immer einen allgemeinen Unterschied zwischen den verschiedenen Methoden zum Auslesen von Informationen feststellen. Grade kleine Zahlen können durch geringe Änderungen im täglichen Verlauf signifikant verzerrt werden. Das heißt nicht, dass einige Tools nicht sinnvoll sind, das heißt nur, dass man drauf achten soll, welches Tool bei welcher Auswertung mehr Sinn macht. Bezieht die relativen Unterschiede der einzelnen Tools mit ein. Zum Beispiel sagt das eine Tool 2000 für diesen Begriff und 200.000 für einen anderen Begriff. Das ist offensichtlich ein ziemlich großer Unterschied, so dass es sinnvoller ist sich nur auf jeweils ein Parameter zu konzentrieren.  

Impressions

40:49 Frage: Wenn ein Suchergebnis in der zehnten Position ist und der Benutzer nicht gescrollt hat, um dieses Ergebnis zu sehen, würde das dann noch gezählt werden? Antwort: Ja, wenn es auf der aktuellen Suchergebnis-Seite ist, wird es gezählt.  

multilinguales SEO

41:32 Frage: Wie kann man mehrsprachiges SEO machen ohne Inhalte zu duplizieren? Antwort: Im Allgemeinen hat Inhalt auf zwei Sprachen nichts mit duplizierten Inhalten zu tun. Wenn Ihr Inhalt von der einen in die andere Sprache übersetzt und das unter zwei verschieden URLs veröffentlicht, sehen wir das nicht als doppelten Inhalt. Jede URL steht für sich, da ja auch durch die unterschiedlichen Sprachen unterschiedliche Zielgruppen angesprochen werden.  

ccTLD / mDot/ Mobile Indexing

42:27 Frage: Was ist der Unterschied im Ranking einer existierenden Website mit einer neuen Seite zu einer neuen Seite auf einer neuen Domain? Ohne ccTLD, sondern eher neue Ordner mit individuellen Ländern als Ziel, soll man mDot (z. B. m.example.com) anwenden oder nicht? Antwort: Wenn einer existierenden Website eine neue Seite hinzufügt wird und die existierende Website bereits viel Kontext im Internet besitzt, macht es das uns leichter die neuen Seiten zu verstehen. Im Gegensatz, wenn man mit einer komplett neuen Website startet, müssen wir diese erstmal verstehen. Wenn es um Dinge wie ccTLD oder die Verwendung einer Subdomain oder die Verwendung von Unterverzeichnissen geht, würde ich mich mehr auf eure technischen Fähigkeiten konzentrieren. Könnt ihr überhaupt komplett ortspezifischen Inhalt innerhalb eines Unterverzeichnisses auf eure Website stellen oder nicht? Manchmal gibt es auch den Fall, dass man ccTLD aus rechtlichen Gründen benutzen muss. Wir denken, dass wir auf lange Sicht jede Art von Internationalisierungs-Setup auf natürlichem Wege aufgreifen können sollten. „Mobile First Indexing“ und mDot wird hingegen von uns separat betrachtet. mDot -Inhalte sind angeknüpft an die Desktop-Seite und wir verstehen, das eine ist die Desktop URL und das andere ist die mobile URL. Es kann sich um dieselbe Domain handeln, es kann sich auch um eine andere Subdomain handeln, es kann sogar komplett auf einer anderen Domain sein, das verwenden wir nur, um zu erkennen, wo der mobile Inhalt ist und um die URLs auszuwechseln. Es hat also überhaupt keine Wirkung. In Bezug auf Mobile First Indexing später, wenn wir zu den mDot-Versionen wechseln, verschieben wir im Wesentlichen einfach das Indexing auf diese andere Version. Ihr würdet keine Rankingveränderung sehen. Für Mobile Indexing empfehlen wir die Verwendung von Responsive Webdesign. Ich würde versuchen die Einrichtung neuer mDot-Sites zu vermeiden, es macht es nur komplizierter..  

Internationalisierung

46:51 Frage: Was ist die beste Vorgehensweise bei der Lokalisierung von Domain-suffixen? Meine Frage bezieht sich auf die Internationalisierung. Wir haben eine .com-Domain, unser Ziel ist es in die EMEA-Märkte einzudringen. Dabei möchten wir Domain-Suffixe erhalten, die für die Länder relevant sind, auf die wir abzielen. Wir möchten jedoch nicht mehrere Websites verwalten, daher möchten wir auf allen diesen Domains denselben oder sehr ähnlichen Inhalt haben. Welche Auswirkung hat das aus unser Webranking? Antwort: Ich denke das ist ziemlich schwierig. Wenn Ihr genau den gleichen Inhalt habt und Ihr sagt, dass dies für verschiedene Märkte lokalisiert wird, weil es nicht wirklich lokalisiert ist. Wenn Ihr also den gleichen Inhalt auf Eurer .com habt, wie auf deiner .de- oder .fr-Website, würden wir uns das anschauen und erkennen, dass es sich um denselben Inhalt handelt und wir würden eine dieser URLs auswählen und diese als Canonical behandeln. Darauf konzentrieren wir uns dann für die Suche. Das bedeutet, dass Ihr verschiedene Ländercode-Top-Level-Domains habt, aber in der Suche zeigen wir nur die .com-Version. Falls Ihr das ändern wollt, solltet ihr darauf achten, individuellen lokalen Inhalt für die verschiedenen Länder zu kreieren, damit wir die separat indexieren. Was uns auch ein wenig hilft sind die hreflang-Tags zwischen den verschiedenen Sprachversionen oder den verschiedenen Länderversionen, damit wir verstehen, welche Version wir in welchem Land zeigen sollen. Das verstehen wir zum großen Teil bereits anhand der Domain, die mit der Top-Level-Domain endet. Am besten Ihr holt euch Rat bei Experten, die in dem Bereich schon Erfahrungen gesammelt haben.  

SetLanguage

51:12 Frage: Wir haben ein Portal mit englischer und französischer Version mit dem gleichen Inhalt auf der gleichen URL, durch Abfrageparameter getrennt (SetLanguage=FR). Können wir davon ausgehen, dass all unsere englischen und französischen URL-Versionen natürlich indexiert werden? Antwort: Wahrscheinlich. Wenn wir also Links zu diesen einzelnen Sprach-URLs sehen, mit unterschiedlichen URLs und am Ende den Abfrageparameter mit „Language=French“ oder „Language=English“, dann werden wir diese wahrscheinlich separat crawlen und indexieren. [su_youtube url="https://www.youtube.com/watch?v=yFbgAEFWtTo"] Constanze Bettendorf und Jochen Moschko