Deutsches Google Webmaster Hangout Transkript, 06.09.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 7. September 2016

Thema: Ranking

Zeit: 00:53 Frage: Was soll man machen, wenn man eine Wörterbuch-Website hat, mit der man für unterschiedliche Wörter, die aber die gleiche Definition haben, ranken will. Einen Redirect bzw. Canonical nutzen oder beide einzeln stehen haben? Antwort: Grundsätzlich ist da die Frage, ob man eine Seite haben will oder Dinge aufteilen will. Das ist auch bei vielen Shops und anderen Seiten ein Problem. Wenn alles auf einer Seite ist, wird die Seite sicher stärker. Bei einzelnen Seiten müssen die Inhalte auch für die einzelnen Dinge sinnvoll sein und Mehrwert haben. Das kommt immer auf die Situation an, da solltet ihr testen und schauen, was für euch am besten ist.  

Thema: Update

Zeit: 05:00 Frage: Es gab viel Gerede über ein Update am Wochenende. Hatte das etwas mit dem Penguin zu tun? Antwort: Es war nicht Penguin, aber wir haben viele Updates. Oft kommen auch mehrere auf einmal raus, und dann gibt es größere Effekte. Diesmal war es kein Penguin, aber auch nichts, was wir extra bekannt geben würden. Wir machen jedes Jahr tausende Updates und geben nicht allen einen speziellen Namen.  

Thema: Bewertungen

Zeit: 05:49 Frage: Es gibt Seiten, die aggregierte Ratings auf Kategorieseiten vs. Produktseiten nutzen. Viele dieser Einträge erhalten Bewertungssterne in den SERPs, obwohl Google's Richtlinien sich explizit dagegen aussprechen. Kann man die Snippets dafür auf manuellen oder algorithmischem Wege verlieren? Antwort: Wir haben eine Rich Snippet Spam Report Form, die ihr nutzen könnt, wenn ihr so etwas seht. Wir nehmen dann auch manuelle Maßnahmen vor. Wir haben auch entsprechende Algorithmen. Bei manuellen Maßnahmen schalten wir alle Rich Snippets einer Seite ab. Wenn ihr sowas also in Search Console seht, dann müsst ihr euch darum kümmern.  

Thema: 404

Zeit: 06:45 Frage: Sollten wir bei soft-404 die URLs aus der Sitemap rausnehmen und sie wieder hinzufügen, wenn wir ein Ergebnis haben? Ist es normal, URLs alle paar Tage zu entfernen oder hinzuzufügen? Antwort: Grundsätzlich würde ich soft-404 nicht in die Sitemap packen. Denn dort sollten Seiten stehen, die ihr im Index haben wollt. Wenn das also eine leere Seite bzw. eine Fehlerseite ist, dann sollte die nicht in der xml-Sitemap sein. Die Sitemap verbessert unser Crawlen, ersetzt sie aber nicht. Nur weil ihr eine URL aus der Sitemap nehmt, heißt das nicht, dass wir sie nicht mehr crawlen. Wenn ihr Inhalte auf eine URL packt, dann würde ich diese mit dem Änderungsdatum in die Sitemap packen.  

Thema: Ranking

Zeit: 07:57 Frage: Entscheidet Google auf der Grundlage des Nutzerverhaltens, ob eine Seite von niedriger Qualität ist? Antwort: Das machen wir nicht auf Seitenbasis. Wir nutzen diese Daten, wenn wir Algorithmen vergleichen und verbessern. Was die Qualitätstester sagen, nehmen wir auch sehr ernst. Aber auch hier nur für Algorithmen, nicht für einzelne Seiten. Wir geben ihnen unterschiedliche SERPs, und sie sagen uns, welche Variante besser ist.  

Thema: Duplicate Content

Zeit: 10:20 Frage: Ich habe eine Seite, die mit BigCommerce arbeitet. Sie haben für ihre Möbel unterschiedliche Farboptionen. Die Inhalte sind da immer gleich, aber die URLs sind einzigartig. BigCommerce erlaubt es nicht, hier durch uns Canonicals einzubauen. Wird das ein Problem? Antwort: Das ist schwer zu sagen. Es ist sicher nicht optimal, da es viele ähnliche Versionen gibt, die alle eigenständig einen Ruf aufbauen müssen. Bei umkämpften Suchbegriffen könnte das schwierig sein. Da macht es dann oft Sinn, eine starke Seite zu erstellen. Da solltet ihr euch die häufigsten Suchanfragen anschauen und gucken, ob nach dem Möbelstück oder nach der Farbe gesucht wird. Technisch gesehen kann ich zu BigCommerce aber nichts sagen. Es würde aber nicht zu einem Spamproblem oder zu einer Pandaabstrafung führen. Wir sehen, dass die Inhalte ähnlich sind und wir klappen das dann zusammen. Von den Signalen her müssen sie aber eigenständig stehen.  

Thema: A/B Test

Zeit: 15:10 Frage: Wir haben A/B Tests mit unseren Inhalten. Was sollen wir Google am besten zeigen? Antwort: Grundsätzlich sollte Googlebot beide Versionen sehen können - mit einem Canonical auf der Standardversion. Wir crawlen dann beide, sehen das und klappen sie zusammen. Durch robots.txt können wir die eine Version nicht sehen und wissen daher nicht, was die Verbindung zwischen den beiden ist. Wenn die URL gleich ist, dann behandelt Googlebot einfach als normalen Nutzer und zeigt mal die eine Version, mal die andere. Wenn die Inhalte total unterschiedlich sind (z.B. einmal Text einmal Bilder), dann ist es natürlich schwerer. Aber grundsätzlich ist so etwas kein Problem für Googlebot.  

Thema: Bewertungen

Zeit: 18:18 Frage: Ich sehe die Bewertungssterne, wenn ich eine Seitenabfrage mache - aber nicht in den normalen Suchergebnissen. Wie kann man Google's Vertrauen erhalten, damit die Rich Snippets gezeigt werden? Antwort: Es gibt drei Voraussetzungen. Sie müssen technisch richtig eingebaut sein, sie müssen auf Grundlage der Richtlinien sein und die Qualität der Seite muss hoch sein. Das erste könnt ihr mit dem Testing Tool prüfen, für das zweite könnt ihr die Richtlinien lesen und in den Foren nachfragen. Das dritte hängt allerdings von unseren Algorithmen ab, da gibt es keine Abkürzung. Bei einer Seitenabfrage zeigen wir sie eigentlich immer, wenn es technisch richtig ist. Es wird bei euch also eher an der Qualität liegen.  

Thema: Duplicate Content 

Zeit: 21:21 Frage: Wir haben eine E-Commerce Seite und werden bald eine neue Firma starten, die andere Produkte verkauft. 500 von 5000 Produkten sind aber mit identischen Daten auch auf der alten Seite zu finden. Sollten wir vor DC Angst haben? Antwort: Wenn das auf einer neuen Seite ist, würde ich das Canonical nutzen, um eure bevorzugte Version anzuzeigen.  

Thema: Geblockte Ressourcen

Zeit: 22:27 Frage: Unser Geblockte Ressourcen Report zeigt einen externen Host an, der für die Tracking Codes auf allen unseren Seiten genutzt wird. Deren robots.txt disallowed deren ganze Domain. Es hat keinen sichtbaren Einfluss auf den Service. Müssen wir da etwas tun? Antwort: Grundsätzlich nicht. Meistens sehr ihr im Report auch, ob das eine wichtige Ressource ist - das können wir aber nicht immer bestimmen. Wenn es keinen sichtbaren Einfluss hat, dann ist das kein Problem. Hat es aber einen Einfluss - z.B. eine API die eine Karte anzeigt - dann wäre das etwas, was wir indexieren möchten. Aber Tracking Codes oder Pixel sind nichts, was ihr für das Crawlen freischalten müsstet.  

Thema: Mobil 

Zeit: 24:03 Frage: Wir haben Canonicals für die Originalinhalte und Alternates für die mobilen Inhalte. Beide Seiten sind in Search Console aber die Originalseite zeigt viele Fehler für die Mobilversion an. Sollten wir zwei Sitemaps erstellen, die jeweils ein rel=alternate haben? Antwort: Mein Gefühl ohne die Seite zu kennen ist, dass www- die Desktop Seite ist und die m-Version als mobile Seite, dann solltet ihr keine Fehler sehen. Vielleicht können wir die Verbindung nicht richtig erkennen. Prüft mal, was dort wirklich vor sich geht, z.B. mit dem Fetch as Google Tool. Da müssen die ganzen Tags zu sehen sein. Wenn die m.-Version in der Desktop Suche auftaucht, ist das auch ein Anzeichen, das etwas nicht stimmt. Wichtig ist auch, dass diese Fehler auf Grundlage der Indexierung aggregiert werden. Das geht dann Schritt für Schritt. Wenn ihr also etwas wichtiges ändert, dann seht ihr am Anfang einen Sprung und dann einen langsamen Änderungsvorgang. Denn nicht alle Seiten werden ja so oft gecrawlt. Mit einer Sitemap und dem letzten Änderungsdatum könnt ihr uns auf Änderungen hinweisen.  

Thema: Rich Snippets

Zeit: 27:55 Frage: Wir arbeiten an einer Seite mit Rich Snippets auf der Homepage, die YouTube und Social Media beinhalten sollen. Aber es wirt nichts angezeigt. Antwort: Ich denke, es geht hier um das Social Profiles Markup. Das dauert etwas. Wenn ihr das gerade erst gemacht habt, dann kann das ein paar Wochen dauern. Wenn es nicht kommt, dann könnt ihr das mal in den Hilfeforen posten.  

Thema: Intention

Zeit: 29:04 Frage: Wie wichtig ist die Nutzerintention heutzutage im Vergleich zu anderen Metriken? Antwort: Ich glaube nicht, dass ich da irgendwelche Zahlen nennen kann. Insgesamt haben wir über 200 Faktoren, und nicht jeder hat für jede Seite und jede Anfrage das gleiche Gewicht. Man muss also nicht immer alles genauso machen wie die Konkurrenz, vielmehr kann man Dinge anders machen und trotzdem gut ranken. Wenn ihr SERPs findet, wo es nicht mit rechten Dingen zugeht, dann schickt sie uns zu. Ich antworte auf Google+ vielleicht nicht immer, aber ich leite es auf jeden Fall weiter.  

Thema: Eingebettete Inhalte

Zeit: 33:07 Frage: Wir sind eine Content Authoring Platform. Die Erstellung passiert in vielen Formaten und wird dann von den Erstellern auf ihren Seiten eingebunden. Viele verlieren nun SEO-Punkte, weil die Inhalte nur eingebettet sind. Können wir da etwas tun? Wir wollen, dass sie ihre Inhalte perfekt nutzen können. Außerdem werden Inhalte in Schritten per Angular erstellt. Vieles davon wird nicht indexiert. Antwort: Sie sollen die Inhalte also so nutzen können, als würden sie zu ihrer Seite gehören? Wir versuchen, Iframes zu rendern und in Betracht zu ziehen. Wenn man genau diese Inhalte sucht, wird man sie also finden. Es gibt aber keinen einfachen Weg, um das als volle Inhalte zu sehen. Es könnte funktionieren, die Inhalte per JavaScript einzubetten. Ich weiß aber nicht, ob das viel ändern wird. Das müsstet ihr testen. Angular sollten wir in den meisten Fällen erkennen können. Im März oder April habe ich bei Google+ gepostet, was man da beachten muss. In Fetch als Google könnt ihr testen, was Googlebot da genau sieht.  

Thema: Manual Action

Zeit: 38:27 Frage: Ich arbeite an der Seite eines Fotografen. Google sieht die Seite als Spam. Ich habe zwei Anträge zur Aufhebung geschickt, die beide angenommen wurden. Aber kurz nachdem die Abstrafung weg ist, kommt sie wieder. Die alte Website wurde gelöscht. Antwort: Hier bräuchte ich eine URL. Die kannst du mir mal bei Google+ schicken, dann kann ich mir das mit dem Team anschauen. Wichtig ist, dass das Team Inhalte sehen will. Da reicht es nicht, die alte Seite zu löschen - es müssen auch neue Inhalte da sein. Das gilt auch bei spammigen Markups, bietet die Inhalte immer so an, wie sie am Ende aussehen sollen.  

Thema: Panda

Zeit: 40:35 Frage: Ich kriege viele Nutzer auf meine Seite, die bei Google nach dem Brand suchen und sich auf meiner Website Informationen holen. Trotzdem habe ich eine seitenweite Abstrafung erhalten, ich glaube Panda. Was soll ich tun, um das Ranking zu verbessern? Antwort: Das ist schwer zu sagen. Grundsätzlich schauen wir uns dabei die ganze Seite an. Ihr müsst also das Gesamtbild verbessern.  

Thema: Featured Snippet

Zeit: 42:13 Frage: Ich habe eine Non-Profit Seite mit Informationen über vegane Athleten. Die Featured Snippets zu dem Thema, die von anderen Seiten gezogen werden, haben inhaltliche Fehler. Wie kann ich dafür sorgen, dass das verbessert wird? Der Feedback Button hilft nicht. Antwort: Das ist aber der beste Weg. Wenn ihr Feedback gebt, muss es einfach verständlich und hilfreich sein. Oft kriegen wir nur Feedback, in dem gepöbelt wird. Wir wechseln auch nicht wegen eines Feedbacks die Quellseiten, es muss etwas sein, was zum Algorithmus passt.  

Thema: Penguin

Zeit: 43:44 Frage: Wenn der Penguin endlich kommt, wird er ähnliche Auswirkungen haben wie das Update am letzten Freitag? Weil eigentlich sollten wir diese Änderungen doch gar nicht sehen? Antwort: Naja Leute sehen immer Änderungen. Wenn man die Änderungen nicht sieht, dann wären es ja keine sinnvollen Änderungen. Ich weiß aber nicht, wie Penguin ausgerollt werden wird. Wir arbeiten gerade an einer Bekanntmachung dazu, und wenn es bereit ist, werden wir es euch wissen lassen. In diesem Fall [Freitag] kamen einfach viele einzelne Dinge zusammen, die wir nicht bekannt geben würden. Ich weiß nicht, ob wir Penguin vor der Veröffentlichung ankündigen werden. Aber wir versuchen es so zu timen, dass wir euch nicht alle verwirren. Es wäre schön, wenn es alles schneller gehen würde, aber das ist diesmal nicht der Fall. Es dauert länger, als wir es geplant hatten. Das passiert aber auch in allen Bereichen. Oft denken wir, dass etwas in wenigen Tagen rauskommen kann - und dann dauert es noch lange.  

Thema: Interstitial

Zeit: 46:00 Frage: Wenn eine Seite das Popup nach 20 Sekunden kommen lässt, mit dem man ein Abo abschließen muss, um weiter zu lesen - fällt das auch unter diese Regelung? Und warum wird dieser Penalty mobile-only? Es gibt auch viele Desktop Seiten, die sehr nervige Popups haben? Antwort: Ich glaube nicht, dass wir hier irgendwelche Sekundenzahlen kommunizieren werden. Wir arbeiten daran, mehr Infos dazu rauszugeben. Da habe ich aber keinen aktuellen Stand. Es ist auf Mobile einfach noch nerviger. Es ist dort problematisch, weil es die Seite langsamer macht. Außerdem muss man weitere Schritte gehen. Und die UI macht es schwer, sie zu beenden. Ich weiß nicht, ob es da auch Pläne für den Desktop gibt. Wir versuchen, es dort anzugehen, wo es den größten Einfluss hat und wo die meisten Nutzer sind. Ich stimme aber zu, dass es auch auf dem Desktop sehr nervige Popups gibt und wir dort eine Lösung finden sollten.  

Thema: Interstitials

Zeit: 51:30 Frage: Braucht es denn überhaupt einen Penalty? Kann man nicht einfach das indexieren, was der Googlebot direkt sieht? Ist das also ein Popup, dann wird nur das Popup indexiert anstatt der darunter liegenden Inhalte. Antwort: Das könnte ein anderer Ansatz sein.   Den ganzen Hangout könnt ihr euch hier ansehen: