Deutsches Google Webmaster Hangout Transkript, 22.09.2016

von Michael Schöttler

Kategorie(n): Google Webmaster Hangouts Datum: 22. September 2016

Thema: Search Console 

Zeit: 00:30 Frage: In der Suchanalyse in Search Console fallen die Daten ab, woran kann das liegen? Antwort: Eine häufige Fehlerquelle ist es, wenn Google von einer Variante einer Website auf eine andere umschaltet - als Canonical in den SERPs. Der Traffic in Analytics bleibt dann gleich, in Search Console muss man dann aber die richtige Version anschauen. In eurem Fall haben wir für einige Teile auf Https umgestellt, daher erscheint das dann dort. Man kann auch die verschiedenen Versionen als Property Set zusammenfassen, da seht ihr dann in der Suchanalyse die gesammelten Daten.  

Thema: Disavow

Zeit: 03:12 Frage: Seit einiger Zeit entdecke ich massig Backlinks zu promomasters.at von Seiten wie swayamjyothi.xyz - ilovesexy.xyz - vichar.xyz und so weiter. Jede Woche tauchen neue auf. Die Seiten verkaufen auch Backlinks. Muss ich jetzt jede Woche die Disavow Listen neu erstellen? Antwort: Nein, solche TLD sind uns auch bekannt und wir versuchen, die dann entsprechend zu sehen. Wir zeigen euch solche Links auch in Search Console an, aber das ist dann nichts schlimmes, weil unsere Algorithmen mit so etwas umgehen können.  

Thema: Ranking

Zeit: 04:17 Frage: Eine spammige Seite ohne Mobiloptimierung steht sehr gut da. Sie verschwindet immer kurz und schießt dann ohne inhaltliche Änderungen direkt auf Platz 1. Antwort: Schwer zu sagen, schnelle Sprünge sind schon möglich. Ihr könnt uns solchen Spam melden und dann schaut das Team sich das an. Da wir uns über 200 Faktoren anschauen, muss eine Seite auch nicht alles erfüllen - fehlende Mobiloptimierung ist so ein Fall.  

Thema: Links

Zeit: 07:35 Frage: Für eine Nachrichtenseite haben wir sehr viele Forenlinks, die natürlich gewachsen sind. Werden solche Links eventuell negativ bewertet und lohnt es sich diese näher anzuschauen und eventuell zu entwerten, falls ein Forum sehr klein oder abseitig ist? Gerade im Hinblick auf das lang erwartete Penguin-Update. Antwort: Forenlinks können auch gut sein. Sie können auch frü brauchbaren Traffic suchen. Nur weil in Foren spammige Links platziert werden, müssen sie nicht alle Spam sein. Das muss man sich immer granular anschauen.  

Thema: Weiterleitungen 

Zeit: 08:55 Frage: Wir haben vor kurzem wegen einer Umfirmierung 2 große Portale zusammengelegt (<6 Mio Seiten)., Wobei man da sagen muss das beide über einem Jahr deckungsgleich waren und nur eines bei G indexiert wurde. Nun haben beide Portalen in den letzten 6 bis 8 Jahren viele eigene Backlinks gesammelt und mich würde interessieren, wie sich dieses jetzt auf den Switch (A -> B) auswirkt. Aktuell sehe ich nach Anmeldung der Adressenänderung auf Portal B eine überdurchschnittlich hohe Anzahl (> 180 Mio.) Backlinks von Portal A, deutlich mehr Links als das Portal je Seiten gehabt hat. Werden jetzt die Backlinks aus Portal A unter der Domain A in Portal B angezeigt? Bekomme ich die einzelnen Quellen von A auf B nicht mehr angezeigt? Wie verhält sich das aktuell mit der Bewertung von Links aus A und B nach einem Zusammenschluss auf B? Antwort: Wenn wir einen Umzug feststellen, dann versuchen wir, alle Signale weiterzugeben. Ihr solltet euch da aber die Richtlinien für einen Umzug einmal anschauen. Gerade bei großen Websites dauert es aber auch eine Weile, bis wir alles gecrawlt und indexiert haben. Das kann dann zu Fluktuationen führen.  

Thema: Bilder

Zeit: 11:29 Frage: Wir verbauen viel zusätzliche Informationen in Tabs und Akkordeonlisten. Darunter ist auch eine Infografik die vorher direkt auf der Seite eingebunden war. Seitdem diese in einen Tab umgezogen wurde, ranked die Infografik nicht mehr in der Imagesearch. Für User wollen wir Content strukturieren und reduzieren, aber Google scheint die UX-Verbesserungen nicht zu mögen. Antwort: Wir schauen uns die Seiten an und bewerten die sichtbaren Elemente stärker als die nicht sichtbaren Dinge. Da kann es sein, dass Dinge, die auf einmal nicht mehr sichtbar sind, als nicht mehr so relevant gesehen werden. Da sollten dann separate URLs genutzt werden, auf denen die Dinge dann direkt sichtbar sind.  

Thema: Strukturierte Daten

Zeit: 13:14 Frage: Wir haben in mehreren Projekten in den letzten Wochen über die Search Console (ich vermute automatisierte) penalties auf structured data auf den kompletten Domains erhalten, obwohl nur einzelne Seiten betroffen gewesen seien. Leider steht in der Nachricht weder, welche Einzelseiten konkret betroffen sind, noch welches Markup gegen die Richtlinien verstoßen hat. Nach längerer Recherche konnten wir das Problem dann auf Kategorieseiten identifizieren, auf denen die komplette Seite fälschlicherweise als "Product" gekennzeichnet war und wurden durch einen statt gegebenen Reconsideration-Antrag in unserer Annahme bestätigt. Punkt 1: Wenn man die Richtlinien zu Structured Data ganz genau befolgen würde, so müsste man auf Kategorieseiten mit Listen aus Produkten jedes einzelne Produkt separat mit seinem eigenen AggregateRating auszeichnen. In den SERPs lassen sich auch Seiten finden, die das genau so machen und anscheinend verwendet Google für die Auszeichnung der Kategorieseite in den SERPs dann allerdings einfach nur das erste Vorkommen einer einzelnen Produktbewertung, statt eines Durchschnitts über alle Produkte in der Liste. Fazit: Wenn das so ist, packe ich auf einer Kategorieseite als erstes Element in meiner Produktliste also immer ein Produkt mit maximaler Bewertung um in den SERPs "schick" auszusehen. Das kann aber doch wohl nicht im Interesse des Endusers sein, weil dem wird dann ein Rating von 5 für eine Kategorieseite vorgegaukelt, deren Produkte im Durchschnitt evtl. nur bei 3,5 bewertet sind. Punkt 2: In unserem Fall ist das Vorgehen der Auszeichnung aller Produkte als Gesamt-Bewertung einer Kategorieseite allerdings generell nicht zufriedenstellend, denn die Kategorieseiten verfügen über ein Bewertungswidget, über das die User konkret die einzelne Kategorieseite bewerten. Der User bewertet hier aber nicht nur eine Liste aus Produkten (transactional content) sondern er bewertet vielmehr (informatinal) Content um die Produktliste herum, die ihm sowohl generell als auch für die Wahl des richtigen Produktes auf Kategorieebene einen enormen Mehrwert bietet. Das soll heißen: Ich würde gerne auf Kategorie-Ebene die Benutzer-Bewertungen eben dieser einzelnen Seiten im Markup ausweisen, weil das die Bedürfnisse und Bewertung der Endkunden am realitätsgetreusten widerspiegelt. Leider gibt es dazu zumindest in den Richtlinien zu structured data keine konkrete Angabe, wie so etwas umzusetzen wäre. Schaut man nun wieder in die SERPs und stellt Fallstudien an, so bemerkt man, dass Google offensichtlich sehr viele Arten der Bewertungs-Auszeichnung zu dulden scheint, angefangen von der Auszeichnung als AggregateRating für einen Typ "Website" (sowohl gesehen als Gesamt-Website, als auch auf Basis einzelner URLs) bis hin zu Auszeichnungen wie "hreview-aggregate", wie sie z.B. diverse Wordpress-Plugins erzeugen. Fazit: Ich kann anscheinend eine Art der Auszeichnung wählen, die zwar nicht in den Richtlinien aufgeführt ist, aber die Google (aktuell noch) akzeptiert und sehr wahrscheinlich ist es dann nur eine Frage der Zeit, bis der nächste Penalty wegen Spamstrukturen aufschlägt. Finale Frage: Wie soll ich konkret auf Kategorie-Ebene Benutzer-Bewertungen für eine einzelne Seite auszeichnen, wenn ich davon überzeugt bin, dass diese Auszeichnung von und für den Enduser mehr bringt, als die einzelnen Produkte, die ein völlig verzerrtes Bild ergeben würden? Antwort: Wenn mehrere Produkte auf einer Seite sind, sollten sie nicht per Markup ausgezeichnet werden. Da sollte es dann pro Produkt eine Seite geben. Ich kann mir vorstellen, dass auch euer Ansatz Sinn machen kann. Aber unsere Richtlinien sehen so aus. Wenn du aber konkrete Ideen mit Beispielen hast, dann kann ich das mit dem Team besprechen.  

Thema: Ranking

Zeit: 18:28 Frage: wir sehen einen auffälligen und anhaltenden Ranking-Verlust in unserer Rubrik "Liebe & Partnerschaft". ' Parallel dazu sagt uns Google Play, dass die neue Version unserer Fitness-App abgelehnt wurde. Grund: "sexueller Content". Ich frage nicht nach einem kausalen Zusammenhang! Viel mehr interessiert mich, a) ob es seitens Google Search Maßnahmen (manuell oder durch den Algorithmus) gibt, die Inhalte sexueller Natur negativ bewerten und b) ob die Teams Search und Play ihre jeweiligen Guidelines auch untereinander weitergeben und anwenden? Gibt es Inhalte aus dieser Rubrik, die ihr gar nicht sehen wollt? (nein, ich meine spreche nicht von XXX-Seiten! ;-) ) Antwort: Das ist schwer zu sagen, ohne eure Website zu kennen. Wir versuchen immer, grob festzustellen, ob es auf einer Seite Erwachseneninhalte gibt oder nicht. Das soll so granular wie möglich gehen, aber meist machen wir das erstmal Domainweit. Da schauen wir uns Muster an und entscheiden, ob sie unter Safe Search fallen sollte. Dabei hilft uns eine klare URL-Struktur, zum Beispiel mit einer extra Subdomain für alle Safe Search Inhalte.  Zu Google Play kann ich nicht viel sagen, da kenne ich mich nicht aus. Im Hilfecenter könnt ihr auch sagen, wenn eine Seite fälschlicherweise unter Safe Search gelandet ist. Ansonsten ist das Hilfeforum ein guter Ort.  

Thema: Internationale Seiten

Zeit: 22:40 Frage: In google.ch wird bei einer Markensuche (AutoScout24), die Deutsche Firma inkl. Daten im Knowledge Graph angezeigt. Diese hat jedoch zur Schweizer Firma keinen grossen Bezug und zeigt dadurch widersprüchliche Daten. Wie kann man das ändern? Antwort: Schwer zu sagen. Beide Domains sollten ein Hreflang und Geotargeting haben. Sind die Seiten unabhängig, ist das schwerer. Für den Knowledge Graph würde ich mit dem Feedback Link arbeiten. Es kann dann passieren, dass wir eine Website über an anderen anzeigen, nicht, dass eine rausfliegt.  

Thema: Weiterleitungen

Zeit: 25:04 Frage: Was könnte es für Auswirkungen haben, wenn man die Geo-Weiche (Sprachversionsweiterleitung) der Startseite per 301 anstatt per 302 Redirect aufsetzt? Antwort: Für uns ist das gleich. Auf Nutzerseite kann ein 301 aber gecached werden. Das macht manchmal Sinn, manchmal nicht.  

Thema: Bilder

Zeit: 26:15 Frage: Die Seite https://goo.gl/oVKir8 wurde neu aufgebaut. Dabei sind alle Bilder in einem CSS Sprite zusammengefasst worden. Meine Fragen: 1. Werden die Produktbilder von Google für die Bilder Suchergebnisse richtig aus dem Sprite "herausgelöst" (alt text etc. ist vorhanden) oder sollten die Produktbilder extra zur Verfügung gestellt werden? 2. Macht die Verlegung von css, js Dateien in eine Subdomain wegen dem gleichzeitigen Download noch Sinn? 3. Die Seite ist nur in EN. Es gibt keine andere Sprachversion. Soll der hreflang trotzdem eingefügt werden und auf sich selbst referenzieren? SC jammert, wenn kein hreflang gefunden wird. 4. Die sitemap.xml etc. tauchen in den Suchergebnissen auf. Was ist die eleganteste Methode dies zu verhindern? Antwort: Ich habe das angeschaut und es sollte ok sein. Es sind nicht immer alle Bilder im CSS Sprite. Auf der Startseite sind sie es, die können wir dann nicht für die Bildersuche verwenden. Auf den Produktseiten wird das aber gehen.  

Thema: JavaScript

Zeit: 27:19

Frage: Macht die Verlegung von css, js Dateien in eine Subdomain wegen dem gleichzeitigen Download noch Sinn? Antwort: Manchmal ja, manchmal weniger. Bei Https und http2 bringt das weniger Vorteile. Das wäre aber eh nur auf der Benutzerseite wichtig, weniger für uns. Auch auch da nur, wenn es total viele eingebettete Inhalte sind.  

Thema: Internationale Seiten

Zeit: 28:28 Frage: Die Seite ist nur in EN. Es gibt keine andere Sprachversion. Soll der hreflang trotzdem eingefügt werden und auf sich selbst referenzieren? SC jammert, wenn kein hreflang gefunden wird. Antwort: Wenn ihr nur eine Seite habt, braucht ihr auch kein hreflang. Wenn ihr schon eines drin habt, ist das auch kein Problem, es hat halt nur keine Funktion und ihr bekommt Fehlermeldungen, weil die Gegenseite fehlt.  

Thema: Sitemap

Zeit: 29:09 Frage: Die sitemap.xml etc. tauchen in den Suchergebnissen auf. Was ist die eleganteste Methode dies zu verhindern? Antwort: Am besten ist wohl ein x-robots Tag htp Header, der dann ähnlich wie ein Noindex funktioniert.  

Thema: Search Console

Zeit: 29:51 Frage: In diversen Foren wird aktuell gemeldet, dass seit einiger Zeit extrem viele URL-Fehler in der Search-Console angezeigt werden (unter "Nicht gefunden"), vor allem URLs, die seit Jahren nicht mehr existieren. In solchen Fällen sieht man auf einmal Tausende von Fehlern, wo es unter "Verlinkt über" gar nichts steht und die man Tage lang in der Search-Console als korrigiert markieren soll (wegen des Limits von 1000 Seiten). Manchmal ist es aber auch eine solche Maßnahme nicht möglich, wenn bei Projekten über 100.000 Fehler angezeigt werden. Warum ist die Anzahl solcher Seiten in den letzten Tagen so stark angestiegen? Und wie kann man in solchen Fällen vorgehen, damit schnellst möglich andere relevante Fehler angezeigt werden? Antwort: Wir haben das angeschaut und gesehen, dass dort Fehler auf unserer Seite vorlagen. Da haben wir viele alte Sieten neu gecrawlt, die schon lange 404 sind. Da müsst ihr aber nichts machen. Das ist auch immer nach Relevanz geordnet, wenn die ersten also schon unwichtig sind, sollte weiter unten auch nichts wichtiges mehr kommen.  

Thema: Search Console

Zeit: 32:26 Frage: Bei den HTML-Verbesserungen in der Search Console finden sich bei uns Doppelte "tilte"-Tags - unter anderem bei paginierten Seiten - jedoch haben wir diese mit rel="prev" und rel="next" ausgezeichnet. Haben wir einen Fehler gemacht oder wieso tauchen die paginierten Seiten dort auf? Antwort: Wahrscheinlich nicht. Wir indexieren die einzelnen Abschnittsseiten trotzdem und geben das dann als doppelte Title Tags an. Da müsst ihr denke ich nichts machen. Die HTML-Verbesserungen sind auch nur Tipps.  

Thema: Spam

Zeit: 33:36 Frage: Eine meiner Wesites wurde von einem Dritten 1zu1, über die Waybackmaschine (archive.org) geklaut, und hat diese über seine eigene Domain aufgesetzt. Kann das zu Problemen (Rankingverlust) meinerseits führen bzw. kann ich das Google melden, hilft ggf. disavow? Antwort: Ihr könnt uns das melden und vielleicht auch via DMCA.  

Thema: Search Console

Zeit: 35:15 Frage: Hallo, wir haben einen Relaunch unserer Seite gemacht und plötzlich einen riesigen Anstieg an 404s (40.000!) in unserer Search Console. Wir haben allerdings keine Ahnung wo Google die Links hernimmt, da wir sie teilweise gar nicht kennen. Antwort: Ja wie gesagt sind das wohl Dinge, die nicht mehr so relevant sind.  

Thema: Duplicate Content

Zeit: 35:36 Frage: Wir haben eine Website in Österreich und in Deutschland und haben für beide Seiten die selben Texte verwendet (Duplicate Content)? Ist das ein Problem bzw. hat es negativen Einfluss für die AT Seite? Antwort: Es kann passieren, dass unsere Algorithmen die Seiten zu einer Seite zusammenklappen. Zumindest im Boiler Plate sollte klar gemacht werden, dass es unterschiedliche Seiten sind - vielleicht durch lokale Informationen. Im schlimmsten Fall rankt vielleicht die deutsche Seite in Österreich.  

Thema: Texte

Zeit: 40:31 Frage: Ich würde gerne wissen, wo die Grenzen beim holisitschen Ansatz sind. Wir verfassen viele Ratgeber, die Themen in die Tiefe behandeln, aber auch mal 2-3.000 Wörter lang werden. Ab wann ist Content "too long to read" also User-unfreundlich? Oder gilt aktuell für Google das Motto: Je mehr desto besser? Wie werden solche z.B. Ratgeber von euch beurteilt? Antwort: Da haben wir keine Grenze. Ich würde eher auf den Benutzer achten und mich fragen, wonach die Nutzer suchen.  

Thema: Ranking

Zeit: 42:42 Frage: Welcher Faktor wird mehr gewichtet, Ladezeit der Seite oder Qualität der Bilder? Antwort: Das ist schwer zu sagen. Ladezeit ist ein Faktor, aber nicht der Hauptfaktor. Wir unterscheiden da zwischen Seiten, die normal laden und denen, die sehr langsam sind. Ist man im normalen bereich, dann machen ein paar Millisekunden keinen Unterschied. Die Bilder haben mehr einen Einfluss auf die Bildersuche. Da kommt es darauf an, wo eure Besucher herkommen. Und beides ist auch für die Nutzer wichtig.  

Thema: Google News

Zeit: 46:14 Frage: Zum Thema Aufnahme in Google News: Wir pflegen einen Finanz-News Bereich, lassen alle Werbung weg, verlinken auch nicht auf interne Seiten, auf denen Affiliate Programme laufen würden. Dennoch schaffen wir die Aufnahmen in die News nicht (https://www.kreditvergleich.net/category/news/). Gleichzeitig werden von Google News Alerts Seiten gemeldet, die so bestimmt nicht unterstützt werden sollen (http://www.idgr.de/kredit-trotz-niedrigem-score/). Was können wir bei uns verbessern? Antwort: Schwer zu sagen, das ist nicht mein Thema. Ich weiß aber, das es da ein Publisher Forum auf englisch gibt, da solltet ihr mal nachfragen und konkrete Beispiele geben.   Den ganzen Hangout könnt ihr euch hier ansehen: