Deutsches Google Webmaster Hangout Transkript, 28.01.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 28. Januar 2016
Hier findet ihr unser Transkript des heutigen Google Webmaster Sprechestunden Hangout mit John Mueller. Viel Spaß beim Lesen.

Thema: Above the Fold

Zeit: 00:56 Frage: Werden Texte welche im sichtbaren Bereich « above the fold » sind, von Google besser bewertet gegenüber Texte die im Footer platziert sind? Antwort: Wir unterscheiden schon danach, wo die Inhalte platziert sind. Wenn sie in einem Bereich sind, der sich von Seite zu Seite nicht verändert - wie im Footer - dann denken wir, dass sie für die entsprechenden Seiten nicht so wichtig sind. Wir denken das, weil sie sich immer wiederholen. Sie sind also nicht gleichwertig mit den Hauptinhalten einer Seite.  

Thema: Meta-Description

Zeit: 02:23 Frage: Automatisiert erstellte Meta-Description versus händisch geschriebene & einzigartige Meta-Descriptions für tausende Unterseiten: Lohnt sich der Mehraufwand? Was bevorzugt Google bzw. der Suchende? Antwort: Ich bin auch nur ein Suchender, aber grundsätzlich sind die Meta-Descriptions kein Rankingfaktor. Wir zeigen sie als Snippet, wenn sie zur Suche passen, aber sie helfen nicht beim Ranking. Ihr müsst also schauen, was euren Nutzern besser gefällt und wie ihr Nutzer dazu bringt, auf eure Seite zu gehen. Es ist eher wichtig für das Marketing. Automatisiert oder nicht ist dann euch überlassen. Schaut von Fall zu Fall, ob die automatischen hilfreich sind.  

Thema: Core-Update

Zeit: 04:32 Frage: Seit dem Core-Update im Januar scheint es so, als ob alte Unterseiten welche vorher gut gerankt haben, nun an SEO-Power verloren haben. Wie geht man nun mit statischen Seiten um, deren Angebote ebenso sehr alt, jedoch immer noch aktuell und gültig sind? Antwort: Grundsätzlich haben wir mit dem Update nicht alte Unterseiten heruntergestuft, es gibt nur allgemeine Veränderungen in den SERPs. Das hat nichts mit alt oder neu zu tun, die angezeigten Ergebnisse haben mit der Suchanfrage und dem Suchenden selbst zu tun. Ihr solltet einfach bei älteren Seiten schauen, ob sie vielleicht ein neues Design vertragen könnten.  

Thema: Noindex

Zeit: 06:34 Frage: Spricht etwas dagegen wenn gleichzeitig das Canonical Tag und das Meta-Tag Noindex auf der gleichen Seite stehen? Antwort: Die Frage kommt immer wieder. Grundsätzlich widersprechen sich die beiden für uns eher. Wenn zwei Seiten als gleich angegeben werden, aber eine ist Noindex und eine nicht - dann sind sie doch unterschiedlich. Das verwirrt uns dann also eher. Ihr solltet da einfach eine auswählen und mit Noindex stellen, dann lassen wir sie komplett fallen. Sind beide Seiten wirklich gleich, dann nutzt das Canonical. Unsere Systeme kennen die Kombination beider und können oft damit umgehen, aber es ist nicht empfehlenswert.  

Thema: Suchanalyse

Zeit: 08:41 Frage: Die Grafik der Suchanalyse in der Search Console weist bei einigen Suchbegriffen große Lücken auf. Viele Tage haben keine Werte, offenbar war man nicht vorhanden in den Serps. Warum? Ein zu schlechtes, nicht mehr erfasstes Ranking kann nicht die Ursache sein Antwort: Gerade diese Angaben beziehen sich auf das, was effektiv gezeigt wurde. Wenn eine Seite also nicht gefunden wurde, oder niemand nach dem entsprechenden Begriff gesucht hat, dann kann es eine Lücke geben weil es keine Daten gibt. Wir schauen da ja nur, was bei wirklich stattfindenden Suchen passiert ist. Es kann aber auch sein, dass eine Seite nicht immer sichtbar ist, weil sie z.B. auf Seite 2 oder 3 gelistet ist. Schaut der Nutzer dann nur die erste Seite an, dann wird die Website nicht angezeigt und produziert keine Daten.  

Thema: Noindex

Zeit: 10:36 Frage: Wir haben eine Seite die auf noindex und nofollow gesetzt ist, auf der Seite selbst gibt es keine Googlecodes wie Analytics etc, trotzdem tauch die Seite in den Suchergebnissen auf, was wir aber nicht wollen, was können wir tun? Antwort: Das könnte ein Fehler auf unserer Seite sein, denn das sollte nicht passieren. Es kann aber auch sein, dass die Seite gerade erst auf Noindex gesetzt wurde und wir sie daher noch neu crawlen müssen. Das kann Tage oder Wochen dauern, ihr könnt das aber durch Fetch as Google beschleunigen. Ansonsten könnte die Seite per robots.txt blockiert sein, wodurch wir den Nouindex gar nicht sehen können. In dem Fall müsstet ihr das aus der robots.txt löschen, damit wir sie crawlen und aus dem Index schmeißen können.  

Thema: Landing Page

Zeit: 13:53 Frage: Was unterscheidet eine gute Landing Page von einer schlechten Doorway Page (Cloaking)? Wir möchten Landing Pages als Teaser in den SERPs nutzen und von dort auf verschiedene redaktionelle Themensilos unserer Online-Dienste verlinken. Antwort: Gute Frage. Grundsätzlich müssen wir Informationen finden, die dem Nutzer wirklich dabei helfen, seine Suchintention zu erfüllen. Wenn es also nur Seiten sind, die die Keywords abdecken und sonst keine Hilfe sind - also z.B. Seiten, auf denen nur die Städtenamen ausgetauscht werden. Das wären Doorway Pages, die sich in der Suche nicht lohnen würden. Im Hinblick auf Teaser kommt es auf das Thema an. Wenn es eher eine Kategorieseite als ein Teaser ist, dann kann das funktionieren.  

Thema: Content

Zeit: 16:21 Frage: Was genau bedeutet "guter Content" für besseres Ranking im eCommerce? Was ist hier das Wichtigste für Google? Produktbewertungen? Produktbeschreibungen? Videos auf Kategorieseite? Antwort: Für uns ist wichtig, dass wir dem Nutzer genau das zeigen können, wonach er gesucht hat. Bei Produkten gibt es z.B. identische Produktbeschreibungen auf allen Seiten - das kann guter Content sein, ist aber mit vielen anderen Seiten identisch. Wenn also jemand nach diesen Inhalten sucht, suchen wir uns eine der Seiten mit diesem Inhalt aus - und das ist dann vielleicht nicht eure. Wenn man also eigene Inhalte hat, dann kann man unabhängig von den Seiten mit identischen Beschreibungen ranken. Bietet also die Infos an, die der Nutzer braucht und die ihm helfen. Damit verhindert ihr, dass ihr nicht mit den anderen zusammengeklappt werdet.  

Thema: Produkte

Zeit: 19:35 Frage: Es gibt Produkte in unserem Shop, die nahezu identisch sind. Sie unterscheiden sich nur in der Farbe (Schuhe). Wir haben entsprechend >1 URLs, weil natürlich >1 Produkte.Das sind keine Varianten, sondern eigene Artikel.Ist das DC? Was kann man dagegen tun? Antwort: Das ist zum teil DC, aber meistens nichts, was man gezielt verändern muss. Wir erkennen da, dass es ähnlich ist. Sucht jemand nach dem Produkt allgemein, dann klappen wir es zusammen und zeigen eine der Seiten - und zwar die, dir wir für am relevantesten halten. Sucht jemand nach einer bestimmten Farbe, dann zeigen wir die Farbe. Die Seite hat dadurch aber keinen Nachteil. Man kann sich aber trotzdem überlegen, ob man eine starke Seite macht, auf der alle Infos zu allen Variationen stehen. Das hängt aber vom Produkt ab.  

Thema: DC

Zeit: 22:51 Frage: Ist es schädlich, wenn man Produktbeschreibungen (vom Hersteller) im Shop anzeigt? Ist das ein DC Problem? Die werden ja auch in anderen Shops angezeigt. Antwort: Wie eben schon gesagt können wir das erkennen.  

Thema: Search Console

Zeit: 24:25 Frage: Bilder liegen auf einer externer Domain (CDN). Diese Bilder werden in der Sitemap gelistet. Innerhalb der Webmaster Tools wird jedoch bei der Indexierung 0 angezeigt, da die Bilder ja auf einer anderen Domain liegen. Gibt es hierfür eine Lösung? Antwort: ich glaube, dass ist bei Bildern allgemein so. Was man normalerweise machen kann, ist, dass man die anderen Domain auch in SC verifiziert um die Infos auch dort zur Verfügung hat. ich muss aber fragen, ob das auch bei Bildern funktioniert.  

Thema: Search Console

Zeit: 25:22 Frage: Gibt es demnächst neue Features in der Google Search Console für "normale Nutzer". AMP ist ja doch schon ein Level höher. Antwort: Wir versuchen, neue Funktionen nicht im Voraus bekannt zu geben. Aber für Beta-Tester gibt es immer neue Dinge zum ausprobieren.  

Thema: Preissuchmaschinen

Zeit: 26:34 Frage: Ist es realistisch mit Produkten VOR Preissuchmaschinen zu ranken, oder wird das quasi niemals möglich sein, da der Mehrwert aus Google Sicht dort höher ist als in einem einzelnen Shop (für den Google User)? Antwort: Dass ist sicher nicht immer der Fall. ich höre oft das Gegenteil von Leuten, die Preissuchmaschinen betreiben. Ich würde also davon ausgehen, dass das machbar ist. Aber es ist vielleicht nicht einfach.  

Thema: AJAX

Zeit: 27:48 Frage: Hallo John, wir würden gerne einige Inhalte auf unserer Seite über AJAX bei onload auf die Seite laden, wie sehen die Google-Bots diese Inhalte? hat das Nachteile für die Google-Suche? Antwort: Wir können JavaScript Inhalte mittlerweile gut erkennen. Wenn sie nicht blockiert sind, dann können wir sie für die Indexierung nutzen. Prüft es einfach via Fetch and Render, da sieht man schnell, ob Googlebot die Inhalte sehen kann. Aber es gibt nicht nur Google, also testet eure Seiten für alle Trafficquellen, die für euch wichtig sind. Denn Googlebot ist den meisten oft ein bisschen voraus und kann Dinge erkennen, die andere noch nicht verstehen.  

Thema: Impressum

Zeit: 30:43 Frage: Hallo John..bin leider nicht da..sehe es mir an: Frage:: ist eine Domain-Email verlinkt / nicht verlinkt auf Impressum / Contact in Deutschland ein Ranking Faktor? Antwort: Nein. Manche machen es als Bild, manche als E-mail Link. Macht es wie ihr wollt und wie es rechtlich richtig ist, aber aus SEO-Sicht ist es egal.  

Thema: Links

Zeit: 31:18 Frage: Kann Google Weiterleitungslinks mit Fragezeichen-Param. als Backlinks erfassen und bewerten? Geht man mit der Maus über den Link, so erscheint nicht die URL der Zielseite, sondern die URL der Quellseite, mit "?url=(zielseite.de)" hinten angehängt. Antwort: Meistens. Wenn wir die Weiterleitungen crawlen können, dann können wir sie dazunehmen. Manchmal führen sie aber über eine teil der Seite, auf dem wir per robots.txt blockiert werden, und dann können wir nicht folgen. Und oft sind die Links nicht im Quellcode, sondern im JavaScript. Und da wir keine Mausbewegungen ausführen, können wir sie dann oft nicht sehen.  

Thema: Ranking

Zeit: 33:57 Frage: Gibt es "Google Mitarbeiter" die das Ranking einer Seite beeinflussen können? Unsere Seite hat sich sehr stark geändert und an Qualität zugewonnen. Responsive, Schnell, Userangepasst, Force https usw. Das Ranking hat sich aber seit Monaten nicht geändert Antwort: Nun, unsere Algorithmen werden von Personen geschrieben. Also sind Personen in dem Sinne schon beteiligt. Aber Mitarbeiter ändern nicht händisch das Ranking, so viele Mitarbeiter haben wir gar nicht und es widerspricht auch unseren Prinzipien. Unsere Algorithmen sollen selbstständig und unabhängig arbeiten und wir akzeptieren die Entscheidungen. Aber wenn eine Seite gegen die Webmaster Richtlinien verstößt, dann kann das Webspam-Team manuelle Maßnahmen treffen, um die Sichtbarkeit einzuschränken oder die Seite aus den Ergebnissen zu nehmen. Das würde euch aber in Search Console mitgeteilt werden und wird immer von mehreren Personen kontrolliert.  

Thema: Ranking

Zeit: 37:50 Frage: Ich möchte für bestimmte Suchbegriffe (z.Bsp alle Artikel eines Shops) wissen, an welcher Position meine Websites bei einer Google Suche angezeigt werden und welche URL mit dem Ergebnis verlinkt ist. Um die Auswirkungen bestimmter SEO-Maßnahmen messen zu können, soll die Position für alle Begriffe in regelmäßigen Abständen (z.Bsp. 1 Mal im Monat) abgefragt werden. Welche programmgesteuerte Möglichkeit gibt es dafür? Ich habe es mit der Custom Search Api (CMA) versucht. Diese liefert aber andere Ergebnisse als die normale "manuelle" Google-Suche. Mit der CMA werden meine eigenen Sites gar nicht gefunden. Was muss ich bei den Einstellungen meiner CM Engine beachten Antwort: Aus unserer Sicht sind solche automatischen Anfragen gegen unsere Terms and Services und sollten nicht gemacht werden. Nutzt lieber Search Console und die Suchanalyse. Überlegt nicht, was theoretische Rankings sind - sondern konzentriert euch auf echte Rankings. Denn Ergebnisse sind oft personalisiert und ändern sich daher - und dem wird in Search Console Rechnung getragen. Man kann SC Daten auch per API abfragen, um das Ganze etwas zu Automatisieren.  

Thema: Index

Zeit: 40:28 Frage: Indiziert Google Kommentare von Plattformen wie facebook oder disqus? Wir konnten bei einem Mitbewerber in den SERP Snippets sehen, dass dort Teile der facebook Kommentare angezeigt werden. Wird der Inhalt dieser auch als Content der Seite "angerechnet"? Antwort: Zum Teil können wir das machen. Manche dieser Plattformen blockieren die Kommentare per robots.txt. Wenn die Kommentare aber beim Crawling erreichbar sind, dann können wir das machen. In solchen Fällen zählen die Kommentare als Teil der Seite und die Seite kann daher auch für sie ranken. Den ganzen Hangout könnt ihr euch hier ansehen: