Google Webmaster Hangout Transkript, 11.08.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 22. August 2017

Thema: Google Updates

Zeit: 00:50 Frage: Wir haben immer weniger Traffic, seit das Fred Update rauskam. Uns ist dabei aufgefallen, dass wir bei Long Tail Abfragen von den Seiten verdrängt wurden, die unsere Inhalte geklaut haben. Woran kann das liegen? Antwort: Das könnte vieles sein, aber ich weise darauf hin, dass Fred nur etwas von SEOs ist. Wir haben da nicht ein Update gemacht, sondern mehrere normale Änderungen durchgeführt. Ich denke, dass unsere Qualitätsalgorithmen vielleicht eure Seite nochmal neu angeschaut haben und sie nicht mehr so gut finden. Wenn es sich nur um Kopien eures Inhalts handelt, dann schick mir das mal und ich schaue mir das mal mit dem Team an. Bei sehr langen Suchbegriffen kann das aber auch passieren.  

Thema: Noindex

Zeit: 04:53 Frage: Ich habe zwei Seiten, die eine Seite hat ein Noindex und verweist mit einem Canonical auf die andere. Wird dabei auch das Noindex weitergegeben? Antwort: Das ist schwierig. Wir haben schon vor langem diskutiert, was wir da machen sollen. Denn Noindex sagt ja "nimm die Seite aus dem Index" und das Canonical sagt "diese Seiten sind gleich". Da ist schon Potential gegeben, um unsere Algorithmen zu verwirren. In der Praxis versuchen wir da aber, das Canonical einfach zu ignorieren.  

Thema: Search Console

Zeit: 06:22 Frage: Wenn wir unsere Zahlen für Branded und non-branded queries zusammenzählen, dann kommen wir irgendwie nie auf die Zahl, die eigentlich rauskommen müsste. Antwort: Wir filtern in der Suchanalyse auch immer mal queries raus, die total selten sind. Auf der Per Page Basis kannst du die genaue Zahl sehen.  

Thema: Google Interna

Zeit: 08:48 Frage: Vergibt Google beim Launch einer neuen Untersiete direkt etwas PageRank? Antwort: Wir nutzen PageRank eh nur intern, das hilft euch also gar nichts, euch darüber Gedanken zu machen. Wir versuchen einfach, zu verstehen, wo eine neue Unterseite hinpasst. Wenn wir einer Seite schon sehr vertrauen und sie sehr gut finden, dann wirkt sich das natürlich auch auf neue Seiten aus. Wenn wir wissen, dass eine Website nur spammt, dann wirkt sich das vielleicht ebenso aus.  

Thema: Google Interna

Zeit: 13:10 Frage: Von wie vielen Algorithmen sprichst du, wenn du von den "Google Qualitätsalgorithmen" sprichst? Antwort: Darüber reden wir nicht. Wir haben über 200 Rankingfaktoren, aber die Anzahl von Algorithmen ergibt für euch auch keinen Sinn, da manche ja vielleicht nur total nebensächliche Dinge tun.  

Thema: Ranking

Zeit: 14:13 Frage: Wir haben eine EMD, die für unser Hauptkeyword einfach nicht mehr rankt. Wir haben in zwei Jahren fast 45% organischen Traffic verloren, was können wir tun? Antwort: Ich habe mir die Seite noch nicht anschauen können. Grundsätzlich haben solche langfristigen Änderungen aber nichts mit einer Sache zu tun - vielleicht wurde die Relevanz weniger oder die Inhalte mit der Zeit schlechter. Das ist ja auch normal, dass sich Dinge im Netz mit der Zeit ändern. Und daran müsst ihr euch anpassen. Nur weil das Keyword im Domainnamen steht, müsst ihr dafür euch nicht direkt ranken.  

Thema: Search Console

Zeit: 16:19 Frage: Hat es einen negativen Einfluss auf die Rankings, wenn man Search Console und Analytics nicht einbaut? Antwort: Nein. Analytics nutzen wir soweit ich weiß eh gar nicht für die SERPs. Es gibt auch andere Tools, die euch gute Informationen geben. Sucht euch das aus, was für euch am besten funktioniert.  

Thema: Negative SEO

Zeit: 17:55 Frage: Was ist für Unternehmen, die Black Hat Attacken ausgesetzt sind, der beste Weg, um sich dagegen zu wehren oder mit Google ins Gespräch zu kommen? Antwort: Das ist immer eine schwierige Situation. Ich empfehle, dass ihr das Disavow File nutzt und das auf dem Domain Level anwendet. Wenn ihr euch da unsicher seid, dann sind die Hilfeforen eine gute Anlaufstelle.  

Thema: Ranking

Zeit: 19:52 Frage: Meine Partnerin fotografiert Tierportraits und ihre Website ist für "Tierportraits" und andere Suchbegriffe aus den SERPs gefallen. Woran kann das liegen? In Search Console gibt es keine Nachrichten, kann das eine versteckte manuelle Abstrafung sein? Antwort: Es gibt keine versteckten manuellen Abstrafungen, wenn da etwas wäre, würdet ihr es in Search Console sehen. Fluktuationen sind mit der Zeit auch normal.  

Thema: Backlinks

Zeit: 22:00 Frage: Andere Seiten verlinken mit Anktertexten, die sich auf Marken beziehen, auf unsere Kategorieseiten. Ist das ok? Antwort: Wenn das natürliche Links sind, ist alles ok. Wo die Links auf einer Seite hingehen, hängt ja immer von der Seite und den Nutzern ab.  

Thema: Ausgehende Links

Zeit: 22:43 Frage: Wie geht Google mit Seiten um, die nur Nofollow Links vergeben? Antwort: Dann geben wir keine Signale von der Seite weiter. Wir nehmen die Links so, wie sie kommen.  

Thema: Search Console

Zeit: 23:37 Frage: Was sind URL-Fehler und wie können wir sie automatisch beheben? Antwort: Du meinst wahrscheinlich Crawlingfehler in Search Console. Schau dir da einfach mal den Artikel im Hilfecenter an.  

Thema: Redirect

Zeit: 24:03 Frage: Weiterleitungen sollen für ein Jahr drin bleiben. Ist das auch der Fall, wenn die weiterleitende Seite direkt nach dem Einbau der Weiterleitung gecrawlt wird? Antwort: Ich würde schon sagen, dass das länger drin bleiben soll. Es ist ja eine dauerhafte Weiterleitung, die sollte also auch so lange wie möglich oder dauerhaft drinbleiben. Wir sollten die Weiterleitung auch öfters sehen, damit wir sicher sein können, dass sie dauerhaft ist.  

Thema: Ranking

Zeit: 25:41 Frage: Wie lange kann es dauern, bis der Algorithmus Seiten mit spammigen Links herunterstuft? Ich sehe ein paar Seiten, die mit solchen Links auf Platz eins ranken. Antwort: Das höre wir immer wieder. Es ist aber so, dass wir viele Faktoren für das Ranking nutzen. Vielleicht ignorieren wir die spammigen Links, weil der Rest sehr gut ist. Sie rankt also nicht wegen der Links gut, sondern trotz der Links.  

Thema: Internationale Websites

Zeit: 27:56 Frage: Macht unlisted für Seiten Sinn, die Geotargeting für mehrere Länder haben? Antwort: Das sagt einfach, dass ihr gar kein Geotargeting nutzen wollt. Das wäre also sehr selten, zum Beispiel wenn eure Domain früher nur regional getargeted war und jetzt international ausgerichtet wird.  

Thema: JavaScript

Zeit: 29:38 Frage: Crawlt und indexiert ihr Inhalte hinter toggle JavaScript Tabs? Antwort: Aktuell zählen versteckte Inhalte etwas weniger, das ändert sich aber mit dem Mobile First Index.  

Thema: Tags

Zeit: 34:08 Frage: Wir haben so viele Seiten, dass ich gerne die hinteren Noindexieren, aber dabei die Follow-Pagination drinlassen. Dann weiß, Google, dass es sich um eine Produkreihe handelt, muss aber nicht alle Übersichtseiten indexieren und wir sparen Crawlbudget. Antwort: Das kannst du machen. Wir werden die Seiten aber weiterhin crawlen, schau dir also mal den Blogpost zum Crawlbudget an.  

Thema: Strukturierte Daten

Zeit: 40:27 Frage: Ich habe vor einer Woche mein Markup geändert, wie lange dauert es, bis sich das in der Suche widerspiegelt? Antwort: Sicher länger als eine Woche, das kommt auf das Crawling an. Bei manchen Unterseiten wird es also schnell gehen, bei anderen wird es dauern. Und dann dauert es noch ein paar Tage, bis Search Console das richtig berichtet. Ihr könnt eine Sitemap mit Last Modification Date einreichen, dann geht das vielleicht ein bisschen schneller.  

Thema: Bewertungen

Zeit: 41:50 Frage: Hat es für mich SEO-Vorteile, wenn ich per API Bewertungen von anderen Seiten einbinde? Sollte ich die Bewertungen selbst sammeln? Antwort: Es gibt keinen automatischen SEO-Bonus für Bewertungen. Ein Markup mit Sternen ist eine gute Sache, da musst du dir aber nochmal die Regeln anschauen.  

Thema: Indexierung

Zeit: 44:16 Frage: Ich habe aus Versehen meine Testseite indexiert. Ich habe sie dann wieder deindexiert und bekomme nun viele Crawling Fehler. Und wenn ich diese als bearbeitet markiere, kommen die später wieder. Antwort: Das ist ein komplett normaler Vorgang. Das bearbeitet ist nur für euch, wir crawlen die URLs trotzdem immer mal wieder und geben dann wieder die Fehler aus.  

Thema: SERPs

Zeit: 45:53 Frage: Wenn ich nach meinem Firmennamen suche, denkt Google, dass ich einen Schreibfehler gemacht habe und zeigt mir total unpassende Ergebnisse an - und dass, obwohl das gesuchte Wort sogar im Wörterbuch steht und der Vorschlag von Google nicht. Antwort: Das passiert, wenn wir denken, dass es Sinn macht. Für Firmennamen, die Schreibfehlern ähneln oder wo die Firma neu ist, kann das dann passieren. Un sere Systeme lernen das dann mit der Zeit automatisch, da kann man manuell nichts tun.  

Thema: Manuelle Abstrafungen

Zeit: 48:08 Frage: Wir starten bald einen Shop und haben zur Vorbereitung ein paar Artikel zum Thema Shops veröffentlicht. Google sieht das als Spam und jetzt haben wir Angst, dass auch der Shop als Spam eingestuft werden wird. Antwort: Wenn ihr eine manuelle Abstrafung loswerdet, dann ist das ok. Wir haben keine Algorithmen, die auf Grundlage der Vergangenheit dann auch in Zukunft ein Auge haben.  

Thema: Search Console

Zeit: 49:29 Frage: Der Uncommon Downloads Fehler kommt immer häufiger, was kann man da machen? Antwort: Dieser Fehler kommt bei seltenen Downloads oder solchen mit einzigartigen generierten Nummern, bei denen wir nicht wissen, was dahinter steckt. Du kannst entweder dafür sorgen, dass die Files keine einzigartigen Tags mehr generieren - oder in Search Console einen Scan beantragen. Dann kennen wir das File und der Fehler kommt nicht mehr. Das Auftreten des Fehlers ist also kein Zeichen, dass auf jeden Fall etwas nicht stimmt. Vielmehr heißt es, dass wir die Hintergründe des Files nicht kennen.   Den ganzen Hangout könnt ihr euch hier ansehen: