Deutsches Google Webmaster Hangout Transkript, 21.10.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 21. Oktober 2016

Thema: Duplicate Content

Zeit: 00:40 Frage: Was kann man tun, wenn man gute Inhalte hat und diese von Seiten mit großer Popularität ohne Quellenangabe übernommen werden? Gibt es einen Weg, um zu zeigen, dass die Inhalte mir gehören? Antwort: Nein, da gibt es keinen automatisierten Weg, um Inhalte euch zuzuschreiben, denn andere könnten das ja auch machen. Das ist oft eine schwierige Situation, auch wenn wir Algorithmen haben, die versuchen, die Originalquelle herausarbeiten und der einen Boost verpassen.  

Thema: Duplicate Content

Zeit: 06:35 Frage: Wenn ich eine Suche nach einem halben Satz mache, wie groß ist das Problem, wenn die Originalquelle hier nicht direkt auftaucht? Antwort: Das ist normalerweise kein großes Problem. Wir haben beide Seiten im Index und für das Snippet wollen wir einfach Duplicates vermeiden. Diese künstlichen Suchen, auch die Seitenabfragen, zeigen nicht immer das, was bei normalen Suchanfragen im Ranking passiert.  

Thema: Penguin

Zeit: 08:13 Frage: 1. Können wir erwarten, dass alle alten Abstrafungen weg sind? 2. Man konnte mal die Zielseiten als 404 deklarieren um das Penguin Label loszuwerden, ist das noch möglich? Antwort: 1. Ja. 2. Das Label übertreibt es etwas, denn wir schauen uns nicht einzelne Links sondern das ganze Bild an. Aber ist die Seite 404, dann zählt nichts von dieser Seite mehr dazu. Das sollte man aber vielleicht nicht mit der Homepage oder einer wichtigen Seite machen.  

Thema: Manuelle Abstrafungen

Zeit: 09:50 Frage: Wenn man eine gute Seite hat, die immer alles richtig gemacht hat, während der Konkurrent eine Seite hat, die Penalties hatte. Bekomme ich dann einen Bonus, weil ich immer die Regeln befolgt habe? Antwort: Wir schauen uns immer den aktuellen Stand der Seite an. Ist dieser gut, dann wirken frühere Abstrafungen nicht nach. Aber solche Signale werden natürlich über mehrere Jahre gesammelt, wenn ihr also immer alles richtig gemacht habt, dann steht ihr sicher sehr gut da. Denn die anderen haben ja auch viel Müll gesammelt und werden das beim Aufräumen los, dadurch müssen sie natürlich viele neue Signale aufbauen, um wieder so gut zu werden wie vorher. Es gibt also keinen Bonus, aber ihr sammelt viele Signale.  

Thema: Content

Zeit: 14:10 Frage: Meine Seite ist 10 Jahre alt, sollte ich immer wieder Dinge aktualisieren, auch wenn sich in diesem Feld nicht so viele Dinge ändern? Antwort: Wir haben keinen Bonus für neue Dinge. Manchmal merken wir aber, dass Nutzer nach etwas neuem suchen. Und dann zeigen wir aktuellere Dinge, gerade, wenn es da gerade Änderungen gab. Dann könnt ihr neue Infos hinzufügen und uns das zeigen. Aber grundsätzlich ist es total ok, einen 10 Jahre alten Text zu haben, wenn der noch richtig und aktuell ist. Da müsst ihr nichts künstlich ändern. Macht einfach das, was für die Nutzer Sinn macht. Das kann eine Erneuerung des alten sein, es kann auch eine Aktualisierung des bestehenden sein. Ihr verliert auch nichts, wenn ihr etwas altes aktualisiert.  

Thema: Indexierung

Zeit: 17:56 Frage: Ist besser für die Seitenqualität besser, nur die absolut besten Seiten indexieren zu lassen? Wird das meinen Panda Score verbessern? Antwort: Ihr müsst euch überlegen, was für eure Seite und eure Zielgruppe Sinn macht. Ich würde wirklich schlechte Dinge verbessern. Ansonsten solltet ihr nicht alle Dinge, die nicht perfekt sind, deindexieren. Denn wir brauchen ja auch Kontext, um eure Seite gut zu ranken.

Thema: Video

Zeit: 19:26 Frage: Würden Video Reviews auf unseren Produktseiten als Rich Content gelten? Wir möchten Dinge z.B. von YouTube einbinden, hilft das beim Ranken oder ist das ein Problem wegen Duplikaten? Antwort: Je mehr Inhalte ihr zeigen könnt, desto besser. Vor allem, wenn der den Nutzern gefällt. Ob das eure Inhalte sind, oder ob ihr sie nur verlinkt, ist egal. Ist es aber einzigartig eures, dann solltet ihr das deutlich machen und solche Videos einbetten. Wenn auf einmal all eure Videos im Index sind, dann hat das mit der Videosuche und der Indexierung dort zu tun.  

Thema: Penguin

Zeit: 23:23 Frage: Werden wir durch Penguin mit der Zeit noch mehr Erholungen sehen oder sind schon alle ausgerollt? Antwort: Es ist komplett ausgerollt, für das erste Update ist also alles fertig. Aber wenn ihr weiter Dinge aufräumt, solltet ihr künftig schnellere Erholungen sehen.  

Thema: Video

Zeit: 24:58 Frage: Sieht Google es als meine Inhalte, wenn ich Videos von YouTube runterlade, sie mit ein paar eigenen Dingen aufpeppe und sie dann auf meinem Channel als neues Video hochlade? Antwort: Es ist glaube ich keine gute Arbeitsweise, Dinge runterzuladen, sie leicht zu ändern und sie dann als eure auszugeben. Das würde den Erstellern sicher nicht so gefallen. Vielleicht zeigen wir eure Seite aber als Landing Page in der Videosuche, das geht aber mit jeder Seite, auf der ihr ein Video einbindet und dazu viel Content erstellt.  

Thema: Content

Zeit: 26:25 Frage: Unsere Seite hat einige dieser E-Commerce Texte am unteren Ende der Seite. Sollen wir sie entfernen oder braucht ihr diese Inhalte? Antwort: Wir brauchen Inhalte auf Seiten, um sie zu verstehen und sie damit auch zu ranken. Wir können auch raten, wenn es Links zu einer Seite gibt, die aber durch robots.txt blockiert ist. Kategorieseiten sollten viele Infos bieten, wie die Navigation oder die Produkte, da wissen wir dann also schon einiges. Diese Texte am Ende der Seite sind dann nicht wirklich sinnvoll. Ihr solltet einfach ein paar Kategorien nehmen, die Texte entfernen und das Ganze testen.  

Thema: Seitenstruktur

Zeit: 30:35 Frage: Unsere Kunden stellen immer wieder die selben Fragen. Wir haben schon eine FAQ, die wird aber scheinbar nicht gelesen. Können wir diese Inhalte noch einmal auf den Produktseiten wiederholen? Antwort: So etwas kann man duplizieren. Das klappen wir in der Suche dann einfach zusammen, ihr bekommt aber keine Probleme.  

Thema: Content

Zeit: 32:47 Frage: Wie oft sollte ich historische Blogeinträge erneuern? Antwort: Wie vorhin gesagt werden Inhalte mit der Zeit nicht schlechter. Aber wenn neue Dinge Sinn machen, dann macht das.  

Thema: Interne Verlinkung

Zeit: 34:47 Frage: Wir wollen an verschiedenen Wochentagen verschiedene Banner zeigen, die auf Produkte in unserem Shop hinweisen. Können wir das machen? Antwort: Das ist total ok. Ein positiver Effekt wäre auch, dass wir erkennen, dass die verlinkten Dinge sehr relevant sind, da ihr sie von der Homepage verlinkt. Stellt aber sicher, dass es kein Interstitial wird.  

Thema: SERPs

Zeit: 36:22 Frage: Kann eine normale Suchanfrage mit der Zeit eine Navigational Suchanfrage werden? Antwort: Ja das kann theoretisch passieren. Navigational heißt, dass Nutzer genau diese Seite suchen - und das kann mit der Zeit ganz natürlich passieren. Unsere Systeme lernen dann, dass es um einen Brand oder eine spezielle Seite geht.  

Thema: Content

Zeit: 38:03 Frage: Wir verkaufen Spielzeug und wollen die Bedienungsanleitungen der Hersteller zum Download anbieten. Wird uns das etwas bringen, da es ja gute Inhalte sind? Und wenn wir sie noch mit zusätzlichen Dingen verbessern? Antwort: Viele linken dann zum original PDF der Hersteller und das wird auf vielen Seiten genutzt. Wir versuchen dann zu sehen, ob das PDF einzigartig ist. Wenn nicht, suchen wir uns ein Canonical aus - und das dürfte oft die Seite des Herstellers sein. Wenn ihr aber Dinge auf eurer Produktseite hinzufügen könnt, dann ist das super. Aber packt nicht nur den kopierten Text auf eine Produktseite. Eure Seite muss etwas anbieten, das man woanders nicht findet.  

Thema: Duplicate Content

Zeit: 41:21 Frage: Was ist der beste Weg, wenn wir CDN Cloudfront nutzen und diese Seiten auch im Index sind. Werden wir einen Duplicate Content Penalty erhalten? Antwort: Wir haben keinen Penalty für Duplicate Content, das ist ein technisches Problem. DC ist nur ein Problem, wenn ausschließlich Inhalte von anderen Seiten aggregiert. Da macht das Indexieren wenig Sinn, da wir die Inhalte schon haben. Wir würden eure Seiten denke ich zusammenklappen und dann eine zeigen.  

Thema: Crawling

Zeit: 44:20 Frage: Du hast gesagt, dass Google das Crawl-Limit per Server, nicht per Seite setzt. Was heißt das genau? Antwort: Wir versuchen, das passende Grouping zu finden. Das kann pro IP oder pro Server sein. Da ist aber nichts in Stein gemeißelt. Dinge können auch kombiniert oder klassifiziert werden. Nur weil ihr viele Seiten habt, sollten wir ja nicht das Crawlen verlangsamen - sondern es lieber aufsplitten, um so viele Inhalte wie möglich zu sehen. Die meisten Seiten können wir in der Praxis auch vernünftig crawlen. Wenn Nutzer eure Seite richtig ansehen können und euer Server durch das Crawlen nicht in die Knie geht, dann können wir wahrscheinlich alles sehen. Wenn ihr aber zu wenig oder zu viel Crawling seht, dann könnt ihr das Googlebot Team im Hilfecenter kontaktieren und eure Probleme mitteilen. Bedenkt aber, dass mehr Crawlen nicht mehr oder besser ranken bedeutet.  

Thema: Cloaking

Zeit: 48:17 Frage: Wir haben Probleme mit unserer Indexierung. Kann das daran liegen, dass wir eine Altersabfrage vorgeschaltet haben? Der Nutzer sieht diese, Googlebot sieht aber die Inhalte dahinter. Ist das Cloaking? Antwort: Da bräuchte ich mal eine URL, um mir das mal anzuschauen. Wir arbeiten gerade an einem Dokument, um solche rechtlichen Interstitials richtig einzubauen. Denn ihr müsst sie ja zeigen, und wir wollen ja trotzdem die Inhalte sehen.  

Thema: Penguin

Zeit: 50:35 Frage: Wie vorhin gesagt, machen viele Webmaster alles richtig auf Grundlage der Regeln. Aber selbst solche Nutzer bekommen mal einen schlechten Link. Ab wann müssen sie sich beim neuen Penguin Gedanken machen? Denn viele Webmaster wissen ja nicht mal, was das Disavow Tool ist. Antwort: Ja Disavow ist mit Absicht etwas gesondert, da die meisten Webmaster es nicht brauchen werden. Wir schauen uns die Signale über den Zeitverlauf an, und wer nichts im Black Hat Bereich macht, braucht sich keine Gedanken machen. Nicht jede kleine Firma muss sich jeden Link anschauen. Wenn wir dann mal einen schlechten Link sehen, dann ignorieren wir ihn einfach.  

Thema: URL-Struktur

Zeit: 54:58 Frage: Ich starte grad eine neue Seite. Es ist egal, ob ich www. oder non-www. nehme oder? Antwort: Das ist egal. Nutze aber am besten direkt Https. In Search Console brauchst du bei einer neuen Seite dann eigentlich auch nur die eine Variante. Es ist manchmal schön, alle verifiziert zu haben. Aber das macht es auch unübersichtlich.  

Thema: Fetch as Goole

Zeit: 56:30 Frage: In Fetch as Google zeigt ihr links, was Googlebot sieht und rechts, was Chrome sieht. Googlebot ist eine abgespeckte Version von Chrome, warum sind die Dinge dann nicht gleich? Antwort: Ist etwas von robots.txt blockiert, dann sehen Nutzer es, Googlebot aber nicht. Ist dann z.B. JavaScript oder CSS blockiert, dann siegt Googlebot das nicht und die Ansicht verändert sich deutlich. Gibt es keine in robots.txt blockierten Inhalte, dann sollten beide Ansichten gleich sein.   Den ganzen Hangout könnt ihr euch hier ansehen: