Deutsches Google Webmaster Hangout Transkript, 10.03.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 10. März 2016
Heute fand ein weiterer deutscher Hangout mit John Mueller statt. Wie gewohnt könnt ihr hier in aller Ruhe nachlesen, worüber im Einzelnen gesprochen wurde.

Thema: Domainumzug

Zeit: 00:54 Frage: Seiten nach Domainumzug noch/wieder im Index: Wir erleben in letzter Zeit mehrere Fälle, in denen umgezogene Seiten (komplett 301) wieder im Index landen/dort bleiben. In welchen Fällen passiert das, wie lässt sich das beheben & wie negativ sind die Auswirkungen? Antwort: Negativ sollte das auf jeden Fall nicht sein. Aber wir wissen vielleicht, das die Inhalte mehrere URLs haben, aber andere Signale zeigen uns, dass die eine Seite besser ist. Im Endeffekt ist es aber für euch egal, welche Seite im Index ist - denn der Traffic geht ja immer zur selben Seite. Wir suchen uns dann einfach auf Grundlage mehrerer Faktoren die Version aus, die wir im Index zeigen. Wenn das eine bestimmte sein soll, sorgt dafür, dass Canonicals, interne Links, Sitemaps und alles andere immer auf dieselbe Seite hinweisen. Aber wenn jemand gezielt nach der alten URL sucht, dann können wir die auch im Index anzeigen, wenn eigentlich die neue indexiert ist. Schaut euch einfach mal die indexierten URLs in Search Console an.  

Thema: Absolute Links

Zeit: 04:15 Frage: Ist es besser für die interne Verlinkungen, wenn nur absolute Links (mit http://www …) verwendet werden? Antwort: Ihr könnt im Prinzip beides verwenden. Aber wenn ihr umzieht oder die Struktur ändert, dann sind absolute Links etwas deutlicher. Aber schaut einfach, was für euch praktischer ist.  

Thema: Ranking ohne Links

Zeit: 05:09 Frage: Kann eine gute Internetseite, mit Informationshoheit und inhaltlicher Überlegenheit, gegenüber konkurrierenden, mit guten Backlinks ausgestatteten Seiten, ohne Backlinks auf den ersten 3 natürlichen Positionen in der Suchmaschine Google ranken? Antwort: Ja, das kann schon passieren. Gerade mit neuen Webseiten kann das durchaus passieren. Es kann theoretisch funktionieren - aber in der Praxis kann das, gerade bei neuen Seiten zu starken Suchbegriffen, unter Umständen schwierig sein. Aber das ist ja mit einem Ladengeschäft auch nicht anders - man muss erst einmal auf sich aufmerksam machen.  

Thema: Ranking

Zeit: 06:36 Frage: Wir betreiben ein Vermietportal unter https://www.rentinorio.de. Bis Ende 2014 waren wir sehr gut bei Google gelistet. Momentan sind wir in der SERPs so gut wie nicht mehr zu finden. Sämtliche getroffenen Maßnahmen waren erfolglos. Was können wir tun? Antwort: Ich habe da keine schnelle Lösung gefunden. Macht einfach mal einen Thread im Hilfeforum auf. Aber allgemein hat sich seit 2014 viel verändert, damals gut zu ranken heißt also nicht, dass man auch heute gut ranken muss.  

Thema: Duplicate Content

Zeit: 07:37 Frage: Wie handhabt es Google, wenn jemand ein identisches Inserat gleichzeitig auf 2 Portalen veröffentlicht? Sind dadurch Duplicate Content Probleme auf Seiten der Portal-Webmaster zu befürchten? Antwort: Grundsätzlich ist es so, dass solcher DC erkannt wird - aber es verursacht nicht automatisch Probleme oder manuelle Maßnahmen. Solche Sachen passieren im Internet und wir können damit umgehen und das erkennen. Wenn jemand gezielt danach sucht, dann wählen wir eine der Seiten aus und zeigen sie in den SERPs an. Ich würde das nicht als problematisch ansehen, aber trotzdem solltet ihr die Nutzer dazu bringen, euch einzigartige Inhalte zur Verfügung zu stellen. Denn sonst bringt es euch ja wenig.  

Thema: 301

Zeit: 09:43 Frage: Wie lange sollten Webmaster aus Sicht von Google 301-Redirects aufrechterhalten? Ist dies ausschließlich anhand des Traffics, der über diese Redirects läuft zu bemessen? (Kontrast: Systembelastung durch zu viele Redirects vs. Linkjuiceweiterleitung) Antwort: Vom Namen her sind das natürlich permanente Weiterleitungen. Aber in der Praxis kann man sie auch irgendwann loswerden: Einen Zeitrahmen kann ich da nicht geben. Aber nach einem Jahr haben wir das sicher gesehen und der Wert der alten Seite sollte auf die neue übergegangen sein. Wir sollten es aber mehr als einmal sehen, um eine Bestätigung zu erhalten. Außerdem können wir dann neue Links, die auf die alte Seite zeigen, nicht mehr sehen. Stellt also sicher, dass die alte Seite nicht mehr genutzt wird.  

Thema: Rechtschreibung

Zeit: 11:38 Frage: Welchen Einfluss hat die Aktualisierung der Inhalte, z.B. Optimierung der Rechtschreibung/Grammatik oder auch Satzbau für besseres Verständnis des Inhalts? Antwort: Wahrscheinlich wenig. Da seht ihr eher den indirekten Einfluss, dass Nutzer es besser verstehen und entsprechend weitergeben. Wir haben aber keinen Grammatikprüfer auf unserer Seite. So etwas könnten wir aufgrund der vielen unterschiedlichen Sprachen nicht umsetzen.  

Thema: Interne Links

Zeit: 13:07 Frage: Sind nofollow Attributes für interne Links (z.B. zu den AGB, Login, etc...) schädlich? Sollte man diese Art von "nutzlosen" Seiten optional direkt über die robots.txt blocken? Antwort: Für interne Navigation würde ich ganz normale Links verwenden. Unsere Systeme wissen, wie sie mit solchen normalen Seiten umgehen müssen. Solche Sitewide Links stören uns dann nicht. Ihr bekommt also keine SEO Vorteile, wenn ihr solche Links versteckt, nofollowed oder blockiert.  

Thema: Schema.org

Zeit: 14:27 Frage: Schema.org: Kann unter der Property „Organization“ das „Aggregate Rating“ aus Kundenbewertungen für alle Arten von Seiten verwendet werden (Homepage, Landing Page, etc.)? Darf die Auszeichnung auf mehreren Seiten verwendet werden oder nur auf einer Seite? Antwort: Grundsätzlich möchten wir, dass sich Rich Snippets auf die primären Inhalte der Seite beziehen. Wenn ihr also eine Firmenbewertung auf einer Produktseite habt, ist das gegen unsere Richtlinien. Auf Bewertungsseiten für Firmen kann es aber passen. Sonst sind es eher Testimonials, die suchen wir aber nicht in den Rich Snippets.  

Thema: Duplicate Content

Zeit: 15:54 Frage: Duplicate Content ist ja ein bekannter Rankingfaktor. Wieso können einige Seiten trotz MASSIVEM DC auf einer TOP Position (Platz 1-2) ranken? Es wurde nur der ORT ausgetauscht und sonst sind die Texte für eine Vielzahl an Städten identisch. Antwort: DC ist nicht wirklich ein Rankingfaktor. Was du meinst, sind eher Doorway Pages - und solche Seiten verstoßen gegen die Richtlinien. Da solltet ihr am besten einen Spamreport aufsetzen. Denn es kann passieren, dass auch einmal Dinge ranken, die gegen unsere Richtlinien sind. Da müssen wir dann manuell nachschauen.  

Thema: Search Console

Zeit: 17:46 Frage: Wird es demnächst eine App oder eine mobilfreundliche Version der Google Search Console geben? Antwort: Gute Frage, das wäre nett. Normalerweise geben wir keine versprechen heraus, aber hier haben wir keine konkreten Pläne. Es gibt aber eine API für Search Console - wer will kann also Dinge selbst umsetzen. Wir konzentrieren und im Moment auf die Desktop Version, da hier noch der größte Bedarf ist. Wir wissen aber, dass das gegen unsere eigenen Empfehlungen zur Mobilfreundlichkeit geht.  

Thema: Relaunch

Zeit: 19:06 Frage: Gibt es Fälle, bei denen es sinnvoll ist, nach einem Relaunch die gute alte Seite auf einer anderen Domain weiterlaufen zu lassen, wenn beispielsweise bei der Neuprogrammierung zwei völlig unterschiedliche, aber wertvolle Internetseiten entstanden sind? Antwort: Ja, das kann man machen. Dann ist es für uns aber nicht wirklich ein Relaunch, sondern eher eine Aufteilung. Wir nehmen dann die neue Seite dazu und ranken sie entsprechend. Man kann also nicht alle Signale weitergeben oder davon ausgehen, dass beide Seiten gleich gut funktionieren. Bei einem Relaunch hingegen können wir die Signale eins zu eins weiterleiten.  

Thema: Tags

Zeit: 21:11 Frage: Behandelt Google normale Meta Tags und X-Robots-Tags im HTTP-Header gleichwertig? Was passiert, wenn beides gesetzt ist, aber mit unterschiedlichen Werten? Welchen nimmt Google? Antwort: Ja, wir behandeln sie gleichwertig. Im Zweifelsfall nehmen wir immer die restriktivere Version. Der Standard ist Follow, Index. Und wenn etwas Restriktiveres angegeben wird, dann nehmen wir immer diese.  

Thema: Disavow

Zeit: 22:15 Frage: Wenn man mehrere Properties zu einer Domain hat (Subdomain, Unterordner), muss man dann jeweils alle Links ins Disavow-Tool setzen oder reicht es bei einer? Antwort: Grundsätzlich muss man es dort hinzunehmen, wo die Links gezählt werden. Macht das, wenn möglich, auf der höchsten Ebene. Bei Subdomains muss man es also einzeln machen. Bei Ordnern geht es auf der Hauptdomain.  

Thema: Duplicate Content

Zeit: 23:02 Frage: Canonical Tag: Wir möchten Kindartikel (https://goo.gl/5EOSE2) zum Ranken bringen und haben daher den Canon-Tag entfernt. Es handelt sich jedoch um Duplicate Content. Außer der Zusatz im Titel ,,2mm" (Stärke) ist alles gleich. Hat es negative Auswirkungen? Antwort: Ich konnte mir die Seite nicht anschauen. Aber in der Regel müssen wir beide Varianten neu indexieren und dabei erkennen, dass sie unterschiedlich sind. Und dann ist es eine Frage des Rankings. Sucht jemand gezielt nach dem Zusatz, zeigen wir vielleicht die Neue. Ansonsten eher die Alte, weil sie mehr Signale hat. Es ist aber in dem Fall schwerer, zu ranken, da nun zwei Seiten unabhängig voneinander Signale sammeln müssen. Da müsst ihr abwägen, ob das langfristig Sinn macht.  

Thema: Links

Zeit: 25:38

Frage: Eine Domain, die wir auf unsere aktuelle weiterleiten, hat leider schlechte Links, die wir aber bei der aktuellen Domain per Disavow entwertet haben. Reicht das aus oder müssen wir die alte Domain anmelden und dort die schlechten Domains auch entwerten? Antwort: Wir nehmen immer die verlinkende Seite und die Zielseite. Alles, was dazwischen weiterleitet, berücksichtigen wir nicht groß. Wenn eine Seite also an euch weiterleitet, dann müsst ihr die schlechten Links auf eurer Zielseite disavowen.  

Thema: Kurze Texte

Zeit: 26:53 Frage: Bei einigen Seiten mit Wandertouren hat die Wegbeschreibung oft weniger Text als der automatische Wetterbericht darunter. Kann das ein Problem sein? Antwort: Ich denke, das sind Sachen, mit denen wir umgehen müssen. Wir versuchen dann, die Hauptinhalte zu finden und uns für das Ranking auf diese zu konzentrieren. Aber stellt sicher, dass nicht auf der ganzen Seite mehr automatische Inhalte sind als normale. Auf einzelnen Seiten würde ich mir darüber aber keine Sorgen machen.  

Thema: News

Zeit: 28:08 Frage: Nach dem Relaunch unserer Seite produktion.de sind wir in die Google News aufgenommen worden. Seit einiger Zeit werden die News aber unterschiedlich ausgespielt: Einmal mit der korrekten Headline, dann aber wieder nur anhand der Dachzeile. Warum? Antwort: Da müsst ihr euch an das News Team wenden. Da gibt es einen Link im News Hilfecenter.  

Thema: Seitenanzahl

Zeit: 29:37 Frage: Was hat es zu bedeuten, wenn mit der site:-Abfrage z.B. 300 Seiten bekannt sind, aber dann doch schon auf der Google Seite 2 plötzlich Schluss ist und aus den 300 Seiten nur noch 20 angezeigt werden? Wie viele Seiten sind dann wirklich auffindbar im Index? Antwort: Die Zahl bei der Seitenanfrage ist eine stark optimierte Vereinfachung. Wir rechnen das auf Grundlage des bisherigen Crawlings zusammen. Das liegt manchmal total daneben und manchmal stimmt es. Nutzt für bessere Zahlen die Sitemaps.  

Thema: Private Blog Netzwerke

Zeit: 31:35 Frage: Private Blog Netzwerke - Ich finde immer wieder PBNs in den Suchergebnissen und frage mich, wie das kommt. Wenn man sich die eingehenden Links mal anguckt, ist auf den ersten Blick erkennbar, dass es nur expired Domains sind. Beispiel: https://goo.gl/l5xR9G Antwort: Wie gesagt können unsere Algorithmen nicht alles finden. Ihr könnt uns also mit Spam Reports helfen, damit wir uns das einmal manuell anschauen können.  

Thema: Zwei Seiten

Zeit: 32:40 Frage: Wir haben 2 verschiedene Homepages, zum Teil mit sehr ähnlichen Seiten und Titeln, die sich überschneiden. Die eine Homepage hat ein gutes Ranking, die andere hat mit den Hauptseiten ein schlechtes Ranking. Hat die Parallele einen Einfluss? Antwort: Es sind wahrscheinlich einfach zwei Seiten, die wir separat anschauen. Daher können sie in den SERPs sehr unterschiedlich erscheinen. Versucht vielleicht, eine wirklich starke Website daraus zu machen. Auch wenn es bei zwei Seiten noch ok ist.  

Thema: Produktbilder

Zeit: 34:26 Frage: Unsere Seite hat viele Produktseiten. Die URLs werden auch in einer Sitemap eingereicht. Sollte man Produktbilder in eine eigene Sitemap packen (nur f. Bilder) oder reicht es für Google, die Bilder bei der bereits vorhandenen Sitemap zu ergänzen je Produkt? Antwort: Aus unserer Sicht ist es total egal, wie ihr die Sitemap aufteilt. Macht es, wie ihr wollt. Wir holen uns die Infos automatisch heraus, dann ist uns egal, aus welcher Sitemap das kommt.  

Thema: Mehrsprachig

Zeit: 35:19 Frage: Bei Veranstaltungen haben wir nicht alle in alle Sprachen übersetzt. Im „Google Event Carusel“ wird als Quelle oft die EN Url angegeben und nicht die DE... Soll ich die en/Veranstaltungen besser per Robots ausschließen oder was kann hierfür der Grund sein? Antwort: Bei einem Beispiel hat die deutsche Seite einmal ein 404 zurückgegeben, deswegen hatten wir nur die englische und haben die angezeigt. Schließt aber nicht die andere Version aus, sondern macht das lieber sauber mit dem Hreflang.  

Thema: Einbinden

Zeit: 36:40 Frage: Wir haben das Problem, dass wir für einige Inhalte einen zusätzlichen Anbieter verwenden und die Inhalte per Schnittstelle in unsere Seite einbinden. Nur ist dieser Anbieter aber mit unseren Inhalten vor uns in der Suche zu finden... (URL hast du). Antwort: Ja, das kann passieren. Wenn die Inhalte verfügbar sind, dann versuchen wir, sie zu indexieren und darzustellen. Dabei treffen wir beim Ranking nicht immer die Wahl, die ihr gerne hättet. Vielleicht könnt ihr ein Canonical setzen. Außerdem solltet ihr Crawlingprobleme ausschließen.  

Thema: Aus dem Index entfernen

Zeit: 38:55 Frage: Wir haben einige Seiten/Folder im Index, die wir entfernen möchten (DC und fehlende Übersetzungen). Ist es ok, wenn ich den ganzen Ordner in den Webmastertools ausschließen lasse und anschließend die Seiten auf noindex/nofollow setze und in robots.txt ausschließe? Antwort: Das sind verschiedene Maßnahmen, die man treffen kann. Wenn ihr es in Search Console ausschließt, dann bleibt es in unserem internen Index, wird aber nicht mehr in den SERPs angezeigt. Das kann sehr schnell gehen. Das Noindex kann etwas dauern, da wir neu crawlen müssen, bevor die Seiten aus dem Index fliegen. Bei robots.txt können wir nicht mehr crawlen. D.h. im schlechtesten Fall, dass die URL im Index bleibt, aber die Inhalte nicht mehr gezeigt werden können. Dann wissen wir nicht, dass die Seiten nicht mehr existieren. Ich empfehle das Noindex, das ist die natürliche Art.  

Thema: Duplicate Content

Zeit: 41:41 Frage: Duplicate Content: Sollen technische Daten (Technische Daten, Weiterverarbeitung, etc), welche Dublẹtten bilden, auf einer externen URL ausgelagert werden? Beispiel: https://goo.gl/E8t2Kj Wird Relevanz bei Entfernung der Dubletten auf der Seite entzogen? Antwort: Grundsätzlich würde ich die weiterhin zeigen, wenn sie für euch relevant sind. Ich sehe da jetzt gar nicht so viele technische Daten. Solche Dinge gehören aber dazu und müssen daher nicht blockiert werden. Eure Seite wird deswegen nicht herabgestuft.  

Thema: Gleiche Namen

Zeit: 43:59 Frage: Wir haben einen Mitbewerber, der mit Absicht einen fast identischen Namen für seinen Shop verwendet, damit er auch unter unserem Namen gefunden wird. Kann man dies irgendwie vermeiden, das der Mitbewerber unter unserem Markennamen gefunden wird? Antwort: Aus unserer Sicht nehmen wir die Inhalte, wie sie kommen. Wenn es da markenrechtliche Probleme gibt, dann müsst ihr das unter euch klären und dafür sorgen, dass da alles rechtlich stimmt.  

Thema: Search Console

Zeit: 45:16 Frage: In SC bekommen wir die Nachricht "Zunahme von Seiten mit dem Fehler "Nicht gefolgt" auf http://...". Bemängelt wird die erhebliche Zunahme der Weiterleitungen. Wann wird eine solche Meldung ausgelöst? Antwort: Normalerweise kommt das, wenn es Weiterleitungen sind, die wir nicht direkt verfolgen können - z.B. JavaScript oder Meta Refresh. Wir sehen sie dann, können sie aber nicht verfolgen und schauen sie irgendwann später noch einmal an. Aus unserer Sicht ist das ein Zeichen, dass wir eure Inhalte nicht immer optimal sehen können. Schaut euch dann mal eure internen Weiterleitungen an. Oft sind das aber auch nur einzelne Seiten, sodass man das ignorieren kann. Schaut es euch aber an und überlegt, wie ihr uns das Leben einfacher machen könnt.  

Thema: Index

Zeit: 47:10 Frage: Für unsere Seite www.heckenpflanzen.de haben wir eine Sitemap in den WMT hinterlegt, wonach auch 476 URLs indexiert wurden. Unter dem Indexierungsstatus steht jedoch nur insgesamt 1 Seite indexiert. Woran kann das liegen? Antwort: Das weiß ich nicht, ich muss mir das mal anschauen. Es kann aber daran liegen, dass alles neu ist. Dann braucht es immer ein paar Tage oder eine Woche, bis die Daten angeglichen werden. Fragt vielleicht mal im Webmaster Hilfeforum nach.  

Thema: Privates Blog Netzwerk

Zeit: 48:39 Frage:  Eine Seite rankt mit einem sehr auffälligen privaten Blog Netzwerk. Kann ich euch das irgendwo melden? Antwort: Ja, ihr könnt ein Webspam Formular ausfüllen. Wenn es etwas Größeres ist, könnt ihr mit das auch gerne per Google+ schicken. Dann kann ich mir das mal anschauen. Ich kann aber nicht garantieren, dass wir uns das sofort anschauen. Manchmal entwirft das Team auch eine allgemeine Lösung für die Algorithmen, dann kann das etwas dauern.  

Thema: Produktseiten

Zeit: 49:46 Frage: Google indexiert Produktseiten von Angeboten, die innerhalb kurzer Zeit verkauft sein können. Jetzt kommt ein Nutzer auf die Seite und findet nicht mehr, was er gesucht hat und geht wieder. Hat diese "schlechte" Experience Einfluss auf die komplette Domain? Antwort: In der Regel ist das kein Problem. Wir wissen, dass solche Dinge passieren können. Aber überlegt euch, wie ihr Usability nutzen könnt, um dem Nutzer andere Angebote näher zu bringen. Zum Beispiel ein Link auf neue oder ähnliche Produkte, dann kann es trotzdem eine gute Nutzererfahrung werden.   Den ganzen Hangout könnt ihr euch hier ansehen: