Google Webmaster Hangout Transkript, 06.04.2017

Thema: Redirect

Zeit: 00:07

Frage: Ich habe mir unsere Logfiles angesehen und der Googlebot sieht URLs, bei denen der letzte Buchstabe fehlt. Da sollte dann 404er bei rauskommen, das ist aber nur manchmal der Fall. Wir haben da Filter, die von unseren Partnern erstellt und per 301 weitergeleitet werden, das sind sehr viele. Sollten die also lieber 404er sein?

Antwort: Da würde ich mir keine Sorgen machen. Wenn die URLs zu etwas anderem gehören, dann leitet das ruhig weiter.

 

Thema: Duplicate Content

Zeit: 01:47

Frage: Wir laden auf einem Reisebuchungsportal auf transaktionalen Seiten informational Content (konkret Reiseführer), der dem Enduser einen enormen Mehrwert bietet und ihm in seiner “Kaufentscheidung” hilft und zeigen diesen aus Usability-Gründen in einer Lightbox auf Wunsch des Users an – der Content befindet sich hier direkt im Quelltext (z.B. auf der Mallorca-Seite ein Mallorca Reiseführer).
Jetzt gibt es sehr viele Unterseiten z.B. auf Ortebene, auf denen der Mallorca-Reiseführer im Prinzip denselben Mehrwert liefert (mich interessiert als Enduser ja die ganze Insel, also z.B. auf der Alcudia-Seite wäre ein Mallorca-Reiseführer ebenfalls sinnvoll), weshalb wir dort versucht haben, den Content in der Lightbox per Ajax nachzuladen um DC zu vermeiden.
Wir haben auch mit den Zeiten gespielt, z.B. nachladen frühestens nach 10 Sekunden, weil zumindest laut Search Console unter “An Google Index senden” ab einer gewissen Zeit JS nicht mehr ausgeführt zu werden scheint, aber Google führt das JS trotzdem aus und indexiert den Mallorca-Reiseführer folglich auch auf allen Unterseiten.
Wenn das nun als DC gewertet wird, wäre es äußerst ungünstig. Andere “Tricksereien” wären natürlich denkbar, aber wir möchten hier keinen manipulativen Eindruck vermitteln – ganz im Gegenteil.
Gibt es saubere Möglichkeiten, Content nachzuladen, der eigentlich “zu einer anderen eigenen Seite” gehört, z.B. über iframe, allerdings besteht das “Original” nicht nur rein aus dem nachzuladenden Content? Zur eigentlichen Seite zu verlinken macht in diesem Fallbeispiel wenig Sinn, denn wenn sich ein User schon “konkretisiert” hat, wollen wir ihn nicht wieder weiter von seiner Entscheidung weg treibe.

Antwort: Aus meiner Sicht sollte es da keine Probleme geben, wenn die Inhalte auf mehreren Produktseiten zu sehen sind. Wir versuchen dann einfach, uns daraus eine Hauptseite auszusuchen und diese in den SERPs zu zeugen. Wenn mehrere indexiert werden, dann ist das auch kein Problem und schadet eurer Qualität auch nicht.

 

Thema: Duplicate Content

Zeit: 03:30

Frage: Wenn Google das mittlerweile alles so gut erkennen kann, was ist denn dann überhaupt noch problematischer Duplicate Content?

Antwort: Eher Inhalte, die einfach von anderen Seiten zusammengeklaut werden. Also alles, was gescraped oder gespinnt ist und damit Spam darstellt. Aber Dinge, die es aus Usabilitygründen mehrfach gibt, sind ok.

 

Thema: AMP

Zeit: 04:31

Frage: 1. Gibt es Beschränkungen, wie viele AMP Seiten man in einer bestimmten Zeit an den Index schicken kann (entweder über Cach-Control-Mechanismus oder über aktiven update ping)?

2. Unter welcher URL laufen die Seitenaufrufe im GA Frontend ein? Bei der Einbindung über Google Tagmanager und Parameter gtm.url=SOURCE_URL ist dokumentiert, dass Google die URL “selbst ermittelt”. Ist das dann diejenige URL, der AMP-Version einer Seite?

Beispiel: Die AMP-Seite example.com/test-amp.html zeigt per canonical auf die Desktop-Version example.com/test.html > Beim Aufruf der AMP-Seite direkt über den Google Cache wird die test-amp.html in GA getrackt?

Antwort: 1. Nein. 2. Das weiß ich nicht auswendig. Ich vermute über das Canonical oder über die AMP-URL, die ihr ausliefert. Es sollte eigentlich nicht die AMP Cache URL sein, die ist ja künstlich. Aber wenn ihr euch nicht sicher seid, fragt mal im Analytics-Forum nach.

 

Thema: URL-Struktur

Zeit: 05:37

Frage: Wir haben einen URL-Change (eigentlich hat sich nur der Name des Verzeichnisses geändert) vollzogen und eine kleine Änderung in der Art und Weise wie die URLs funktionieren gemacht. Es geht um Reise-Daten. Damit der Kunde nicht jedes Mal seinen Zeitraum und Filter neu einstellen muss, wird im Local Storage geschaut, ob diese Informationen bereits vorhanden sind.

Bsp:
Filter URL
/Urlaubsort-1-Name/UUID//01042017-14042017/familyhotel

Canonical
/Urlaubsort-Name/UUID

Diese Informationen werden dann Client-seitig in die URL gepusht wenn z.B. eine andere Destination geöffnet wird.

/Urlaubsort-2-Name/UUID
wird zu
/Urlaubsort-2-Name/UUID//01042017-14042017/wellness

Die URLs mit Filtern und Dates haben natürlich ein Canonical. Wird diese aber mit Daten im Local Storage aufgerufen, wird die URL wieder geändert.

Ist dies für den Crawler und oder die Indexierung problematisch?

Außerdem werden unvollständige Filter redirected

/Urlaubsort-1-Name/UUID/-/01042017-14042017/familyhote
301 zu
/Urlaubsort-1-Name/UUID/

und kein 404, was ja eigentlich von euch erwartet wird.

Antwort: Grundsätzlich verwendet Googlebot keinen Local Storage zwischen den einzelnen Crawls. Jeder Aufruf ist eine neue Session ohne Informationen vom letzten Versuch. Googlebot sieht also immer die Standardversion und das sollte in eurem Fall ok sein. Die leichten Anpassungen für wiederkehrende sollten ok sein, vor allem, weil der normale Nutzer, der durch die Suche zu euch kommt, ja meistens sicher auch die Standardvariante sehen sollte. Auf die Rankings sollte das auch keinen großen Einfluss haben, aber ihr müsst auf das Crawling achten. Also stellt sicher, dass sich das Crawling nicht nur auf die Filterseiten beschränkt. Man kann auch Parameter einbauen und diese dann i Parameter Handling vom Crawlen ausschließen. Ansonsten kann man die URLs auch per robots.txt blockieren.

 

Thema: Seitenstruktur

Zeit: 13:02

Frage: Ist es aus Sicht von Google ein Nachteil wenn man das URL-routing clientseitig (Browser) macht?

Antwort: Ich denke das ist wie eine SPA, wo man mit einer HTML Seite arbeitet und die Inhalte dann per JavaScript holt. Das kann man machen, man braucht aber saubere URLs mit Parametern oder im Pfad. Denn nur so können wir erkennen, dass es unterschiedliche Inhalte gibt. Kontrolliert das auch mit Fetch as Google.

 

Thema: Bilder

Zeit: 14:15

Frage: Google crawlt Tonnen an Artikelbildern auf unserer Seite. Der Traffic auf diesen Seiten/Bildern geht gegen 0. Da ich mit Crawl-Budget-Problemen zu kämpfen habe, überlege ich diese Bilderpfade für den Google-Imagebot zu blockieren. Macht diese Überlegung Sinn?

Antwort: Klar, wenn ihr die Bildersuche nicht braucht und das stört, dann kann man das machen. Aber vielleicht crawlt der normale Googlebot sie trotzdem nochmal, wenn wir die Seiten rendern. Ansonsten kann man die Bilder auf ein CDN auslagern oder mit Caching arbeiten, damit sich der Traffic auf diesen Bildern nicht so dramatisch auswirkt.

 

Thema: Ranking

Zeit: 15:28

Frage: Wir haben Ende 2015 einen neuen Onlineshop mit Shopware gelauncht. Alles lief prima bis Anfang diesen Jahres. Wir haben fleißig die Produktinhalte gepflegt und stetig sinnvolle Inhalte für die User aufgebaut. Die Sichtbarkeit und auch der Traffic der Seite sind langsam aber kontinuierlich gewachsen. Anfang diesen Jahres sind diese Werte total eingebrochen und die Besucher waren wieder fast gleich null. Was haben wir falsch gemacht das dies passiert ist. Wir wissen hier absolut nicht mehr weiter.

Antwort: Schwer zu sagen, da müsstest du mir mehr Infos geben. Mach mal einen Thread im Hilfeforum auf und schicke mir dann denk Link auf Google+

 

Thema: Social Signals

Zeit: 16:16

Frage: Viele offizielle Seiten haben einen Social Media Account, der vielfach statisch oder wenig unterhalten wird, werden diese Beiträge gecrawlt, wie bei einem Blog oder verzichtet Google auf diesen Content?

Antwort: Wir crawlen Social Media Seiten, wenn sie öffentlich sind, wie alle anderen Seiten auch. Vielleicht sind sie auch per Markup verknüpft. Wir behandeln sie auch nicht gesondert.

 

Thema: Fetch as Google

Zeit: 17:05

Frage: Was macht genau die “Abruf wie durch Google” ?

Antwort: Da kann man in Search Console sehen, wie Googlebot eure Seite sieht. Entweder als HTML oder als gerenderte Version. Da kann man dann testen, ob wie die Seite so sehen, wie ihr sie haben wollt.

 

Thema: Hreflang

Zeit: 17:51

Frage: 1. Sollten hreflang-Attribute auch auf mobilen Seiten eingebunden werden? In unserem Fall werden Besucher mit mobilen Geräten serverseitig auf m. ….. .de weitergeleitet.

2. Wir haben noch nicht für alle Desktop-Domains eine entsprechende mobile Seite. Sofern auf mobilen Seiten hreflang-Attribute eingebunden werden sollten, kann dann von dort auf eine Desktop URL verwiesen werden?

3. Ist schon absehbar, ob es bald eine Testumgebung für hreflang-Attribute geben wird?

Antwort: 1. Hreflangs sind uns eigentlich vor allem auf dem Canonical wichtig. Aber beim Mobile First Index werden wir die mobile Seite anschauen und dann sollte der Tag auch dort zu finden sein. Kopiert einfach den Link vom Desktop auf die Mobile Version. 2. Da kann man das auch wie eben beschrieben machen. 3. Da ist momentan nichts geplant. Ich rede aber immer wieder mit dem Team, um so etwas aufzubauen. Es gibt auch andere Tools, die das Markup kontrollieren.

 

Thema: Hreflang

Zeit: 19:36

Frage: Wohin sollen die Hreflang zeigen, wenn die Seite per Canonical zu einer anderen Seite verweist (z.B. um Tracking Parameter zu entfernen oder grundsätzlich DC zu verhindern)?
Oder sollte dann kein Hreflang ausgespielt werden?

Beispiel
– domain.de/damen
– domain.at/damen
– domain.ch/Damen
verweisen jeweils auf sich und auf die anderen Varianten
Was muss nun auf folgernder Seite ausgesteuert werden?
– domain.de/Damen?parameter=1

Antwort: Es sollte immer zwischen den Canonicals sein. Ihr könnt das auch auf nicht-Canonicals machen, z.B. mit einer URL mit Parameter auf eine saubere URL. Das schadet nicht, aber wir werden uns vor allem auf das Canonical konzentrieren.

 

Thema: Hreflang

Zeit: 20:54

Frage: Angenommen ich verwende momentan ccTLDs für Länderwebsiten (z.B. www.produktname.de, www.produktname.it, etc).
Gegen Ende Q3 plane ich diese auf Unterverzeichnisse zu migireren (z.B. .com/de, etc).
Kann ich dann schon jetzt die href langs der neuen Struktur verwenden, wenn ich das Unterverzeichnis (z.B. .com/de auf produktname.de) 301 weiterleite, um mir eine doppelte Implementierung/ Update der href langs zu sparen?

Antwort: Wahrscheinlich würden wir das nicht verwenden können. Wenn das dann auf eine Weiterleitung verweist, dann nehmen wir vielleicht das Weiterleitungsziel als Canonical und dann geht es nicht.

 

Thema: Googlebot

Zeit: 22:33

Frage: Unterstützt der Googlebot “if-modified-since” / 304 “not modified” nur für HTML-Dokumente, oder bspw. auch für JS- und CSS-Dateien? Werden diese Dateien generell von den Googlebots (gemeinsam) gecacht oder immer für jede Seite neu geladen?

Antwort: Ja wir unterstützen das eigentlich für alle Arten von Dateien. Ihr braucht aber saubere Header. Wenn wir Dinge wie JavaScript bei uns cachen, können wir uns einige Arbeit sparen.

 

Thema: Crawling

Zeit: 23:22

Frage: wir haben uns für First Click Free bei unseren Registrierungsschranken an support.google.com – Websites mit Registrierung und Abo – News-Hilfe und den dort verlinkten weiterführenden Inhalten orientiert.

Nun sind wir stutzig geworden, da wir bei „Fetch and Render“ in der Search Console in der Ansicht “So hätte ein Besucher Ihrer Website die Seite gesehen” die Schranke gerendert bekommen. Das Rendern geschieht dort augenscheinlich ohne Referrer und rendert daher die Schranke statt den Artikel, den der Crawler und Besucher mit Referrer dank First Click Free sehen können.
Ist das so korrekt oder besteht die Gefahr, dass ein Automatismus hier fälschlicherweise Cloaking vermutet?

Antwort: Ja das ist eigentlich korrekt. In Fetch and Render seht ihr die Variante ohne Refferrer, Googlebot sieht natürlich eine andere. Kontrolliert also, dass Googlebot die richtigen Inhalte sieht und man auch als Nutzer die richtigen Inhalte sieht, wenn man mit dem Google-Referrer aus den SERPs zu euch kommt.

 

Thema: Sitelinks

Zeit: 24:31

Frage: Gibt es eine Möglichkeit die Darstellung der Sitelinks zu beeinflussen? Google scheint eine Kurzversion des Title Tags zu nehmen. Das ist nicht immer hilfreich. In unserem Falle ist der Title ein geschützter Begriff “On!Track” – Google nimmt wohl wegen das ! nur das Wort “Track”.

Antwort: Das kann man aktuell nicht beeinflussen. Wenn etwas falsch ist, solltet ihr mir die entsprechenden SERPs zuschicken, dann kann ich das an das Team weitertragen.

 

Thema: Noindex

Zeit: 25:22

Frage: Wir haben aktuell mehrere Tausend Seiten die wir aus dem Google Index entfernen möchten. Die Seiten haben entweder ein NOINDEX oder wurden gelöscht (404), sind aber noch größtenteils im Google Index. Über die Search Console lassen sich diese ja direkt entfernen, aber fließen diese Seiten dann auch nicht mehr in den Google Algorithmus ein oder werden sie nur in der Ergebnisliste “ausgeblendet”? Crawlt google diese Seiten vor dem Entfernen?

Da die Seiten nirgends verlinkt sind und auch in keiner Sitemap braucht Google leider sehr lange um die Seiten selbst aus dem Index zu entfernen. Wie können wir das Bereinigen unserer indexierten Seiten am besten beschleunigen?

Kann ich z.B. alle Seiten der Domain per Search Console entfernen und dann gezielt die gewünschten Seiten per “Abruf wie durch Google” wieder indexieren lassen? Oder greift dann weiterhin die Entfernung/das Ausblenden der Seiten die ich davor eingerichtet hatte und es wird nichts indexiert?

Antwort: Wenn es ein kritisches Problem ist und die Inhalte sofort weg müssen, dann kann man das URL Entfernungstool nutzen und das vielleicht auf Verzeichnisebene rausnehmen. Das entfernt die Inhalte aber nicht aus dem Index, sondern unterdrückt sie nur so, dass sie nicht angezeigt werden. Für die Nachhaltigkeit sollte man dann eine Sitemap nutzen, da wir die Seiten erst wieder crawlen müssen, bevor sie aus dem Index fallen. Da kann man dann ein Änderungsdatum für die URLs eingeben und wir crawlen das dann etwas schneller. Aber an sich werden wir sie eh irgendwann crawlen, den Noindex sehen und die Seiten fallen lassen – auch ohne, dass ihr etwas tut.

 

Thema: Fetch as Google

Zeit: 27:32

Frage: Du sagst, man kann überprüfen, ob Google die Seite richtig rendert. Laut Heatmaps schauen Nutzer immer zuerst nach oben Links und es scheint, als wären Keywords, die dort stehen, sehr relevant für Google. Analysiert Google so etwas wie die Seitenkoordinaten?

Antwort: Wir versuchen schon, festzustellen, wo die Dinge auf der Seite stehen. Soweit ich weiß heben wir Dinge aber nicht aufgrund ihrer Position hervor. Wir wollen wissen, ob oben z.B. Werbeblöcke oder so etwas stehen.

 

Thema: Pagespeed 

Zeit: 28:59

Frage: Im englischen Hangout wurde gesagt, dass der Pagespeed bei Mobile First ein Rankingfaktor wird. Worum geht es dabei genau, die Daten aus Insights oder die wirkliche Ladedauer?

Antwort: Das steht noch nicht fest. In erster Linie möchten wir aber das berücksichtigen, was der Nutzer sieht.

 

Thema: Google Interna

Zeit: 30:50

Frage: Google crawlt ja fast nur aus Kalifornien. Wird sich das mal ändern?

Antwort: Wir haben damit schon mal angefangen, so vor zwei oder drei Jahren. Aktuell crawlen wir auch von Süddkorea, China und Australien aus, glaube ich. Wenn Benutzer einer Seite eher in einem bestimmten Land sind, dann versuchen wir das nachzustellen. China mit seiner starken Firewall ist da ein gutes Beispiel. Wir können aber nicht aus allen möglichen Ländern crawlen. Wir würden dann alle Inhalte mehrfach sehen und die Server würden wegen all den Googlebots in die Knie gehen. Ich denke also nicht, dass wir das kurzfristig großartig ausbauen werden. Weil man könnte das ja auch noch weiter runterbrechen und dazu noch aus allen möglichen Großstädten crawlen. Und das würde einfach keinen Sinn machen. Deswegen müssen auch bei Personalisierungen die Standardblöcke immer sichtbar sein.

 

Thema: Crawling

Zeit: 34:20

Frage: In unseren Logs tauchen immer wieder Crawls mit dem User Agent Media-Parters-Google auf mit einer identischen IP.  Wo kommt der her?

Antwort: Soweit ich weiß ist das der Bot von AdSense. Und wenn ihr AdSense verwendet, dann solltet ihr das zulassen, wenn nicht, dann blockiert das ruhig. Diese AdSense Zugriffe benutzen wir aber nicht für die Websuche, das ist bei uns beides komplett getrennt.

 

Thema: AMP

Zeit: 36:03

Frage: Bei AMP Seiten werden die Rich Snippets oft von der Desktop-Seite gezogen, obwohl wir auf der AMP-Variante selbst gar keine haben. Ist das ok oder sollten wie die auf der AMP noch nachtragen?

Antwort: Das sollte eigentlich ok sein. Auf der AMP kann man glaube ich auch nicht alle Markups zu nutzen, deswegen versuchen wir, zusätzliche Infos vom Desktop zu nehmen. Wir nehmen ja auch für das Ranking die Desktop-Seite, da sie das Canonical ist. Im Hinblick auf Mobile First müssen aber alle Markups, die wir sehen sollen, bei separaten Mobilseiten eingetragen werden.

 

Thema: 404

Zeit: 37:38

Frage: Wenn ich einen Blick in die Google Search Console in den Bereich “Crawling Fehler – Nicht gefunden” werfe, stolpere ich immer wieder über folgende Frage: Wieso crawlt der Googlebot nicht einfach die Seiten der eingereichten Sitemap?Wieso kommt der Bot immer wieder auf Seiten, die schon lange nicht mehr existieren (seit dem Relaunch der Seite im Jahr 2015 nicht mehr) und für die berechtigterweise ein 404 eingerichtet ist? Schaue ich mir das “Erkannt-Datum” ein, werden immer wieder nicht mehr vorhandenen Seiten gecrawlt.

Antwort: Wir verwenden die Sitemap zum einen, um das Crawling zu erweitern. Wir crawlen also normal und nehmen die Infos aus der Sitemap dann noch dazu. Wir sehen einfach, dass viele Sitemaps nicht mehr aktuell sind und wir möchten die Websites für so etwas nicht bestrafen. Bei 404ern erinnern wir uns einfach daran, dass sie mal existiert haben, und wollen sicher gehen, dass wir nichts verpassen. Es ist auch vollkommen ok, wenn dann dort ein 404 kommt. Ihr könnt auch sehr viele 404er haben, das ist ganz normal.

 

Thema: Bewertungen

Zeit: 39:30

Frage: Irgendwie sind die Google Sternchen auf unserer .de Domain in der Suche verschwunden.
Sowohl beim Produkt als auch auf der Domain.
Auf unserer .com und .fr Domain werden sie angezeigt.
Bewertungen werden von Trusted-Shops und Ausgezeichnet.org ausgegeben.
Kannst du sagen, was da passiert ist.

Antwort: Ich habe mir das kurz angeschaut und ihr habt eine manuelle Abstrafung durch das Webspam Team erhalten. Schaut mal in Search Console, da solltet ihr eine Benachrichtigung erhalten haben. Wenn euch dann etwas unklar ist, könnt ihr das im Forum zur Diskussion stellen.

 

Thema: Ausgehende Links

Zeit: 41:24

Frage: Eine Frage zu den Anchor Tags: Wir schreiben viele Ratgeber und verlinken am unteren Ende des Artikels in einer Quellen-Sammlung auf externe Seiten oder andere Ratgeber. Ist es schädlich, wenn erst dort die Quelle genannt wird und dann die H1 der Zielseite komplett verlinkt ist? (z.B. goo.gl/qev16U). Wie ist es denn generell mit Verlinkungen Fließtext? Es heißt ja häufig, dass Keywords nicht “hart” verlinkt werden sollen.

Antwort: Grundsätzlich ist das ok.

 

Thema: Mobiloptimierung

Zeit: 42:06

Frage:Wir haben (noch) eine eigene mobile Subdomain, die Inhalte und Pfade sind identisch (mobil.koeln.de/xxx entspricht www.koeln.de/xxx )

Gem. Google-Doku für dieses Setup liefern wir auf der mobil-Domain
canonical-Header aus, die auf den jew. Desktop-URL zeigen.
In der Desktop-Sitemap, sind alle Inhalte, die auch mobil
verfügbar sind, mit xhtml:link href=”…” media=”only screen and (max-width: 640px)” rel=”alternate” erweitert.

Die Search-Console gibt für die mobile Site eine tägliche Crawl-Rate
von 2000-4000 URLs an (durch Serverlogs bestätigt). Dennoch
zeigt die Sitemap-Prüfung an, dass nur 450 von 8000 eingereichten
URLs indexiert sind. Sitemap-Fehler werden keine gemeldet.

Was läuft da schief?

Antwort: Grundsätzlich läuft da nichts schief. Wenn wir die Verknüpfung sauber sehen können, wird das nicht separat indexiert. Wichtig ist die Anzahl für das Canonical.

 

Thema: Redirect

Zeit: 43:28

Frage: Wir haben 4000 Redirects auf unserer Website und unsere Web-Agentur hat vorgeschlagen, den größten Teil von diesen zu entfernen (Server-Umzug). Es sind alte Seiten, die nicht Teil unserer Website sind. Macht es Deiner Meinung nach generell Sinn, Redirects zu entfernen (läuft zB die Website dadurch besser)? Falls 404er enstehen (da alte Seiten noch irgendwo ge-indexed sind) – könnten diese negativ für SEO zu bewerten?

Antwort: Das hängt davon ab, wie viel Traffic noch auf diese Seiten geht. Sind das viele Nutzer oder kommt Googlebot oft vorbei, dann behaltet das bei. Ansonsten kann man das auch entfernen, nach einem Jahr zum Beispiel.

 

Thema: Sitemap

Zeit: 44:37

Frage: Macht es Sinn, die alte Sitemap mit alten URLs in der Search Console parallel zur neuen Sitemap liegen zu lassen, bis die neuen URLs komplett indexiert sind? Oder sollte ich die alte Sitemap direkt entfernen, wenn ich die neue sende?

Antwort: Kann man machen. Wir haben das mal gerade bei Umzügen und Https Wechseln empfohlen. Da könnt ihr dann ein Änderungsdatum einbauen, damit wir die Weiterleitungen noch besser sehen. Seid euch aber bewusst, dass die Anzahl der indexierten URLs in der alten Sitemap nicht wichtig ist.

 

Thema: Noindex

Zeit: 47:00

Frage: Ich habe eine Website auf der viele URLs durch die Robots.txt gesperrt sind (login-Bereich). Diese URLs waren teilweise durch interne Links für den Crawler erreichbar. Ich habe nun die Links, die auf die geblockten Seiten geführt haben, entfernt. Leider sind durch diese Links dennoch einige der Seiten in den Google Index geraten, jeweils mit dem Hinweis, dass die Seite durch die Robots.txt gesperrt ist. Werden diese Seiten nun wieder aus dem Index verschwinden, nachdem ich die internen Links auf sie entfernt habe oder ruft der Crawler diese URLs nun direkt auf? In diesem Fall müsste ich ja die Robots.txt deaktivieren und auf den entsprechenden URLs das noindex-Tag platzieren.
Was ist das optimale Vorgehe?

Antwort: Wie viele der Seiten erscheinen denn in den normalen Suchergebnissen? Sind das nur ein paar, die man ausschließlich per Seitenabfrage sieht, dann kann man das ignorieren. Ihr könnt die Impressions in Search Console sehen. Wollt ihr sie dann loswerden, müsstet ihr die Sperre in robots.txt entfernen und ein Noindex einbauen. Dann können wir die Seiten sehen, das Noindex verarbeiten und sie dadurch aus dem Index schmeißen.

 

Thema: Search Console

Zeit: 48:31

Frage: In der Search Console haben wir aktuell 3 Property-Einträge:
1. alte URL (http://www.domain.de (wird nicht mehr verwendet)
2. https://www.domain.de
3. https://mobile.domain.de

Wir haben vor rund 5 Monaten von Property 1 auf 2 migriert. Wann können wir Property 1 löschen? Sollten wir vorher Daten sichern? Welche Daten werden gelöscht? Hat das Löschen von Property 1 Auswirkungen auf Property 2 und 3?

Aktuell muss ich für Auswertungen immer seperat mir die Infos von Property 2 und 3 anschauen. Gibt es eine Möglichkeit die Daten “zusammen zu margen”? Damit ich die Auswertungen nicht doppelt machen muss…

Antwort: Löschen könnt ihr sie, das hat keinen Einfluss auf die Suche. Wenn dort keine relevanten Daten mehr sind, dann ist das ok. Man kann aber auch ein Property-Set erstellen, dann wird für die Suchanalyse alles kombiniert.

 

Thema: Schema.org

Zeit: 49:58

Frage: Ich habe noch eine Frage bezüglich den strukturierten Daten… Auf unserer Website veröffentlichen wir u.a. Veranstaltungen, die wir nach Schema.org ausgezeichnet haben… In der Search Console werden die strukturierten Daten auch auf mehrere tausend Seiten erkannt… Allerdings werden die Events in den SERP’s nicht angezeigt.

Wir haben das Test-Tool für strukturierte Daten verwendet… Fehler werden uns keine angezeigt nur ein paar Warnungen…

Wo kann hier das Problem liegen???

Antwort: Schwer zu sagen. Bei strukturierten Daten muss alles technisch korrekt sein. Wenn es bei Search Console und im Testing Tool erscheint, dann sollte das der Fall sein. Außerdem muss alles gemäß unserer Richtlinien stimmig sein. Wenn es keine manuellen Maßnahmen gibt, dann sollte das auch stimmen. Und die Seite muss von so guter Qualität sein, damit wir dem Markup vertrauen. Da könnt ihr euch mal Meinungen von Dritten im Hilfeforum holen.

 

Thema: Updates

Zeit: 51:48

Frage: Seit rund 4 Wochen sind unsere Google-Positionen teilweise massiv eingebrochen… Im Internet wurde in dieser Zeit sehr intensiv über “größere” Google-Updates spekuliert… Kannst du hierzu etwas sagen? Wir wissen nicht mehr weiter. Wie können wir dem Grund für die Verschlechterung auf die Spur kommen?

Antwort: Wir machen jeden Tag Updates, es kann also immer wieder Veränderungen geben. Auch hier sind die Hilfeforen ein guter Ort.

 

Thema: Rich Results 

Zeit: 53:02

Frage: In den SERPs werden auch mal Tabellen angezeigt. Kann man Google verbieten, dass solche Rich Results von einer Seite angezeigt werden? Weil wenn man die Tabelle schon sieht, muss ja niemand mehr auf die Seite?

Antwort: Man kann mit dem NoSnippet Tag arbeiten. Dann ist aber das ganze Snippet weg, außer dem Title. Es geht auch nur seitenweit. Vielleicht ist es aber auch eine gute Sache, so ein Snippet zu erhalten. Viele arbeiten auch gezielt darauf hin, so ein Snippet zu erhalten.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN

Nach meinem Studium der Politikwissenschaften (Schwerpunkt Diplomatie) habe ich im Juni 2015 das SEO Portal bei der imwebsein GmbH mitgegründet. Seit Januar 2017 bin ich nun als Chefredakteur für den redaktionellen Teil zuständig. Daneben kümmere ich mich als ehrenamtlicher Pressewart um die Öffentlichkeitsarbeit des Badminton-Club Tempelhof.

Hinterlasse eine Antwort