Indexierung

Werbung

 


Kernaussagen:

  1. Google arbeitet aktuell daran, den Mobile First Index aufzubauen. Dann wird die mobile Version einer Siete als Grundlage zur Indexierung genommen.
  2. Am besten ist es, eine responsive Seite zu haben. Dann braucht man alles nur einmal einzustellen.
  3. Google garantiert nicht, alle Unterseiten einer Website zu indexieren. Die Suchmaschine nutzt nur das, was ihr sinnvoll erscheint.

07.07.2017, 45:22

Frage: Wie kann man herausfinden, ob eine URL indexiert ist oder nicht?

Antwort: Da kannst du info:URL nutzen und schauen, was wir da zurückgeben. Die gecachete Seite muss nicht immer das sein, was wir indexieren. Und manchmal haben wir auch keine gecachete Seite, haben aber trotzdem etwas indexiert.


30.06.2017, 39:33

Frage: Google hat uns gesagt, dass unsere Seite nicht mehr durch Safe Search gefiltert wird, aber es scheint doch so zu sein. Kann man den Prozess irgendwie beschleunigen.

Antwort: Wir haben uns das angeschaut und das Team sagt, dass das einfach etwas dauert. Es kann ein paar Wochen dauern, es läuft aber alles so, wie es soll. Das läuft dann auch pro URL, es wird also Schritt für Schritt gehen.


27.06.2017, 30:45

Frage: Bei unserer Seite sieht man ausgehende Links in der mobilen Ansicht nicht, da sie hinter JavaScript stehen. Was können wir da für den Mobile First Index tun?

Antwort: Wenn wir das JavaScript Crawlen und Rendern können, ist das ok für uns. Dafür muss aber alles im JavaScript sichtbar sein. Man kann die Links am einfachsten in den Quellcode einbauen. Die Seite muss aber auch für die Usability funktionieren, nicht nur für den Googlebot.


27.06.2017, 11:39

Frage: Du hast mal gesagt, dass der Mobile First Index auch die Desktopergebnisse verändern kann. Meinst du damit, dass eine schlechte mobile Seite das Ranking auf dem Desktop verschlechtern würde?

Antwort: Ja, theoretisch schon. Wenn ihr Inhalte nicht auf der mobilen Seite habt, dann werden wir sie nicht mehr indexieren können. Daher sollten beide Versionen so gleich wie möglich sein. Wenn es nur eine Desktopseite gibt, dann werden wie die auch weiterhin indexieren. Es wäre also fast besser, keine Mobilversion zu haben, als eine sehr schlechte.


02.06.2017, 24:25

Frage: Wie können wir sehen, welche URLs schon indexiert wurden? Weil Google hat 95 von 100 URLs in der Sitemap indexiert und ich weiß nicht, welche fünf ich manuell angehen muss?

Antwort: Es gibt keine Listen der indexierten URLs. Ihr könnt mehrere Sitemaps mit kleinen Sets erstellen. Aber schaut nicht so sehr auf die Zahlen den indexierten Seiten, sondern darauf, dass die Seiten in den SERPs relevant sind und gut ranken.


02.06.2017, 13:55

Frage: Wir haben vor kurzem ein paar Seiten von .net.au zu .com.au umgezogen und seitdem extreme Trafficverluste verzeichnet. Kann man sehen, ob die alten Signale übernommen wurden oder die Seiten nun als neue gelten?

Antwort: So ein Umzug muss immer auf Grundlage der Schritte im Hilfecenter passieren, vor allem allem mit Weiterleitungen für jede URL. Vielleicht haben unsere Algorithmen aber auch gerade eure Seite neu bewertet und deshalb passiert das. Schaut also mal, wann genau das angefangen hat. Ansonsten solltet ihr das mal im Hilfeforum posten.


02.06.2017, 03:33

Frage: 1. Wir haben für mobil aktuell Dynamic Serving, steigen aber auf eine PWA um, die das ersetzen wird. Aus technischen Gründen kann diese aber nicht dieselben URLs wie die Desktop Version haben und wird daher auf eine .m Domain gepackt (mit Canonicals und Alternates). Was kann in diesem Fall passieren und was müssen wir beachten? 2. Google hat gesagt, dass Canonicals und Alternates für den kommenden mobile First Index bleiben können, wie sie sind. Aber was ist bei neuen Einstellungen wie unseren? Sollen wir das Canonical immer noch zum Desktop zeigen lassen oder das schon ändern?

Antwort: 1. Da müsst ihr genau die Dinge beachten, die ihr bei jeder mobilen Seite beachten müsst. Da müssen also die Verbindungen mit Canonicals und Alternates haben. Außerdem müssen wir die PWA crawlen können, das könnt ihr mit Fetch as Google testen. Damit sollten wir alles erkennen können. Da sollte es auch keine großen Fluktuationen geben, da wir ja bisher noch nicht die mobile Version zum Indexieren nutzen. Es kann aber etwas dauern, bis wir die neuen Verbindungen alle richtig erkennen und dann auch mobil das passende ausspielen – aber auf das Ranking sollte das keinen Einfluss haben. 2. Das kann alles so bleiben wie bisher. So erkennen wir die Verbindung und wechseln bei Mobile First einfach die indexierte Version aus. Ich kann nicht versprechen, dass die Canonicals immer so bleiben müssen, wir wollen das bei der Umstellung aber so einfach wie möglich machen.


16.05.2017, 22:03

Frage: Wie soll für den neuen Mobile First Index das Canonical aussehen, wenn man eine separate mobile Seite hat?

Antwort: Unser Ziel ist, dass ihr so wenig wie möglich ändern müsst, und das soll auch für Canonicals gelten. Das geht zum Beispiel nicht, wenn auf der mobilen Seite Inhalte fehlen – in solchen Fällen müsst ihr natürlich nacharbeiten.


05.05.2017, 25:40

Frage: Warum wird meine Seite indexiert, wenn Google die indexierten URLs nach wenigen Minuten wieder aus dem Index schmeißt?

Antwort: Da muss ich mir die Seite mal anschauen. Oft ist es aber so, dass die Seite ein Canonical hat, das auf eine andere Seite zeigt. Andernfalls kann es auch eine Soft 404 sein, die wir erst auf den zweiten Blick sehen. Möglich ist auch, dass ihr euch verschiedene Versionen des Index anschaut, da das Ergebnis vielleicht nicht so schnell zu allen Datencentern ausgerollt wurde. Da gibt es manchmal kleine Unterschiede.


02.05.2017, 22:02

Frage: 1. Können wir sowohl ein offizielles als auch ein aggregiertes Review Markup auf einer Seite haben? Wenn ja, welches wird dann in den Snippets gezeigt? 2. Wenn der mobile Index kommt, ist es dann ok, weniger Inhalte zu haben, da der Bildschirm kleiner ist?

Antwort: 1. Ich kenne da die Details nicht, ich weiß also nicht, ob das geht. Wenn es geht, dann würden sich die Algorithmen eines aussuchen, da wir da keine Regeln zu haben. 2. Das ist ok, aber ihr könnt nur für das Ranken, was auch auf der mobilen Seite zu finden ist. Wenn ihr für etwas nicht ranken wollt, dann kann es aber auch weg.


04.04.2017, 23:42

Frage: Kann Googlebot Soundcloud Player mit mehreren Liedern erkennen, die auf einer Seite eingebettet sind? Weil Google sieht sie ja bestimmt nur als große Boxen und erkennt nicht die Songs dahinter. Ich frage mich, ob Google es dann als Werbeanzeigen sieht?

Antwort: Wir erkennen die Player wahrscheinlich nicht genau. Aber ich denke wir sehen das als Multimediainhalte, nicht als Werbung. Denn so etwas gibt es ja oft, daher sollten wie das sinnvoll erkennen. Videos können wir aber besser erkennen, da wir sie für die Videosuche verarbeiten müssen. Ihr könnt mir aber gern mal Beispiel-URLs schicken.


04.04.2017, 07:12

Frage: Ich habe 600.000 in der Sitemap und auf einmal sind 200.000 aus dem Index geflogen. Der Traffic scheint aber nicht gesunken zu sein.

Antwort: Ich habe mir das mal angeschaut. Normalerweise ist es dann so, dass ihr andere URLs in den Sitemaps habt, als wir indexieren wollen. Denn wenn die URLs leicht anders sind (z.B. mit oder ohne www oder /) dann zählen wir sie nicht für die jeweilige Sitemap. Schaut euch das in Search Console an und sucht dann mit info: nach der genauen URL. Seht ihr da dann eine leicht andere, dann könnt ihr entweder eure Struktur entsprechend anpassen oder mit der internen Verlinkung dafür sorgen, dass wir die für euch richtigen übernehmen. Es ist aber allgemein auch kein Problem, wenn das passiert, es macht nur eure Analyse schwieriger. Es hilft immer, eine gute interne Linkstruktur aufzubauen.


24.03.2017, 47:04

Frage: Meine beiden Websites sind vor zwei Wochen auf einmal aus der Suche verschwunden. Es gibt keine Abstrafungen und auch sonst keine Gründe. Sitemaps etc. helfen nicht, was kann ich tun?

Antwort: Da kann es viele Gründe für geben. Da würde ich einen Thread im Hilfeforum starten. Die Leute dort kennen sich mit sowas aus und können die möglichen Gründe mit dir durchgehen.


24.03.2017, 35:59

Frage: Wie laufen die Tests für den Mobile First Index? Wie weit seid ihr da schon? Und werden sich einige der 200 Rankingfaktoren ändern?

Antwort: Ich kann noch nicht sagen, wann wir das ausrollen werden. Wir wollen es so hinkriegen, dass Webmaster sich keine Gedanken über Änderungen machen müssen. Deswegen zeigen uns die Tests, wie sich die Änderungen auf Seiten auswirken und wo es Probleme geben könnte. Und wenn Webmaster etwas ändern müssen, dann wollen wir ihnen genug Zeit dafür geben. Denn es gibt ja viele, dir ihre Seite einmal erstellen und sie dann mehrere Jahre so lassen. An solche Leute müssen wir auch denken. Die Crawler ändern sich nicht so sehr, da wir schon mit beiden crawlen. Aktuell nur deutlich mehr mit dem Desktop User Agent. Ich denke schon, dass sich dann mit der Zeit auch die Rankingfaktoren etwas ändern werden. Da wird nicht alles auf den Kopf gestellt, aber sie passen sich immer der Realität an.


10.03.2017, 35:21

Frage: Wird es beim Mobile First Index Probleme für Seiten mit Dynamic Serving geben? Wird es ein Problem sein, wenn man sowohl eine responsive als auch eine dynamische Seite anbietet?

Antwort: Ich glaube nicht, dass es ein Problem ist, beides zu haben. Dadurch geht nichts kaputt, aber es ist schwerer für euch, mögliche Bugs zu finden und die Tools drüber laufen zu lassen. Es führt also nicht zu Abstrafungen oder so, macht euch das Leben aber schwerer. Wenn ihr eine mobile Seite im vary Header auszeichnet, dann vertrauen wir dem auch. Wenn wir dann in Zukunft mit dem Smartphone User Agent crawlen, sehen wir dann die mobile dynamische Seite, auf die ihr uns hinweist.


10.03.2017, 34:31

Frage: Hilft das Fetch as Google beim Ranking oder sollte man Google überlassen, welche neuen Seiten sie indexieren wollen?

Antwort: Grundsätzlich finden wir neue Seiten relativ schnell selbst. Bei neuen Seiten dauert es aber immer etwas, bis wir wissen, wo wir es ranken sollen. Es ist also egal, auf welchem Wege sie bei uns ankommen.


10.03.2017, 17:14

Frage: Was kann der Grund dafür sein, dass eine Seite nicht im Index ist, obwohl technisch alles stimmt und es keine Abstrafung gibt?

Antwort: Das ist schwer zu sagen, da gibt es mehrere mögliche Gründe. Wir indexieren nicht alles, was wir finden. Manchmal aus technischen und manchmal aus inhaltlichen Gründen. Nicht jede Unterseite gibt uns einen ausreichenden Grund, sie zu indexieren. Du kannst sie aber per Fetch as Google an den Index schicken, wenn technisch alles stimmt, dann sollte sie damit im Index landen.


09.03.2017, 33:33

Frage: Ich möchte Unterseiten mit Disclaimer/Overlay geschützten Inhalten indexieren, wo sich der User via “ja ich bin ein Journalist” Button authentifizieren muss, bevor der <body> Inhalt für ihn sichtbar wird. Der google Bot selbst würde auch lediglich den <head> Bereich (inkl Structured Data Markup in JSON-LD) indexieren können. Mittels 403 Error handling werden Fehler unterdrückt.  Gefällt sowas Google gar nicht und bestraft die Website oder ist dies eine akzeptable Methode?

Antwort: Wenn Googlebot das gleiche sieht wie ein normaler Besucher, dann ist das ok. Bei euch würde Googlebot aber gar nicht sehen – wenn das für euch ok ist, dann macht das so. Wenn nicht, dann braucht ihr eine andere Methode, z.B. ein Banner. Wenn die Seite einfach nicht im Index landen soll, wäre ein Noindex auch sicher einfacher.


09.03.2017, 17:50

Frage: Wann kommt der Mobilindex? Ich denke es wird noch mindestens 6 Monate dauern.

Antwort: Ich weiß es nicht. Das hängt davon ab, wie unsere Tests verlaufen.


07.03.2017, 52:34

Frage: Wenn Firmen eine eigene Mobilseite haben, dann werden diese künftig ranken oder? Was macht man dann, wenn bisher alle Signale zur Desktopseite gehen? Weil ich kann mir nicht vorstellen, dass es so einfach gehen wird.

Antwort: Da wird man keine Probleme kriegen. Unser Ziel ist es, alles weiterhin genauso zu sehen und alle Desktopsignale mitzunehmen. Aktuell gelten ja genauso alle Mobilsignale auch für die Desktopseite. Wir wissen auch, dass das problematisch werden kann. Aber deswegen schreiten wir ja so langsam voran und testen so viel. Wir wollen Seiten, die heute ranken, nicht verlieren. Responsive Seiten sollten auch kaum Probleme kriegen, da alle Inhalte von derselben Seite verlinkt sind. Man muss auch immer bedenken, dass eine Seite mehr ist als die sichtbaren Dinge. Ich denke da an interne Links, strukturierte Daten, Dinge im Header und ähnliches. Und nur, weil der Nutzer es nicht direkt sieht, heißt es ja nicht, dass es nicht da ist oder für Suchmaschinen nicht wichtig ist. Diese Dinge müssen auch für die mobile Variante stehen. Wenn zum Beispiel Unterseiten auf dem Desktop Noindex sind, dann müssen sie das auch für Mobil sein.


07.03.2017, 37:59

Frage: Ich habe Inhalte, die per fade in erscheinen. Fetch as Google erkennt diese Inhalte aber nicht. Der Entwickler will den User Agent erkennen und die Elemente für Bots sichtbar machen – ich denke, das sollte man nicht tun? Was kann man machen?

Antwort: Ich würde kein Cloaking nutzen, da hast du recht. Ansonsten müsst ihr experimentieren, was für Nutzer und Suchmaschinen am besten funktioniert. Mache doch erstmal eine Seitenabfrage, um zu sehen, ob wir die fade in Inhalte sehen können.


21.02.2017, 48:26

Frage: Laut Search Console haben wir 12 URLs im Index, eine Seitenabfrage zeigt aber mehr als 8000 an. Woran kann das liegen?

Antwort: Eine Seitenabfrage ist eine sehr sehr oberflächliche Rechnung. Diese Zahl kann also viel höher sein als das, was wir eigentlich in den SERPs nutzen. Das kann z.B. passieren, wenn wir viel Duplicate Content sehen oder einen endlosen Kalender finden. Diese sieht man dann vielleicht in der Seitenabfrage, obwohl wir sie gar nicht nutzen. Die Zahl in Search Console ist deutlich besser. Am besten ist aber eine Sitemap. Dann sehen wir auch, welche URLs euch wirklich wichtig sind.


10.02.2017, 1:08:25

Frage: Was passiert, nachdem man eine erneuerte Seite an den Index schickt? Denn da gibt es oft noch länger Fluktuationen.

Antwort: Das ist schwer zu sagen. Fluktuationen gibt es immer. Wenn wir die URL noch nicht kennen, dann haben wir keine Signale, auf denen wir aufbauen können. Dann wissen die Algorithmen nicht, wo sie die Seite hinpacken sollen. Sie platzieren sie dann und müssen das mit der Zeit vielleicht noch anpassen. Das ist noch schwieriger, wenn die ganze Seite neu ist.


10.02.2017, 45:49

Frage: Was passiert beim Mobile First Index mit den eingehenden Links?

Antwort: Wir werden uns die mobile Version anschauen und versuchen, diese zu indexieren. Wir würden dann also die mobile Version als Canonical nehmen und alle Signale dahin weiterleiten. Ihr müsst also nicht alles ändern. Ist die Seite responsive, dann müsst ihr auch gar nichts ändern.


09.02.2017, 34:20

Frage: Wichtig ist mir, warum Google ein Problem mit der Seite +SIM-Karten.net hat. (hier nur der Link zur G+Page ..aber damit Sie wissen um welche Domain es geht. Folgendes Problem: zum Jahresanfang (alles gute übrigens) habe ich die Titel um die Jahreszahlen getauscht 2016->2017 nur leider bekommt es Google nicht in den Griff, die Titel auch so in der SuMa anzuzeigen. Soll heißen die Besucher denken natürlich das sich keiner um die Seite kümmert. Was mir schadet. Bing, Yandex haben die Titel alle schon so in ihren Indexen. Nur Google wehrt sich! Da Google aber drauf kommt und mir in den Webmastertools auch nichts angezeigt wird wo ich stutzig werde könnte, habe ich keine Ahnung mehr wo ich ansetzen soll.

Gestern das Problem hier gemeldet und eine Stunde später aus dem Index geflogen. Wenn ihr etwas gegen meine Person habt, dann lasst mich es wissen. Dann such ich mir etwas anderes. So kann es jedenfalls nicht weitergehen!

Antwort: Das ist sicher nichts persönliches. Da muss ich mit dem Titles Team mal sprechen, damit das schneller erkannt wird. Aber indexiert sollte alles sein. Ich habe mir das angeschaut und sehe keine Probleme.


09.02.2017, 02:30

Frage: Seiten wir T-Online greifen ja auf Google Custom Search Index zu. Da sind wir nicht gelistet, was können wir da tun? Es ist nichts im Index, außer komischerweise ein paar unserer PDFs.

Antwort: Ich habe die Frage schon an das CSI Team weitergeleitet. Frag einfach im nächsten Hangout nochmal nach. Ich denke, dass das Problem auf unserer Seite liegt.


27.01.2017, 46:00

Frage: Es wird gesagt dass mobile Seiten nach Mobile First kein Rankingfaktor mehr sein werden. Werden dann Desktop Seiten für das Ranking zählen?

Antwort: Aktuell fokussieren wir uns auf die Desktopversion, da sie das Canonical ist. Das kann sich dann aber ändern. Ihr solltet auch auf jeden Fall auf den mobilen Pagespeed achten, weil Nutzern das wirklich sehr wichtig ist.


26.01.2017, 28:33

Frage: Wir betreiben ein Portal, auf dem wir Produkte und Dienstleistungen stationärer, regionaler Händler aggregieren. Ca. 14.000 Seiten werden über 6 separate Sitemaps (pro Seitentyp mit Prio) zur Indexierung eingereicht. In der Google Search Console ist jedoch nur für ca. 30% aller eingereichten URLs pro Sitemap eine erfolgreiche Indexierung erkennbar.

1. Was können wir tun, um möglichst alle Seiten in den Index zu bringen?
2. Könnte die Aufteilung in Subdomains zu einem besseren Ergebnis führen?
3. Wird die in den Sitemaps angegebene Priorität berücksichtigt und bei erneuter Einreichung aktualisiert?
4. Wir haben validierte Rich Cards in den indexierten Seiten, Preis und Verfügbarkeit wird aber nur teilweise in den Suchergebnissen angezeigt und verschwinden nach einiger Zeit im Index?

Antwort: Grundsätzlich müsst ihr wissen, dass wir nicht garantieren, dass wir alle Seiten einer Website indexieren. Es muss sich lohnen, die Seiten müssen also einzigartig sein. Wenn ihr also nur aggregiert, dann ist das für unsere Systeme vielleicht nicht etwas, wo sich das Indexieren von tausenden Seiten lohnt. Die Priorität in Sitemaps ignorieren wir, denn wir haben gemerkt, dass die nicht hilfreich ist. Ich würde mich auch erstmal auf die Indexierung konzentrieren, bevor es um Rich Cards geht.


26.01.2017, 03:33

Frage: Ab wann ungefähr können wir mit der Umstellung auf die Mobile First Indexierung rechnen?

Antwort: Da gibt es noch kein offizielles Datum. Wir experimentieren noch. Und aktuell sind die Experimente auch noch in sehr kleinem Rahmen. Wir schauen mal, wann wir die Experimente erweitern können. Der Bestfall für uns ist, wenn Websites zum Großteil so bleiben können, wie sie jetzt sind.


24.01.2017, 48:11

Frage: Wie indexiert Google Seiten, die CRO Software nutzen, um ihre Ansicht und Inhalte zu ändern? Zeigt Google eine bestimmte Version oder weiß es gar nichts von den Änderungen?

Antwort: Ich denke, da geht es um Personalisierung. Googlebot sieht immer die Variante, die für seinen Ort festgelegt ist. Er loggt sich auch nicht ein oder so. Googlebot sieht also die Standardversion und kann dann personalisierte Inhalte nicht sehen.


24.01.2017, 35:03

Frage: Es geht um eine Seite, auf der Autoverleihe vergleichen werden. Da werden viele Suchen durchgeführt. Sollten die Suchergebnisseiten indexiert werden?

Antwort: Das ist ähnlich wie die letzte Frage. Würden diese Seiten im Index Sinn machen? meistens empfehlen wir, Suchergebnisseiten nicht zu indexieren. Schickt die Nutzer lieber direkt zu den Inhalten anstatt auf eine Zwischenseite, von der sie dann erst zu den Inhalten gelangen.


13.01.2017, 50:34

Frage: Wird der Mobile First Index einen Einfluss auf die Desktop Rankings haben, wenn wir auf Desktop und Mobil unterschiedliche Dinge anbieten?

Antwort: Ja, da wir ja die mobile Seite indexieren und diese dann auch für das Desktopranking nutzen. Ich habe dafür aber auch noch keine Daten, es wird nicht mehrere Jahre dauern. Wenn ich raten müsste, würde ich sagen, dass es später in diesem Jahr kommen wird. Da werden wir aber auch noch rechtzeitig Informationen rausschicken. Und wir werden auch versuchen, Seiten zu informieren, wenn es da Probleme geben könnte. Daher wird es auch nicht nächste Woche oder so einfach umgeschaltet.


12.01.2017, 55:15

Frage: Ich habe eine Faceted Navigation. Da muss man den Crawler immer davon abhalten, ganz wie Möglichkeiten zu crawlen. Warum kann man nicht einfach eine Liste mit allen Produkten erstellen, die sich dann ändert, ohne dass sich die URL ändert? Gibt es da Nachteile. z.B, wegen AJAX?

Antwort: Das sollte eigentlich funktionieren. Der Hauptnachteil wäre wohl, dass man das selbst entwickeln muss. Aber für die Suche sollte es da keine Nachteile geben. Wir haben da auch einen etwas älteren Blogpost im Webmaster Central dazu, aber ich weiß nicht, ob der noch aktuell ist. Es macht halt kaum jemand, da die Entwicklung so kompliziert wäre.


12.01.2017, 51:45

Frage: Sollen wir für unser CMS im Bezug auf Usability neue Content-Komponenten entwickeln, die auf Desktop Inhalte vollständig anzeigen und alternativ auf Mobile Inhalte aufklappbar, oder per Slide offcanvas horizontal sliden? Alles im Responsive Design per CSS gesteuert. die “vor Ort ranken” Frage wäre noch wichtig

Antwort: Wenn man das kann, dann wäre das eine Variante. Das würde ich aber vorher mit A/B Nutzertests prüfen. Denn es kommt ja nicht nur auf Google an.


12.01.2017, 48:45

Frage: Ich schaue mir gerade eine große Seite an, viele der Unterseiten kommen aus unterschiedlichen CMS. Kann man vor der Umstellung auf Mobil First herausfinden, welche Seiten Probleme bereiten werden?

Antwort: Da habe ich keine einfache Lösung. Aber wenn es für eine Seite nur die Desktop Version gibt, dann indexieren wir diese. Problematisch wird es nur, wenn es eine separate mobile Variante gibt, auf der es andere oder weniger Inhalte Inhalte gibt. Wir planen aber auch, Webmaster darauf hinzuweisen, wenn wir Dinge verlieren würden. Die Frage ist nur, ob wir das dann bei euch erkennen könnten. Vielleicht könnt ihr die Seite mit einem Tool mobil crawlen, z.B. mit Screaming Frog.


12.01.2017, 37:17

Frage: Im letzten Hangouts wurde gesagt, dass beim Mobile-Index auch nicht sichtbare Inhalte indexiert werden. Tabs, Slider und Accordion-Tabs sind ja recht praktische Komponenten, um Inhalte anzubieten / bereitzustellen ohne immer die gesamten Informationen zu zeigen. Sonst wurde immer gesagt, nur was der User direkt sieht, kann auch ranken. Ändert sich das mit dem Mobile-Index wieder?

Antwort: Ja, das ist eine der Änderungen, die beim mobile First Index wohl kommen wird. Denn wir wissen, dass es nicht so leicht ist, auf Mobil alle Inhalte darzustellen. Da hört ihr noch mehr von uns zu.


12.01.2017, 17:58

Frage: Website Relaunch –> neue URL Struktur und 301 Redirects von alten URLs auf neue –> viele Optimierungen und solides Crawling –> trotzdem geschätzt 300.000 URLs mit alter Struktur im Index –> gleichzeitig 800.000 URLs mit neuer Struktur NICHT im Index. Gibt es hier eine Erklärung wieso sich die alten URLs noch so hartnäckig im Index halten, obwohl wir wissen, dass Google den entsprechenden Redirect gecrawlt hat?

Antwort: Da kommen für uns mehrere Dinge zusammen. Wir wussten vielleicht nicht, welche URLs sich alles verändert haben. Da würde uns eine Sitemap helfen. Außerdem ist es so, dass wir größere Websites erst einmal Crawlen müssen. Das kann dann etwas dauern, bis wir alles gesehen haben. Dann kann es passieren, dass wir einen Teil schon übertragen haben, während der andere Teil noch alt ist. Es kann in der Suche auch passieren, dass jemand explizit nach den alten URLs sucht – dann versuchen wir, das anzuzeigen. Auch, wenn wir die neuen Redirects schon indexiert haben. Redirects würde ich auch für immer mindestens ein Jahr drin lassen. Man kann das dann mit der gecacheten Version oder der Info-Anfrage kontrollieren. Bei größeren Seiten kann man das auch mit der Sitemap indexieren. Da sieht man dann, dass es bei der alten weniger wird und bei der neuen mehr. Wichtig ist dann, dass wir die Signale von der alten auf die neue Seite übertragen können, dabei helfen dann die Redirects.


10.01.2017, 46:07

Frage: Wie wird der neue mobile first Index die Seitenarchitektur beeinflussen? geht es nur um das Erreichen der Inhalte oder wird es auch genutzt, um einen internen Links Graphen zu bauen?

Antwort: Ja, wir versuchen, komplett auf die mobile Version für das Crawlen, Indexieren und Ranken zu wechseln. Für viele Seiten könnte das eine große Änderung werden, wenn ihr z.B. dynamische Inhalte habt. Für responsive Seiten ändert sich aber nichts. Und auch viele der Tools fokussieren sich auf den Desktop, da werden Änderungen wichtig werden. Es gibt dafür auch noch kein Datum, ich glaube nicht, dass das in den nächsten Monaten kommen wird. Wir experimentieren gerade mit einigen Seiten, um zu sehen, wo es Probleme geben könnte. Wir wollen erreichen, dass ihr am Ende so wenig wie möglich umstellen müsst. Wir werden euch auch Best Practices und FAQ anbieten, damit ihr alles sinnvoll vorbereiten könnt. Ihr solltet euch die Desktop Version auch weiterhin anschauen, denn sie wird ja Nutzer generieren. Aber die mobile Version wird immer wichtiger. Und problematisch wird es nur, wenn sich die Inhalte zwischen Desktop und Mobile unterscheiden. Denn wenn die meisten Nutzer die mobile Seite sehen und wie versprechen ihnen Desktop Inhalte, die nicht da sind, dann macht das ja keinen Sinn. Deswegen ist responsives Design optimal, da wir ja in beiden Situationen identische Dinge sehen.


27.12.2016, 52:30

Frage: 1. Werden im neuen Index die Desktopseiten auf der Basis des Mobil-Designs gerankt? 2. Sollen wir Mobil weglassen und gleich zu AMP umsteigen? 3. Werdet ihr bei zwei gleichen Seiten die AMP Version aussuchen?

Antwort: 1. Ja. 2. Das könnt ihr machen. Es kommt aber auf eure Situation an, ob das Sinn macht. Aktuell wird das auch noch schwer zu machen sein. 3. Aktuell nicht, wir haben keinen AMP Rankingbonus. Wenn ihr aber ein Endgerät habt, bei dem AMP geht, dann würden wir eher AMP zeigen. Das bedeutet aber kein besseres Ranking. Es läuft eher so wie mit dem hreflang.


27.12.2016, 19:48

Frage: 1. Werden Desktop Seiten auf Grundlage der Qualität der Mobilseite gerankt? 2. Wird der Pagespeed der mobilen Seite das Desktopranking beeinflussen? 3. Bisher hat Google Google versteckte CSS Inhalte ignoriert oder, also Dinge hinter Tabs? Das wird sich ändern, oder? Weil dann werden ja auch Dinge wie kopierte Produktbeschreibungen auf einmal gelesen.

Antwort: 1. Ja. Wir schauen und die mobile Seite als Canonical an und nehmen uns die Signale von dort. 2. Ich glaube, dass wir aktuell den Speed für Mobile nicht anschauen. Wir schauen aktuell noch, wie wir das am besten machen können, sind aber noch nicht so weit. Bei Pagessped Insight gibt es eine mobile Zahl, wir können das aber bisher noch nicht so übertragen, wie wir es auf Desktop nutzen. Wir testen da im Moment noch viel. 3. Das ist der Plan, wir wollen dann alle Inhalte einbeziehen. Grundsätzlich sollten die Hauptinhalte einer Seite auch nicht kopiert sein, da werden die Kopisten dann eher eh nicht ranken. Wir zeigen dann nur das relevanteste Ergebnis.


16.12.2016, 1:06:56

Frage: Jemand hat eine Domain gekauft und dann gemerkt, dass sie nicht in Google indexiert ist. Sie war in der Lumendatabase und hatte schon einen DMCA Fall gegen sich. Da wird dann eine Reconsideration request nicht funktionieren, oder? Was sollen wir tun?

Antwort: Bei DMCA könnt ihr einen Counter Claim starten. Das geht in deren Hilfecenter.


02.12.2016, 02:45

Frage: Wir haben eine große Seite mit flacher Struktur. Ist es problematisch, wenn viele Unterseiten nicht mehr von der Seite verlinkt werden, aber trotzdem im Index bleiben? Es gibt dort Inhalte und sie können gerne in den SERPs erscheinen, an sich sind die Seiten uns aber egal. Wie sieht es dann mit dem Crawldbudget aus?

Antwort: Wir werden sie größtenteils im Index behalten und sie auch weiterhin crawlen. Aber wir werden sie als nicht so wichtig ansehen. Es kann also auch passieren, dass sie irgendwann aus dem Index fliegen – wenn sie gar keine Links haben. Das hängt aber auch ein wenig von der Historie der Seiten ab. Also, ob sie einmal wichtig waren. Wenn wir sie weiter crawlen, dann brauchen wir dafür ein paar Ressourcen – wir konzentrieren uns aber auf die wichtigen Seiten. Die unwichtigen schauen wir uns nur an, wenn noch Ressourcen übrig sind. Ich persönlich würde auch immer schauen, ob man Seiten wirklich braucht.


01.12.2016, 22:20

Frage: Wir haben einen recht großen Shop der unter einer Subdomain läuft. Ende letzten Monats sind die Rankings der Subdomain stark gesunken, die Rankings der Hauptdomain sind dagegen stark gestiegen obwohl es auf der Hauptdomain keinen Inhalt gibt sondern alle Links per 301 Redirect auf die Subdomain verweisen. Die Trafficzahlen sind stabil (Domain leitet ja weiter) Dennoch frage ich mich warum die Subdomain so stark an Sichtbarkeit verloren hat?! An der Indexierung hat sich nichts verändert.

Antwort: Das weiß ich nicht. Am besten solltet ihr mir eine Nachricht auf Google+ mit Beispielen schicken. Wir nutzen für Canonicals aber auch mehrere Signale und nehmen dann die passendste Seite. Wenn die also nicht eindeutig sind, gibt es Probleme.


29.11.2016, 38:59

Frage: Seit September zeigt Google .co.uk URLs (die als .com gecached sind) obwohl wir 2015 auf .com umgezogen sind. Die Hälfte unseres Traffic kommt nun von den .co.uk URLs – insgesamt haben wir etwa 2,8 Mio URLs.

Antwort: Davon habe ich zu der zeit ein paar Fälle gesehen. Wir haben die Anzeige von URLs etwas geändert und da kommt das wohl her. Das ist nicht perfekt, denn wenn ihr uns solche Signale sendet, dann sollten wir das sehen und verarbeiten. Wir diskutieren da intern noch drüber, du kannst mir also gerne Beispiele zuschicken. Dann kann ich das mit dem Team anschauen.


29.11.2016, 34:47

Frage: Wir haben einen guten Artikel erstellt, der auch direkt gefunden werden konnte. Nach weniger als einem Tag ist er aber komplett aus dem Index verschwunden. Wir haben ihn dann wieder eingereicht, aber auch diesmal war er nach einem Tag wieder weg.

Antwort: Sowas kann passieren. Wir garantieren nicht, dass all eure Inhalte im Index landen oder dort bleiben.


21.10.2016, 17:56

Frage: Ist es für die Seitenqualität besser, nur die absolut besten Seiten indexieren zu lassen? Wird das meinen Panda Score verbessern?

Antwort: Ihr müsst euch überlegen, was für eure Seite und eure Zielgruppe Sinn macht. Ich würde wirklich schlechte Dinge verbessern. Ansonsten solltet ihr nicht alle Dinge, die nicht perfekt sind, deindexieren. Denn wir brauchen ja auch Kontext, um eure Seite gut zu ranken.


20.10.2016, 08:34

Frage: Für die Suchanfrage nach “GMX” rankt oft die Domain gmx.de. Unsere Haupt-Domain ist aber gmx.net. Wie kann man es deutlicher machen, dass die Marke “GMX” zur Domain gmx.net gehört?

Antwort: Das müsste ich mir mal anschauen. Wir scheinen die Äquivalenz nicht zu erkennen.


06.10.2016, 05:53

Frage: Die Startseite unserer Website befindet sich in einem Verzeichnis (z.B. “www domain de/start”). Jedoch wird in den SERPs die Root-Domain angezeigt, also “www domain de” und nicht die exakte URL meiner Startseite. Sitemaps usw. wurden gepflegt / auch Abrufe der URL über die Search Console haben nicht weitergeholfen. Was können wir noch tun, damit die korrekte Startseiten-URL in den Suchergebnissen ausgegeben wird?

Antwort: Schwer zu sagen. Ich denke, dass unsere Algorithmen die verschiedenen Varianten kennen und versuchen, die passendste in den SERPs zu zeigen. Da kommen viele Faktoren zusammen, z.B. Canonicals, Weiterleitungen und interne Links sowie die Sitemap. Aber wir nehmen auch die Länge der URL dazu. Sind zwei gleichwertig und eine ist viel kürzer, dann nehmen wir die, weil es in den SERPs besser aussieht. Das ändert nichts am Ranking, sondern nur, welche URL dargestellt wird. Da müsst ihr meist nichts machen, da die Inhalte ja trotzdem zu sehen sind. Sind die Inhalte aber etwas anders, dann müsst ihr euch darum kümmern und mir vielleicht mal ein Beispiel schicken.


04.10.2016, 35:23

Frage: Wir haben dynamische Inhalte, die sich je nach Standort des Nutzers ändern. Es werden aber auch für andere Staaten immer die Inhalte für Kalifornien angezeigt.

Antwort: Das ist oft ein schweres Problem, da gibt es nicht die eine Antwort. Wir versuchen, für jede URL einen Inhalt zu indexieren. Da wir vor allem aus Kalifornien crawlen, sehen wir dann das und zeigen es im Index. Habt ihr unterschiedliche Inhalte, dann müssen die Dinge auf eigenen URLs stehen. Dann können wir sie sehen und entsprechend indexieren. Wenn ihr das gemacht habt, dann ist es eher ein technisches Problem. Vielleicht haben die Seiten ein Canonical? Oder es sind identische Inhalte, dann klappen wir das zusammen. Wenn ihr eine Info-Anfrage für eine URL macht und wir dann eine andere zeigen, dann ist das wahrscheinlich der Fall. Die Hilfeforen sind hier auch oft ein guter Ort, um solche Dinge zu hinterfragen.


23.09.2016, 34:48

Frage: Wir haben früher X verkauft und verkaufen jetzt Y. Wir haben die alten Seiten zu 404ern gemacht und unpassende Links disavowed. Aber unten in den SERPs sehen wir immer noch alte Seiten. Unsere Rankings sind seit der Umstellung auch nicht mehr so gut.

Antwort: Wenn es X nicht mehr gibt, sind die Suchanfragen für Y ja etwas separates. Das neue muss ja nicht 1:1 so ranken wie das alte. Vielleicht habt ihr auch etwas vergessen, denn die alten Seiten sollten nicht mehr erscheinen. Habt ihr sie vielleicht per robots.txt blockiert? Weil dann können wir das 404 ja nicht sehen.


23.09.2016, 01:43

Frage: Wir haben eine flache Kategoriestruktur mit vielen nutzergenerierten Inhalten. Ist es ok, auch ein paar interne Suchergebnisseiten zu indexieren, da sie immer wieder gesucht werden?

Antwort: Könnt ihr machen. Ihr sollte es aber limitieren, da wir sonst immer weiter crawlen. Und macht es auch nur, wenn die Seiten hilfreich sind, denn oft sind Suchergebnisseiten das nicht.


20.09.2016, 57:01

Frage: Kannst du etwas zu den mehr als 1 Milliarde Seiten sagen, die aus dem Index entfernt wurden?

Antwort: DMCA Fälle werden im Transparenz-Report aufgelistet und gehen auf Basis von Unterseiten.


08.09.2016, 31:23

Frage: Bei “site:domain.de” tauchen unerwünschte Ergebnisse mit Parametern auf. Die Parameter sind unter “Crawl” > “URL Parameters” gelistet und mit “No URLs” markiert. Es gibt auf den Seiten auch ein – hoffentlich – korrektes rel=canonical-Element. Was fehlt?

Antwort: Wir sehen Seitenabfragen als unnatürliche Anfragen. Da kann es dann normal sein, weil wir da nicht nach Relevanz gehen. Fragst du gezielt nach einer URL, dann zeigen wir sie, auch wenn sie nicht das Canonical ist. Wir crawlen ja trotz des Parameters. Ihr könnt euch die gecachte Seite anschauen, um zu sehen, was die indexierte Version ist. Das sollte sich auch schnell wieder einpendeln.


12.08.2016, 39:55

Frage: Unsere ganze .de Domain ist vor Kurzem aus dem Index geflogen. Wir haben nichts geändert und kennen den Grund dafür nicht.

Antwort: Schwer zu sagen, was da passiert sein könnte. Ist das auf einmal passiert oder über einen längeren Zeitraum? Ist es etwas spontanes, dann ist es vielleicht etwas wie das URL Removal Tool. Ist es langsam, dann ist es vielleicht etwas technisches auf eurer Seite, sodass wir die Seite nicht mehr richtig sehen können. Ihr solltet das mal in den Hilfeforen posten.


11.08.2016, 51:48

Frage: Wir kriegen bei Seitenabfragen eine hohe Zahl an Seiten, aber den Hinweis, dass viele Ergebnisse ähnlich sind.

Antwort: Das ist eigentlich unproblematisch. Diese Angabe ist eine optimistische Schätzung und hat wenig mit der Realität zu tun. Das ähnlich bezieht sich auf die Snippets, die Seiteninhalte könnten trotzdem einzigartig sein. Schaut euch bei der Sitemap die indexierten URLs an.


29.07.2016, 38:01

Frage: Sollte die Anzahl der indexierten Seiten in etwa so hoch sein wie die, die in den SERPs angezeigt werden? Sind beide Zahlen sehr unterschiedlich, lässt sich das als viel DC oder Fehlerseiten deuten?

Antwort: Ich glaube nicht, dass das immer der Fall ist. Die Zahlen können auch mal gleich sein, aber das kann dann auch eher Zufall sein. Viele URLs zeigen wir nicht, weil nicht nach ihnen gesucht wird. DC könnte man eher sehen, wenn man alle einzigartigen Seiten in eine Sitemap packt und diese Nummer mit dem Indexierungsstatus abgleicht. All diese Werte muss man aber auch immer im Kontext der Seite sehen und hinterfragen.


01.07.2016, 53:24

Frage: Ein Kunde bittet mich, seine URLs nur in Google.com indexieren zu lassen und nicht in Google.co.in.

Antwort: Das könnt ihr nicht beeinflussen. Das hängt immer davon ab, wo sich der Nutzer befindet. Ihr könnt aber nicht gewisse Länder ausschließen – ihr könnt nur mit Geotargeting und Hreflang sagen, welche auch am liebsten sind.


17.06.2016, 58:51

Frage: Was kann getan werden, wenn eine Website nicht im Index auftaucht?

Antwort: Wenn eine Website noch nicht im Index vermerkt ist, versuchen wir generell, sie in unseren Index zu integrieren und mit der Seite verbundene Links zu verfolgen. Das ist eine schwierige Situation. Denn trotz der Googlebots gibt es keine Garantie, dass alle Webseiten jemals im Index auftauchen.

Weitere Frage: Mir geht es mehr um den Einfluss der Search Console. Wie bewertet der Algorithmus die Homepages als positiv oder negativ?

Antwort: Wir versuchen, ausgewählte Aspekte bei der Bewertung zu gewichten. Ist eine Website eine typische Randerscheinung, fällt diese bei der Suche zumeist nur gering ins Gewicht. Ich schaue mir deine Webseiten, die du mir geschickt hast, an. Anschließend schicke ich dir eventuell Verbesserungstipps zu.


17.06.2016, 52:48

Weitere Frage: Wir haben schon vor geraumer Zeit die Entscheidung getroffen, unsere Webseiten aufgrund zu vieler Inhalte zu überarbeiten. Wie schaffen wir es, alle Webseiten zu indexieren?

Antwort: Ich sehe kein Problem darin, auch mehrere tausend Seiten zu indexieren.


17.06.2016, 47:24

Frage: Bei der Verwendung des Suchbegriffs „tele2 klantenservice“ tauchen auf Google.nl große Telefonnummern in den SERPs auf. Diese Darstellung sehen unsere Konkurrenten aber nicht. Wie können wir diese Telefonnummern entfernen?

Antwort: Du kannst die Telefonnummer nicht direkt entfernen. Aber du kannst die Telefonnummer auf euren Homepages markieren. Hebst du einige Telefonnummern hervor, werden sich diese Spezifizierungen in der Google-Suche widerspiegeln.


17.06.2016, 45:26

Frage: Ich wollte fragen, ob es möglich ist, meine bestehenden persönlichen Daten von einer Website zu löschen, auf der ich mich angemeldet hatte. Ich habe meine persönlichen Daten bei der Google-Suche gefunden und würde diese gern löschen.

Antwort: Ich würde mich an den Webmaster dieses Forums wenden. Normalerweise klären dich die Ansprechpartner über einzelne Schritte auf, um deine Daten zu löschen. Bitte achte darauf, in eventuellen Postings nicht deinen richtigen Namen anzugeben. Dieser könnte anderenfalls wieder bei der Google-Suche auftauchen.


17.06.2016, 20:55

Frage: In deinem letzten Hangout hast du erwähnt, dass der Algorithmus eine durchschnittliche Menge an Zeit benötigt, bevor sich eine Änderung der internen Linkstruktur nach einem Setup auf das Ranking auswirkt. Von welchem Zeitrahmen sprichst du hier?

Antwort: Es gibt keinen genauen Zeitrahmen für derartige Änderungen. Das liegt einerseits daran, wie oft wir Homepages von deiner Webseite crawlen. Andererseits hängt der Zeitansatz von der Struktur deiner Website sowie den vorgenommenen Änderungen ab. Werden beispielsweise alle URLs einschließlich der internen Struktur verändert, müssen wir erst einmal herausfinden, inwiefern sich der komplette Charakter einer Website verändert. Wenn ich einen vagen Zeitrahmen angeben soll, kannst du schon von einigen Wochen oder gar Monaten ausgehen. Das ist der Grund, weshalb ich Webseitenbetreibern rate, derartige Änderungen wirklich nur bei Bedarf vorzunehmen. Deswegen solltet ihr die Änderungen nur vornehmen, wenn diese für einen langen Zeitraum anhalten. Findet eine Struktur, die eurer Website angepasst ist und auf der ihr für lange Zeit aufbauen könnt.


03.06.2016, 50:11

Frage: Kann eine Seite ihren Indexierungsstatus verlieren? Ich habe weniger indexierte Seiten als noch vor einer Woche?

Antwort: Diese Zahl ändert sich immer mal wieder, das ist total normal. Schaut euch lieber die Suchanalyse an. Wenn dort gut rankende Seiten verschwinden, dann müsst ihr euch darum kümmern.


03.05.2016, 45:20

Frage: Wir haben eine Sitemap eingereicht, aber es dauert sehr lange, bis die 100+ Seiten indexiert werden. Es kommt nur etwa eine pro Tag in den Index, ist das normal?

Antwort: 100 Seiten sollten eigentlich in etwa einem Tag von uns gesehen werden. Vielleicht können wir eure Seite nicht richtig crawlen, das liegt dann meist am Server. Vielleicht gibt es auch technische Probleme auf eurer Seite. Schaut euch das mal im Fetch as Google Tool in Serarch Console an.


03.05.2016, 43:54

Frage: Wir fügen Inhalte hinzu, tun Seiten in die Sitemap und nutzen Fetch as Google. Was kann man noch tun, um die Sichtbarkeit zu erhöhen?

Antwort: Sobald ihr uns die Seiten geschickt hat, dann sehen wir sie und indexieren sie. Der Rest sind dann SEO Maßnahmen.


08.04.2016, 58:53

Frage: Welche Öffnungszeiten nutzt Google, die aus der My Business App oder die von meiner Website?

Antwort: Da gibt es immer verschiedene Meinungen. Kümmert euch am besten darum, dass sie überall gleich sind.


07.04.2016, 13:57

Frage: Wie lange kann es maximal dauern, bis neue Inhalte/Landing Pages komplett von Google “erfasst” wurden? Hintergrund: NEUE Seiten, erstellt für div. Produktarten, die jedoch nicht für das entsprechende Produkt ranken.

Antwort: Wir müssen die Seiten erst einmal sehen und crawlen, das kann je nach Website unterschiedlich schnell gehen – Tage oder Monate. Ihr könnt aber eine Sitemap einreichen. Wir müssen die Inhalte aber auch sauber verstehen und indexieren. Außerdem müssen wir ein passendes Ranking finden. Man kann also keine maximale Dauer nennen.


10.03.2016, 47:10

Frage: Für unsere Seite www.heckenpflanzen.de haben wir eine Sitemap in Search Console hinterlegt, wonach auch 476 URLs indexiert wurden. Unter dem Indexierungsstatus steht jedoch nur insgesamt eine Seite als indexiert. Woran kann das liegen?

Antwort: Das weiß ich nicht, ich muss mir das mal anschauen. Es kann aber daran liegen, dass alles neu ist. Dann braucht es immer ein paar Tage oder eine Woche, bis die Daten angeglichen werden. Fragt vielleicht mal im Webmaster Hilfeforum nach.


23.02.2016, 18:48

Frage: Viele PDFs auf meinen Produktseiten schaffen es nicht in den Index, kannst du mir sagen, woran das liegen könnte? Sollte ich sie einfach zu den Produkttabs hinzufügen oder führt das zu DC?

Antwort: Grundsätzlichen indexieren wir PDFs wie normale Seiten. Aber sie werden wahrscheinlich nicht so oft refreshed. Wenn es Links zu den Seiten gibt, dann versuchen wir auch, sie zu indexieren. In deinem Fall finden wir also vielleicht die Links nicht, weil sie Nofollow sind oder sich nicht in statischem HTML befinden. Oder es liegt daran, dass wir schon so viele Inhalte aus deiner Seite im Index haben. Wir können nie garantieren, dass alle Inhalte im Index landen. Manchmal hören wir ab einer bestimmten Stelle auf, crawlen aber weiter und indexieren dann nur noch Dinge, die wirklich toll sind. Wenn ihr die PDFs unbedingt im Index wollt, dann packt die Inhalte vielleicht direkt auf die Produktseite – dann müssen die Nutzer nicht einmal mehr etwas herunterladen.


29.01.2016, 00:56

Frage: Was ist die Best Practice, um Blogs, wo auf einer Seite oft neue Inhalte erscheinen, regelmäßig mit allen Updates in den Index zu bekommen?

Antwort: Wir wollen den Content erreichen und müssen daher alles erreichen können. Wenn Inhalte also erst durch Scrollen oder Nachladen erreicht werden, dann sehen wir es vielleicht nicht. Aber auf einem Blog sind meist eh alle Artikel verlinkt, dann brauchen wir Dinge wie Infinite Scroll gar nicht. Wenn wir den Content direkt erreichen, dann braucht es das nicht für uns – ihr könnt es aber trotzdem für die Nutzer machen, wenn ihr das gerne möchtet.


28.01.2016, 40:28

Frage: Indexiert Google Kommentare von Plattformen wie Facebook oder disqus? Wir konnten bei einem Mitbewerber in den SERP Snippets sehen, dass dort Teile der Facebook Kommentare angezeigt werden. Wird der Inhalt dieser auch als Content der Seite “angerechnet”?

Antwort: Zum Teil können wir das machen. Manche dieser Plattformen blockieren die Kommentare per robots.txt. Wenn die Kommentare aber beim Crawling erreichbar sind, dann können wir das machen. In solchen Fällen zählen die Kommentare als Teil der Seite und die Seite kann daher auch für sie ranken.


26.01.2016, 09:43

Frage: Ich habe eine Frage zum Indexierungsstatus. Vor dem 17.08.15 hatte ich 28 Mio indexierte Seiten, jetzt nur noch 10 Mio. Es gab einen Bug im Reporting um den 17.08.15. Aber die Sitequery zeigt nur 600.000 Ergebnisse.

Antwort: Das sind sehr unterschiedliche Nummern, daher sind Fluktuationen normal. Queries sind nicht akkurat, sondern auf Schnelligkeit optimiert. Da werdet ihr also nichts genaues sehen sondern eher eine Schätzung unsererseits. Index Status ist genauer, da es sich mehr auf den Index selbst bezieht. Aber es ist nicht gesagt, dass ihr diese URLs wirklich wichtig findet, da es DC und vieles andere beinhalten kann. Schaut euch lieber den Sitemap Index Count an. Eine Sitemap mit allen URLs die euch wichtig sind sorgt dafür, dass ihr genau seht, ob all diese es in den Index geschafft haben.


15.01.2016, 54:35

Frage: Wie lange dauert es, bis eine neue Seite im Index erscheint und die Relevanz erkannt wird?

Antwort: Das kommt darauf an. Manchmal geht das in ein paar Stunden – aber das gilt nur für die URL selbst. Die Seite komplett zu verstehen und die Relevanz zu erkennen wird etwas dauern. Am Anfang sind die Rankings oft mit einigem Raten verbunden und steigen oder fallen später noch.


15.12.2015, 40:48

Frage: Besteht zwischen dem Crawling und der Indexierung irgendeine Verbindung? Mir geht es um indexierte Seiten.

Antwort: Ich glaube, die generelle Frage hier ist, was, wenn die Seite bereits indexiert wurde, der Unterschied zwischen einer Seite, die häufig gecrawlt und einer Seite, die nicht so häufig gecrawlt wird, ist. Wir versuchen solche Seiten häufig zu crawlen, die wir als wichtig empfinden.


15.12.2015, 37:07

Frage: Gibt es eine Möglichkeit, herauszufinden, welche Seiten nicht indexiert wurden – abseits der Nutzung von kleinen Sitemaps? Hast du noch irgendwelche Tipps hinsichtlich der Frage, warum Seiten nicht indexiert werden könnten?

Antwort: Sitemaps sind auf jeden Fall eine Möglichkeit, das herauszufinden. Eine andere Sache, die ihr machen könntet, ist, einen Blick in die Server Logs zu werfen, um zu ermitteln, welche Seiten durch die Suche Traffic erhalten. Das sagt euch indirekt, welche Seiten indexiert wurden. Ich würde mich vermutlich eher darauf fokussieren und nicht so sehr auf den technischen Part. Hinsichtlich der Nicht-Indexierung von Seiten: Es gibt verschiedene Gründe – manchmal stufen wir Seiten als Spam ein und indexieren sie daher nicht. Manchmal erkennen wir, dass es sich bei Seiten um Duplikate handelt und indexieren sie nicht. Manchmal haben wir für Seiten auch nicht genügend Signale – in diesem Fall helfen die Sitemap und die interne Navigation. Ich würde mich aber nicht darauf fokussieren, jede einzelne Seite einer Website indexiert zu bekommen – das geschieht nur äußerst selten. Fokussiert euch darauf, die Seiten indexiert zu haben, die wichtig sind!


15.12.2015, 22:02

Frage: Was ist der schnellste Weg, um unsere Inhalte in den Index zu bekommen?

Antwort: Wenn ihr eine kleine Seite habt, nutzt Abruf durch Google, an den Index schicken. Für eine größere Seite nutzt eine Sitemap.


11.12.2015, 21:30

Frage: Wie sollen Webmaster entscheiden, welche Seiten in den Index gehören und welche nicht?

Antwort: Laut dem Search Quality Team sollen Seiten mit schlechten Inhalten nicht auf Noindex gestellt werden – sondern ihr solltet sie verbessern. Ich weiß, dass das nicht immer einfach ist – aber das wäre Google’s liebste Option.


03.12.2015, 17:20

Frage: Um in einer Faceted Search zwei und mehr Filterkombinationen von der Indexierung auszuschließen, ist es da besser, ab jedem zweiten Filter das PRG-Pattern zu verwenden oder diese über die robots.txt zu sperren?

Antwort: Ich weiß nicht, was das PRG Pattern ist. Aber grundsätzlich würde ich so etwas nicht per robots.txt aussperren, da wir dann nicht sehen können, was dahinter steht. Wir sollten so etwas immer crawlen können. Wir haben einen Blogpost aus 2014 zur Faceted Search, da gibt es viele Hinweise. Es gibt hier kein Allheilmittel, sondern ihr müsst schauen, welche Variante für eure Website passt.


01.12.2015, 15:01

Frage: Google indexiert meine Seite nicht. Es gibt keine Content Keywords und man erkennt keine strukturierten Daten. Bei der Site Query Abfrage erscheinen aber die meisten Seiten.

Antwort: Ich habe mir das angesehen und du hast einen Umlaut in der URL. Oft passiert es dann, das eine zweite Seite ohne Umlaut existiert. Bei dir sind auch manche Inhalte in der Version mit Umlaut indexiert, andere in der Version ohne. Suche dir eine davon aus und mach diese zur Canonical Version der Seite.


05.11.2015, 51:41

Frage: Wenn ich einem Inhalt eine neue URL gebe und diese zur Indexierung einreiche, sollte ich dann gleich die alte URL zum De-Indexieren einreichen? Oder sortiert Goggle das von alleine? Korrekte Weiterleitung ist gesetzt.

Antwort: Die Weiterleitung ist uns da wichtig, dann sehen wir, dass die URL ersetzt wird. Da braucht ihr keinen extra Antrag stellen. Eine Zeit lang kann es aber passieren, dass die alte URL noch angezeigt wird, wenn man gezielt nach ihr sucht. Das führt aber zu keinen Problemen.


27.10.2015, 29:33

Frage: Wenn man viele Quellen einfügt, sollte man diese dann per Fetch as Google schneller in den Index bringen, oder würde euch das bei vielen Quellen Probleme verursachen?

Antwort: Grundsätzlich fokussieren wir uns da nicht drauf. Wenn ihr Inhalte ändert, die schnell in den Index müssen, dann könnt ihr Search Console so nutzen. Aber nur, weil ihr Quellen einfügt, ändert das ja nicht eure ganze Seite (außer diese sind eure einzigen Inhalte). Das ist nichts, worüber ich mir Sorgen machen würde.


16.10.2015, 56:06

Frage: Was ist der Unterschied zwischen dem Googleindex und dem Googlebot? Wie wirkt sich das auf die SERPs aus?

Antwort: Der Googlebot ist der Crawler, der losgeschickt wird, um die Seiten zu crawlen. Der Index ist der Platz, wo diese gespeichert werden.


16.10.2015, 51:51

Frage: Ich möchte meine Seite ohne #! indexieren lassen und meine Firma liefert keinen HTML Snapshot an Suchmaschinen. Nach der gestrigen Bekanntmachung – Soll ich daran arbeiten, dass der Server HTML Snapshots liefert oder wie?

Antwort: Wir brauchen individuelle URLs. Du könntest das #! mit HTML5 in eine sauberere Struktur überführen. Die Schnappschüsse kommen später. Ansonsten kann das Fetch and Render Tool genutzt werden, um zu testen, wie das mit den Snapshots funktioniert.


15.10.2015, 18:57

Frage: Wir haben eine Produktwebseite (200 Seiten) und im Unterverzeichnis dieser Domain eine Hilfe Website (1200 Seiten) mit Anleitungen (viele Fachbegriff etc.). Sollten wir diese Hilfeseite indexieren lassen? Verwässerungsgefahr Content, Keywordlisten mit Hilfeseiten?

Antwort: Ich würde das auf jeden Fall indexieren lassen. Hilfeseiten sind ja meist Fachwissen, daher könnte es sicher für Suchende relevant sein. Das ist meist eine gute Ergänzung zu gezielten Produktseiten, da hier Probleme gelöst werden und diese dann auch weiterempfohlen werden. Wenn ihr euch nicht sicher seid, startet erst einmal mit einem kleinen Teil der Seiten.


15.10.2015, 03:01

Frage: Wir bauen einen Filter, um Ergebnisse einzugrenzen: Klickt man auf Berlin-Mitte, wird der Filter aktiviert – um ihn zu deaktivieren, klickt man noch mal darauf. Problem: Der Linktext “Berlin-Mitte” führt zu den Ergebnissen von “Berlin” – ist das ein Problem?

Antwort: Aus unserer Sicht ist das eigentlich kein Problem. Wenn wir die Inhalte finden, dann können wir sie auch indexieren. Wenn der Ankertext nicht mit den Inhalten übereinstimmt, dann ist das eher ein Usabilityproblem.


24.09.2015, 48:59

Frage: Wie sollen wir vorgehen, wenn wir zwei WordPress Wes, von denen das eine das Hauptweb mit der Index Seite ist, vertauschen möchten, ohne Probleme mit angepassten URL resp. unaufindbaren URLs zu bekommen? Kann Google manuell diese Anpassung verarbeiten?

Antwort: Hierfür haben wir momentan keine Hilfstools, vielleicht braucht ihr eine dritte oder vierte Seite, um dann sauber weiterzuleiten.


11.09.2015, 51:40

Frage: Wie kann ich ein doc Dokument komplett aus der Google-Suche löschen?

Antwort: Im Bestfall sollte man es vom Server löschen und dann das URL Removal Tool nutzen – wenn die Seite aber noch existiert, dann wird es für uns schwierig, zu entscheiden, was wir machen sollen.


11.09.2015, 14:14

Frage: Wir sind eine verifizierte Website und haben einige tausend Seiten, die generell zwei oder drei Ergebnisse anzeigen, während andere keinerlei Ergebnisse listen. Grund dafür ist, dass es in einigen Städten keine Ergebnisse gibt. Werden diese Seiten mit drei oder vier Ergebnissen als Low Quality Pages gewertet?

Antwort: Generell würde ich empfehlen, Suchergebnisseiten mit 0 Ergebnissen von der Indexierung zu blockieren. Für Nutzer ist es eine schlechte Benutzererfahrung, wenn sie auf ein Suchergebnis klicken, was sie auf ein Suchergebnis mit 0 Einträgen führt – daher sollte das vermieden werden.


10.09.2015, 52:50

Frage: Wir haben eine Ratgeberdomain, die schon vorher bestand und in die Richtung Adult-Content ging. Nun haben wir die Seite überarbeitet und sehen aber, dass wir kaum organischen Traffic bekommen. Muss man bestimmte Maßnahmen berücksichtigen, damit Google merkt, dass es sich nicht mehr um Adult-Content sondern um seriösen Content handelt?

Antwort: Ich würde probieren, ob die Ergebnisse mit SafeSearch genauso sind. Wenn die Seite wirklich gefiltert wird, würde ich mich im Hilfecenter melden und angeben, dass die Seite fälschlicherweise gefiltert wird. Dort gibt es ein Formular. Es ist keine normale Frage des Crawlings, da bei gefilterten Seite manuell nachgeschaut werden muss.


10.09.2015, 51:48

Frage: Wir haben Search Box Code integriert, der eine Zeit lang von Google anerkannt wurde und auf interne Suche verlinkte. Seit ein paar Wochen ignoriert es Google und zeigt eigene Ergebnisse. Code ist laut Testing Tool richtig. Was können wir machen?

Antwort: Es braucht einige Zeit, bis der Code wirklich sauber sichtbar ist. Wenn er sichtbar war und jetzt nicht mehr funktioniert, würde ich auf ein technisches Problem tippen. Schick uns den Link einfach mal zu.


10.09.2015, 47:41

Frage: Wir haben seit letzter Woche das Problem, dass plötzlich über 300.000 indexierte Seiten vorhanden sind, nachdem versehentlich robots.txt deaktiviert wurde. Wir haben die robots wieder aktiviert, wie bekommen wir am besten die 300000 Seiten aus dem Index?

Antwort: Ich würde mir die URL-Struktur anschauen. Wenn alle URLs im selben Unterverzeichnis sind, kann man sie gut mit dem URL-Entfernungstool entfernen lassen. Wenn die Struktur nicht klar erkenntlich ist, müssen wir die Seiten erst neu crawlen, um zu merken, dass sie blockiert sind. Das kann gut ein halbes Jahr dauern. Wenn es ein kritisches Problem ist, weil auf der Seite zum Beispiel persönliche Daten vorhanden sind, dann würde ich die ganze Seite entfernen lassen und alles Schritt für Schritt durchgehen. Persönliche Seiten sollten am besten durch ein Passwort oder durch noindex geschützt werden, falls wieder ein Problem mit der robots.txt auftritt.


10.09.2015, 31:56

Frage: Wir möchten ein Wörterbuch (Datenbank) mit vielen qualitativ hochwertigen Datensätzen als Subfolder in die Rootdomain (Sprachreisen) integrieren, über die Menüs verlinken. Der Shop weißt ca. 5000 Seite auf, das Wörterbuch viele Millionen. Ist das riskant?

Antwort: Es ist schwerig zu sagen. Auf der einen Seite sind es viele hochwertige Datensätze, auf der anderen Seite ist es ein Wörterbuch und all diese Wörter sind sicherlich schon irgendwo im Internet definiert, mit einer ähnlichen oder gleichen Definition. Wenn man alles zum Indexieren freigibt, hat man eine große Menge an Inhalten auf der Website, der keinen wirklichen Mehrwert für das Internet bringt. Ich würde mir überlegen, ob diese Inhalte wirklich so spannend sind, dass sie indexiert werden sollen. Erst, wenn man merkt, dass sich Benutzer für diese Inhalte interessieren, sollte man einen Teil oder das ganze Wörterbuch freischalten.


10.09.2015, 00:29

Frage: Wir haben einen Shop und folgendes Problem: Es gab ein Duplicate Content Problem, welches vergangene Woche behoben wurde – die Seiten werden jetzt sehr langsam indexiert. Dies ist der Fall, obwohl die Seite sich auf der zweiten Ebene befindet und auch sehr gut verlinkt wird. Die Website ist sehr gut strukturiert, daher verstehen nicht, warum diese Seiten nicht mehr indexiert werden.

Antwort: Meistens deutet das auf ein technisches Problem hin, d. h. das wir die Seiten irgendwie nicht richtig crawlen können. Vielleicht war zuvor ein noindex auf diesen Seiten oder es wurde ein 404er ausgelöst. Google versucht grundsätzlich, alle Seiten zu indexieren und schaut erst im zweiten Schritt, wie die Qualität ist und welche Signale es gibt. Das heißt, ich würde eher auf ein technisches Problem tippen. Ich würde alles durchgehen und prüfen (z. B. mit “Fetch as Google”) ob man darüber alle Seiten sauber holen kann und ob nicht z. B. irgendwo ein noindex vorhanden ist.

Folgefrage: Wir haben all diese Sachen schon einmal überprüft, es ist alles in Ordnung. Es handelt sich um eine große Website, allerdings sind nur 100 Seiten auf Index gestellt.

Antwort: Schwierig. Ihr könntest es noch mit einer info-Abfrage versuchen (info:url), um zu sehen, ob die URL(s) Google bekannt ist / sind.


08.09.2015, 56:26

Frage: Kunden haben eine wichtige Seite. Aber Google zeigt immer doch die Volume 1 davon, nicht die neue Volume 2. Was kann man tun?

Antwort: Das ist nicht einfach. Wenn eure alte Seite immer noch so stark ist, dann ranken wir sie weiter – vor allem, wenn wir nur wenige Informationen zur neuen Seite haben. Vielleicht könntet ihr sie zu einer Überseite für das Thema machen, um von dort auf die jeweiligen Volumes zu verlinken.


27.08.2015, 37:08

Frage: Seit ein paar Tagen schwankt bei dem von mir betreuten Onlineshop die Zahl der indexierten Seiten +/-30 (bei ca. 200 Seiten). Außerdem sind die Positionen sehr instabil und schwanken auch bei den URLs. An was könnte das liegen?

Antwort: Es könnte sein, dass dort auf Google’s Seite etwas geändert wurde, als wir die Indexierung neu berechnet habe. Bei den indexierten Seiten muss man sich keine Sorgen machen. Bezüglich der Schwankungen: Die Algorithmen scheinen sich unsicher zu sein, wie sie diese Website bewerten sollen. (Siehe auch unseren Beitrag zum Thema Update am Indexierungsvorgang).


27.08.2015, 28:21

Frage: Wir haben vor, unsere URLs auf https umzustellen und auch sonst einiges daran zu ändern, wie schnell werden die neuen URLs indiziert?

Antwort: Geht in der Regel sehr schnell. Wenn Google eine Weiterleitung findet, folgt Google dieser. Wenn es weder Weiterleitung noch Canonical gibt, ist dies für Google deutlich schwieriger. Es sollte also sichergestellt werden, dass Google auf die neue Version hingewiesen wird.


27.08.2015, 10:27

Frage: In Seach Console hat sich der Indexierungsstatus (nicht die Sitemapindexierung!) meiner Seite vor einigen Tagen plötzlich halbiert. Ein Fehler bei euch, oder liegt’s an meiner Seite? goo.gl/QPN7Fz

Antwort: Die Frage wurde in letzter Zeit häufiger gestellt worden. Es gab Veränderungen am Algorithmus des Indexierungs-Vorganges – das Google Team wird sich das noch einmal ansehen, um Probleme auszuschließen. (Siehe auch unseren Beitrag zum Thema Update am Indexierungsvorgang).


14.08.2015, 45:15

Frage: Was ist ein gutes URL Parameter Tool, um mit Parametern umzugehen? Sollte ich immer die Option “Googlebot entscheiden lassen” wählen?

Antwort: “Googlebot entscheiden lassen” ist die Standardeinstellung. Wenn ihr mit dem, was indexiert wird, zufrieden seid, dann lasst die Einstellung so. Wenn ihr dem Googlebot etwas spezielles mitteilen wollt, dann könnt ihr uns diese Informationen geben.


31.07.2015, 49:15

Frage: Ist es möglich, dass viele paginierte Kommentare im Index zum Problem werden können? Barry sagt, er hätte lediglich die Kommentare zu JavaScript geändert, um sich aus dem letzten Panda zu befreien.

Antwort: Ich weiß nicht, was mit Barry’s Seite passiert ist. Aber wir lesen auch JavaScript, daher ändert das vielleicht gar nicht so viel. Schlussendlich hängt es immer von der Qualität der Kommentare ab. Sind sie gut, dann helfen sie dem Nutzer und der Seite. Sind sie durchschnittlich, kann es in beide Richtungen gehen. Leute zum Mitmachen zu bewegen ist gut, aber vielleicht sollte man die besten Kommentare hervorheben und die anderen aus dem Index entfernen.


31.07.2015, 46:24

Frage: Wir haben auf einmal sehr viel weniger indexierte Seiten. Wir haben mit SEO angefangen, eine Sitemap eingereicht und Fetch as Google genutzt. Aber es gibt noch keine Veränderung – was kann man tun?

Antwort: Hier gibt es einige Punkte zu beachten. Site Query ist ein schlechter Weg, um die Anzahl der indexierten Seiten herauszufinden. Die Nummern in Search Console beziehen sich immer nur auf die Seiten, die ihr verifiziert habt – nutzt also in jedem Fall die Canonical Tags und schaut euch alle Variationen eurer Seite an. Bei einem solchen Abfall weiß man selten direkt, woran es liegt. Vielleicht haben wir bisher Session IDs genutzt und viel zu viele Seiten indexiert. Ihr müsst euch also mehrere Faktoren ansehen. Es ist nicht garantiert, dass wir alles direkt in den Index nehmen und dann auch für immer darin behalten.


02.07.2015, 38:43

Frage: Wie geht Google mit Daten wie z. B. der Bounce Rate um, wenn eine Website einen Tag offline ist?

Antwort: Google muss damit umgehen. ? Wir versuchen, die Seiten schnell aus dem Index zu nehmen – aber auch, sie schnell wieder reinzupacken. Aktuell wird seitens Google überlegt, ob da eine Art Warnsystem für Webmaster eingerichtet werden kann. So nach dem Motto: „Achtung, du hast keine 503 eingerichtet, schau dir mal bitte deinen Server an“. Grundsätzlich kann sich eine Website davon recht schnell wieder erholen.


17.06.2015, 42:56

Frage: Wie lange dauert es, bis Google eine E-Commerce-Page oder einen Blogpost nach der Veröffentlichung indexiert? Macht die Fetch as Google-Funktion oder der Data Highlighter es einfacher, diese Seite indexiert zu bekommen?

Antwort: Wenn die Fetch as Google-Funktion genutzt wird, und die Inhalte hier für die Indexierung eingereicht werden, versucht Google diese Hinweise zu beachten. Um welchen Inhalt es sich handelt, ist egal. Normalerweise versuchen wir, neue Inhalte innerhalb eines Tages zu erfassen. Wenn Google mit Hilfe einer Sitemap oder eines Feeds auf neue Inhalte hingewiesen wird, kann das noch schneller gehen. Man muss Fetch as Google also nicht benutzen, um auf neue Inhalte hinzuweisen. Der Data Highlighter hat mit der Indexierung nichts zu tun.


02.06.2015, 51:10

Frage: Wie sorgt man dafür, dass eine Website schnell indexiert wird?

Antwort: Eine sehr schnelle Variante ist, die Website in der Google Search Console unter „Fetch as Google“ und dann „Submit to Indexing“ einzureichen. Auch die Einreichung einer Sitemap ist hilfreich.

Inhaltsverzeichnis

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als Inhaber des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

Hinterlasse eine Antwort