Indexierung

Werbung

 


02.12.2016, 02:45

Frage: Wir haben eine große Seite mit flacher Struktur. Ist es problematisch, wenn viele Unterseiten nicht mehr von der Seite verlinkt werden, aber trotzdem im Index bleiben? Es gibt dort Inhalte und sie können gerne in den SERPs erscheinen, an sich sind die Seiten uns aber egal. Wie sieht es dann mit dem Crawldbudget aus?

Antwort: Wir werden sie größtenteils im Index behalten und sie auch weiterhin crawlen. Aber wir werden sie als nicht so wichtig ansehen. Es kann also auch passieren, dass sie irgendwann aus dem Index fliegen – wenn sie gar keine Links haben. Das hängt aber auch ein wenig von der Historie der Seiten ab. Also, ob sie einmal wichtig waren. Wenn wir sie weiter crawlen, dann brauchen wir dafür ein paar Ressourcen – wir konzentrieren uns aber auf die wichtigen Seiten. Die unwichtigen schauen wir uns nur an, wenn noch Ressourcen übrig sind. Ich persönlich würde auch immer schauen, ob man Seiten wirklich braucht.


01.12.2016, 22:20

Frage: Wir haben einen recht großen Shop der unter einer Subdomain läuft. Ende letzten Monats sind die Rankings der Subdomain stark gesunken, die Rankings der Hauptdomain sind dagegen stark gestiegen obwohl es auf der Hauptdomain keinen Inhalt gibt sondern alle Links per 301 Redirect auf die Subdomain verweisen. Die Trafficzahlen sind stabil (Domain leitet ja weiter) Dennoch frage ich mich warum die Subdomain so stark an Sichtbarkeit verloren hat?! An der Indexierung hat sich nichts verändert.

Antwort: Das weiß ich nicht. Am besten solltet ihr mir eine Nachricht auf Google+ mit Beispielen schicken. Wir nutzen für Canonicals aber auch mehrere Signale und nehmen dann die passendste Seite. Wenn die also nicht eindeutig sind, gibt es Probleme.


29.11.2016, 38:59

Frage: Seit September zeigt Google .co.uk URLs (die als .com gecached sind) obwohl wir 2015 auf .com umgezogen sind. Die Hälfte unseres Traffic kommt nun von den .co.uk URLs – insgesamt haben wir etwa 2,8 Mio URLs.

Antwort: Davon habe ich zu der zeit ein paar Fälle gesehen. Wir haben die Anzeige von URLs etwas geändert und da kommt das wohl her. Das ist nicht perfekt, denn wenn ihr uns solche Signale sendet, dann sollten wir das sehen und verarbeiten. Wir diskutieren da intern noch drüber, du kannst mir also gerne Beispiele zuschicken. Dann kann ich das mit dem Team anschauen.


29.11.2016, 34:47

Frage: Wir haben einen guten Artikel erstellt, der auch direkt gefunden werden konnte. Nach weniger als einem Tag ist er aber komplett aus dem Index verschwunden. Wir haben ihn dann wieder eingereicht, aber auch diesmal war er nach einem Tag wieder weg.

Antwort: Sowas kann passieren. Wir garantieren nicht, dass all eure Inhalte im Index landen oder dort bleiben.


21.10.2016, 17:56

Frage: Ist es für die Seitenqualität besser, nur die absolut besten Seiten indexieren zu lassen? Wird das meinen Panda Score verbessern?

Antwort: Ihr müsst euch überlegen, was für eure Seite und eure Zielgruppe Sinn macht. Ich würde wirklich schlechte Dinge verbessern. Ansonsten solltet ihr nicht alle Dinge, die nicht perfekt sind, deindexieren. Denn wir brauchen ja auch Kontext, um eure Seite gut zu ranken.


20.10.2016, 08:34

Frage: Für die Suchanfrage nach “GMX” rankt oft die Domain gmx.de. Unsere Haupt-Domain ist aber gmx.net. Wie kann man es deutlicher machen, dass die Marke “GMX” zur Domain gmx.net gehört?

Antwort: Das müsste ich mir mal anschauen. Wir scheinen die Äquivalenz nicht zu erkennen.


06.10.2016, 05:53

Frage: Die Startseite unserer Website befindet sich in einem Verzeichnis (z.B. “www domain de/start”). Jedoch wird in den SERPs die Root-Domain angezeigt, also “www domain de” und nicht die exakte URL meiner Startseite. Sitemaps usw. wurden gepflegt / auch Abrufe der URL über die Search Console haben nicht weitergeholfen. Was können wir noch tun, damit die korrekte Startseiten-URL in den Suchergebnissen ausgegeben wird?

Antwort: Schwer zu sagen. Ich denke, dass unsere Algorithmen die verschiedenen Varianten kennen und versuchen, die passendste in den SERPs zu zeigen. Da kommen viele Faktoren zusammen, z.B. Canonicals, Weiterleitungen und interne Links sowie die Sitemap. Aber wir nehmen auch die Länge der URL dazu. Sind zwei gleichwertig und eine ist viel kürzer, dann nehmen wir die, weil es in den SERPs besser aussieht. Das ändert nichts am Ranking, sondern nur, welche URL dargestellt wird. Da müsst ihr meist nichts machen, da die Inhalte ja trotzdem zu sehen sind. Sind die Inhalte aber etwas anders, dann müsst ihr euch darum kümmern und mir vielleicht mal ein Beispiel schicken.


04.10.2016, 35:23

Frage: Wir haben dynamische Inhalte, die sich je nach Standort des Nutzers ändern. Es werden aber auch für andere Staaten immer die Inhalte für Kalifornien angezeigt.

Antwort: Das ist oft ein schweres Problem, da gibt es nicht die eine Antwort. Wir versuchen, für jede URL einen Inhalt zu indexieren. Da wir vor allem aus Kalifornien crawlen, sehen wir dann das und zeigen es im Index. Habt ihr unterschiedliche Inhalte, dann müssen die Dinge auf eigenen URLs stehen. Dann können wir sie sehen und entsprechend indexieren. Wenn ihr das gemacht habt, dann ist es eher ein technisches Problem. Vielleicht haben die Seiten ein Canonical? Oder es sind identische Inhalte, dann klappen wir das zusammen. Wenn ihr eine Info-Anfrage für eine URL macht und wir dann eine andere zeigen, dann ist das wahrscheinlich der Fall. Die Hilfeforen sind hier auch oft ein guter Ort, um solche Dinge zu hinterfragen.


23.09.2016, 34:48

Frage: Wir haben früher X verkauft und verkaufen jetzt Y. Wir haben die alten Seiten zu 404ern gemacht und unpassende Links disavowed. Aber unten in den SERPs sehen wir immer noch alte Seiten. Unsere Rankings sind seit der Umstellung auch nicht mehr so gut.

Antwort: Wenn es X nicht mehr gibt, sind die Suchanfragen für Y ja etwas separates. Das neue muss ja nicht 1:1 so ranken wie das alte. Vielleicht habt ihr auch etwas vergessen, denn die alten Seiten sollten nicht mehr erscheinen. Habt ihr sie vielleicht per robots.txt blockiert? Weil dann können wir das 404 ja nicht sehen.


23.09.2016, 01:43

Frage: Wir haben eine flache Kategoriestruktur mit vielen nutzergenerierten Inhalten. Ist es ok, auch ein paar interne Suchergebnisseiten zu indexieren, da sie immer wieder gesucht werden?

Antwort: Könnt ihr machen. Ihr sollte es aber limitieren, da wir sonst immer weiter crawlen. Und macht es auch nur, wenn die Seiten hilfreich sind, denn oft sind Suchergebnisseiten das nicht.


20.09.2016, 57:01

Frage: Kannst du etwas zu den mehr als 1 Milliarde Seiten sagen, die aus dem Index entfernt wurden?

Antwort: DMCA Fälle werden im Transparenz-Report aufgelistet und gehen auf Basis von Unterseiten.


08.09.2016, 31:23

Frage: Bei “site:domain.de” tauchen unerwünschte Ergebnisse mit Parametern auf. Die Parameter sind unter “Crawl” > “URL Parameters” gelistet und mit “No URLs” markiert. Es gibt auf den Seiten auch ein – hoffentlich – korrektes rel=canonical-Element. Was fehlt?

Antwort: Wir sehen Seitenabfragen als unnatürliche Anfragen. Da kann es dann normal sein, weil wir da nicht nach Relevanz gehen. Fragst du gezielt nach einer URL, dann zeigen wir sie, auch wenn sie nicht das Canonical ist. Wir crawlen ja trotz des Parameters. Ihr könnt euch die gecachte Seite anschauen, um zu sehen, was die indexierte Version ist. Das sollte sich auch schnell wieder einpendeln.


12.08.2016, 39:55

Frage: Unsere ganze .de Domain ist vor Kurzem aus dem Index geflogen. Wir haben nichts geändert und kennen den Grund dafür nicht.

Antwort: Schwer zu sagen, was da passiert sein könnte. Ist das auf einmal passiert oder über einen längeren Zeitraum? Ist es etwas spontanes, dann ist es vielleicht etwas wie das URL Removal Tool. Ist es langsam, dann ist es vielleicht etwas technisches auf eurer Seite, sodass wir die Seite nicht mehr richtig sehen können. Ihr solltet das mal in den Hilfeforen posten.


11.08.2016, 51:48

Frage: Wir kriegen bei Seitenabfragen eine hohe Zahl an Seiten, aber den Hinweis, dass viele Ergebnisse ähnlich sind.

Antwort: Das ist eigentlich unproblematisch. Diese Angabe ist eine optimistische Schätzung und hat wenig mit der Realität zu tun. Das ähnlich bezieht sich auf die Snippets, die Seiteninhalte könnten trotzdem einzigartig sein. Schaut euch bei der Sitemap die indexierten URLs an.


29.07.2016, 38:01

Frage: Sollte die Anzahl der indexierten Seiten in etwa so hoch sein wie die, die in den SERPs angezeigt werden? Sind beide Zahlen sehr unterschiedlich, lässt sich das als viel DC oder Fehlerseiten deuten?

Antwort: Ich glaube nicht, dass das immer der Fall ist. Die Zahlen können auch mal gleich sein, aber das kann dann auch eher Zufall sein. Viele URLs zeigen wir nicht, weil nicht nach ihnen gesucht wird. DC könnte man eher sehen, wenn man alle einzigartigen Seiten in eine Sitemap packt und diese Nummer mit dem Indexierungsstatus abgleicht. All diese Werte muss man aber auch immer im Kontext der Seite sehen und hinterfragen.


01.07.2016, 53:24

Frage: Ein Kunde bittet mich, seine URLs nur in Google.com indexieren zu lassen und nicht in Google.co.in.

Antwort: Das könnt ihr nicht beeinflussen. Das hängt immer davon ab, wo sich der Nutzer befindet. Ihr könnt aber nicht gewisse Länder ausschließen – ihr könnt nur mit Geotargeting und Hreflang sagen, welche auch am liebsten sind.


17.06.2016, 58:51

Frage: Was kann getan werden, wenn eine Website nicht im Index auftaucht?

Antwort: Wenn eine Website noch nicht im Index vermerkt ist, versuchen wir generell, sie in unseren Index zu integrieren und mit der Seite verbundene Links zu verfolgen. Das ist eine schwierige Situation. Denn trotz der Googlebots gibt es keine Garantie, dass alle Webseiten jemals im Index auftauchen.

Weitere Frage: Mir geht es mehr um den Einfluss der Search Console. Wie bewertet der Algorithmus die Homepages als positiv oder negativ?

Antwort: Wir versuchen, ausgewählte Aspekte bei der Bewertung zu gewichten. Ist eine Website eine typische Randerscheinung, fällt diese bei der Suche zumeist nur gering ins Gewicht. Ich schaue mir deine Webseiten, die du mir geschickt hast, an. Anschließend schicke ich dir eventuell Verbesserungstipps zu.


17.06.2016, 52:48

Weitere Frage: Wir haben schon vor geraumer Zeit die Entscheidung getroffen, unsere Webseiten aufgrund zu vieler Inhalte zu überarbeiten. Wie schaffen wir es, alle Webseiten zu indexieren?

Antwort: Ich sehe kein Problem darin, auch mehrere tausend Seiten zu indexieren.


17.06.2016, 47:24

Frage: Bei der Verwendung des Suchbegriffs „tele2 klantenservice“ tauchen auf Google.nl große Telefonnummern in den SERPs auf. Diese Darstellung sehen unsere Konkurrenten aber nicht. Wie können wir diese Telefonnummern entfernen?

Antwort: Du kannst die Telefonnummer nicht direkt entfernen. Aber du kannst die Telefonnummer auf euren Homepages markieren. Hebst du einige Telefonnummern hervor, werden sich diese Spezifizierungen in der Google-Suche widerspiegeln.


17.06.2016, 45:26

Frage: Ich wollte fragen, ob es möglich ist, meine bestehenden persönlichen Daten von einer Website zu löschen, auf der ich mich angemeldet hatte. Ich habe meine persönlichen Daten bei der Google-Suche gefunden und würde diese gern löschen.

Antwort: Ich würde mich an den Webmaster dieses Forums wenden. Normalerweise klären dich die Ansprechpartner über einzelne Schritte auf, um deine Daten zu löschen. Bitte achte darauf, in eventuellen Postings nicht deinen richtigen Namen anzugeben. Dieser könnte anderenfalls wieder bei der Google-Suche auftauchen.


17.06.2016, 20:55

Frage: In deinem letzten Hangout hast du erwähnt, dass der Algorithmus eine durchschnittliche Menge an Zeit benötigt, bevor sich eine Änderung der internen Linkstruktur nach einem Setup auf das Ranking auswirkt. Von welchem Zeitrahmen sprichst du hier?

Antwort: Es gibt keinen genauen Zeitrahmen für derartige Änderungen. Das liegt einerseits daran, wie oft wir Homepages von deiner Webseite crawlen. Andererseits hängt der Zeitansatz von der Struktur deiner Website sowie den vorgenommenen Änderungen ab. Werden beispielsweise alle URLs einschließlich der internen Struktur verändert, müssen wir erst einmal herausfinden, inwiefern sich der komplette Charakter einer Website verändert. Wenn ich einen vagen Zeitrahmen angeben soll, kannst du schon von einigen Wochen oder gar Monaten ausgehen. Das ist der Grund, weshalb ich Webseitenbetreibern rate, derartige Änderungen wirklich nur bei Bedarf vorzunehmen. Deswegen solltet ihr die Änderungen nur vornehmen, wenn diese für einen langen Zeitraum anhalten. Findet eine Struktur, die eurer Website angepasst ist und auf der ihr für lange Zeit aufbauen könnt.


03.06.2016, 50:11

Frage: Kann eine Seite ihren Indexierungsstatus verlieren? Ich habe weniger indexierte Seiten als noch vor einer Woche?

Antwort: Diese Zahl ändert sich immer mal wieder, das ist total normal. Schaut euch lieber die Suchanalyse an. Wenn dort gut rankende Seiten verschwinden, dann müsst ihr euch darum kümmern.


03.05.2016, 45:20

Frage: Wir haben eine Sitemap eingereicht, aber es dauert sehr lange, bis die 100+ Seiten indexiert werden. Es kommt nur etwa eine pro Tag in den Index, ist das normal?

Antwort: 100 Seiten sollten eigentlich in etwa einem Tag von uns gesehen werden. Vielleicht können wir eure Seite nicht richtig crawlen, das liegt dann meist am Server. Vielleicht gibt es auch technische Probleme auf eurer Seite. Schaut euch das mal im Fetch as Google Tool in Serarch Console an.


03.05.2016, 43:54

Frage: Wir fügen Inhalte hinzu, tun Seiten in die Sitemap und nutzen Fetch as Google. Was kann man noch tun, um die Sichtbarkeit zu erhöhen?

Antwort: Sobald ihr uns die Seiten geschickt hat, dann sehen wir sie und indexieren sie. Der Rest sind dann SEO Maßnahmen.


08.04.2016, 58:53

Frage: Welche Öffnungszeiten nutzt Google, die aus der My Business App oder die von meiner Website?

Antwort: Da gibt es immer verschiedene Meinungen. Kümmert euch am besten darum, dass sie überall gleich sind.


07.04.2016, 13:57

Frage: Wie lange kann es maximal dauern, bis neue Inhalte/Landing Pages komplett von Google “erfasst” wurden? Hintergrund: NEUE Seiten, erstellt für div. Produktarten, die jedoch nicht für das entsprechende Produkt ranken.

Antwort: Wir müssen die Seiten erst einmal sehen und crawlen, das kann je nach Website unterschiedlich schnell gehen – Tage oder Monate. Ihr könnt aber eine Sitemap einreichen. Wir müssen die Inhalte aber auch sauber verstehen und indexieren. Außerdem müssen wir ein passendes Ranking finden. Man kann also keine maximale Dauer nennen.


10.03.2016, 47:10

Frage: Für unsere Seite www.heckenpflanzen.de haben wir eine Sitemap in Search Console hinterlegt, wonach auch 476 URLs indexiert wurden. Unter dem Indexierungsstatus steht jedoch nur insgesamt eine Seite als indexiert. Woran kann das liegen?

Antwort: Das weiß ich nicht, ich muss mir das mal anschauen. Es kann aber daran liegen, dass alles neu ist. Dann braucht es immer ein paar Tage oder eine Woche, bis die Daten angeglichen werden. Fragt vielleicht mal im Webmaster Hilfeforum nach.


23.02.2016, 18:48

Frage: Viele PDFs auf meinen Produktseiten schaffen es nicht in den Index, kannst du mir sagen, woran das liegen könnte? Sollte ich sie einfach zu den Produkttabs hinzufügen oder führt das zu DC?

Antwort: Grundsätzlichen indexieren wir PDFs wie normale Seiten. Aber sie werden wahrscheinlich nicht so oft refreshed. Wenn es Links zu den Seiten gibt, dann versuchen wir auch, sie zu indexieren. In deinem Fall finden wir also vielleicht die Links nicht, weil sie Nofollow sind oder sich nicht in statischem HTML befinden. Oder es liegt daran, dass wir schon so viele Inhalte aus deiner Seite im Index haben. Wir können nie garantieren, dass alle Inhalte im Index landen. Manchmal hören wir ab einer bestimmten Stelle auf, crawlen aber weiter und indexieren dann nur noch Dinge, die wirklich toll sind. Wenn ihr die PDFs unbedingt im Index wollt, dann packt die Inhalte vielleicht direkt auf die Produktseite – dann müssen die Nutzer nicht einmal mehr etwas herunterladen.


29.01.2016, 00:56

Frage: Was ist die Best Practice, um Blogs, wo auf einer Seite oft neue Inhalte erscheinen, regelmäßig mit allen Updates in den Index zu bekommen?

Antwort: Wir wollen den Content erreichen und müssen daher alles erreichen können. Wenn Inhalte also erst durch Scrollen oder Nachladen erreicht werden, dann sehen wir es vielleicht nicht. Aber auf einem Blog sind meist eh alle Artikel verlinkt, dann brauchen wir Dinge wie Infinite Scroll gar nicht. Wenn wir den Content direkt erreichen, dann braucht es das nicht für uns – ihr könnt es aber trotzdem für die Nutzer machen, wenn ihr das gerne möchtet.


28.01.2016, 40:28

Frage: Indexiert Google Kommentare von Plattformen wie Facebook oder disqus? Wir konnten bei einem Mitbewerber in den SERP Snippets sehen, dass dort Teile der Facebook Kommentare angezeigt werden. Wird der Inhalt dieser auch als Content der Seite “angerechnet”?

Antwort: Zum Teil können wir das machen. Manche dieser Plattformen blockieren die Kommentare per robots.txt. Wenn die Kommentare aber beim Crawling erreichbar sind, dann können wir das machen. In solchen Fällen zählen die Kommentare als Teil der Seite und die Seite kann daher auch für sie ranken.


26.01.2016, 09:43

Frage: Ich habe eine Frage zum Indexierungsstatus. Vor dem 17.08.15 hatte ich 28 Mio indexierte Seiten, jetzt nur noch 10 Mio. Es gab einen Bug im Reporting um den 17.08.15. Aber die Sitequery zeigt nur 600.000 Ergebnisse.

Antwort: Das sind sehr unterschiedliche Nummern, daher sind Fluktuationen normal. Queries sind nicht akkurat, sondern auf Schnelligkeit optimiert. Da werdet ihr also nichts genaues sehen sondern eher eine Schätzung unsererseits. Index Status ist genauer, da es sich mehr auf den Index selbst bezieht. Aber es ist nicht gesagt, dass ihr diese URLs wirklich wichtig findet, da es DC und vieles andere beinhalten kann. Schaut euch lieber den Sitemap Index Count an. Eine Sitemap mit allen URLs die euch wichtig sind sorgt dafür, dass ihr genau seht, ob all diese es in den Index geschafft haben.


15.01.2016, 54:35

Frage: Wie lange dauert es, bis eine neue Seite im Index erscheint und die Relevanz erkannt wird?

Antwort: Das kommt darauf an. Manchmal geht das in ein paar Stunden – aber das gilt nur für die URL selbst. Die Seite komplett zu verstehen und die Relevanz zu erkennen wird etwas dauern. Am Anfang sind die Rankings oft mit einigem Raten verbunden und steigen oder fallen später noch.


15.12.2015, 40:48

Frage: Besteht zwischen dem Crawling und der Indexierung irgendeine Verbindung? Mir geht es um indexierte Seiten.

Antwort: Ich glaube, die generelle Frage hier ist, was, wenn die Seite bereits indexiert wurde, der Unterschied zwischen einer Seite, die häufig gecrawlt und einer Seite, die nicht so häufig gecrawlt wird, ist. Wir versuchen solche Seiten häufig zu crawlen, die wir als wichtig empfinden.


15.12.2015, 37:07

Frage: Gibt es eine Möglichkeit, herauszufinden, welche Seiten nicht indexiert wurden – abseits der Nutzung von kleinen Sitemaps? Hast du noch irgendwelche Tipps hinsichtlich der Frage, warum Seiten nicht indexiert werden könnten?

Antwort: Sitemaps sind auf jeden Fall eine Möglichkeit, das herauszufinden. Eine andere Sache, die ihr machen könntet, ist, einen Blick in die Server Logs zu werfen, um zu ermitteln, welche Seiten durch die Suche Traffic erhalten. Das sagt euch indirekt, welche Seiten indexiert wurden. Ich würde mich vermutlich eher darauf fokussieren und nicht so sehr auf den technischen Part. Hinsichtlich der Nicht-Indexierung von Seiten: Es gibt verschiedene Gründe – manchmal stufen wir Seiten als Spam ein und indexieren sie daher nicht. Manchmal erkennen wir, dass es sich bei Seiten um Duplikate handelt und indexieren sie nicht. Manchmal haben wir für Seiten auch nicht genügend Signale – in diesem Fall helfen die Sitemap und die interne Navigation. Ich würde mich aber nicht darauf fokussieren, jede einzelne Seite einer Website indexiert zu bekommen – das geschieht nur äußerst selten. Fokussiert euch darauf, die Seiten indexiert zu haben, die wichtig sind!


15.12.2015, 22:02

Frage: Was ist der schnellste Weg, um unsere Inhalte in den Index zu bekommen?

Antwort: Wenn ihr eine kleine Seite habt, nutzt Abruf durch Google, an den Index schicken. Für eine größere Seite nutzt eine Sitemap.


11.12.2015, 21:30

Frage: Wie sollen Webmaster entscheiden, welche Seiten in den Index gehören und welche nicht?

Antwort: Laut dem Search Quality Team sollen Seiten mit schlechten Inhalten nicht auf Noindex gestellt werden – sondern ihr solltet sie verbessern. Ich weiß, dass das nicht immer einfach ist – aber das wäre Google’s liebste Option.


03.12.2015, 17:20

Frage: Um in einer Faceted Search zwei und mehr Filterkombinationen von der Indexierung auszuschließen, ist es da besser, ab jedem zweiten Filter das PRG-Pattern zu verwenden oder diese über die robots.txt zu sperren?

Antwort: Ich weiß nicht, was das PRG Pattern ist. Aber grundsätzlich würde ich so etwas nicht per robots.txt aussperren, da wir dann nicht sehen können, was dahinter steht. Wir sollten so etwas immer crawlen können. Wir haben einen Blogpost aus 2014 zur Faceted Search, da gibt es viele Hinweise. Es gibt hier kein Allheilmittel, sondern ihr müsst schauen, welche Variante für eure Website passt.


01.12.2015, 15:01

Frage: Google indexiert meine Seite nicht. Es gibt keine Content Keywords und man erkennt keine strukturierten Daten. Bei der Site Query Abfrage erscheinen aber die meisten Seiten.

Antwort: Ich habe mir das angesehen und du hast einen Umlaut in der URL. Oft passiert es dann, das eine zweite Seite ohne Umlaut existiert. Bei dir sind auch manche Inhalte in der Version mit Umlaut indexiert, andere in der Version ohne. Suche dir eine davon aus und mach diese zur Canonical Version der Seite.


05.11.2015, 51:41

Frage: Wenn ich einem Inhalt eine neue URL gebe und diese zur Indexierung einreiche, sollte ich dann gleich die alte URL zum De-Indexieren einreichen? Oder sortiert Goggle das von alleine? Korrekte Weiterleitung ist gesetzt.

Antwort: Die Weiterleitung ist uns da wichtig, dann sehen wir, dass die URL ersetzt wird. Da braucht ihr keinen extra Antrag stellen. Eine Zeit lang kann es aber passieren, dass die alte URL noch angezeigt wird, wenn man gezielt nach ihr sucht. Das führt aber zu keinen Problemen.


27.10.2015, 29:33

Frage: Wenn man viele Quellen einfügt, sollte man diese dann per Fetch as Google schneller in den Index bringen, oder würde euch das bei vielen Quellen Probleme verursachen?

Antwort: Grundsätzlich fokussieren wir uns da nicht drauf. Wenn ihr Inhalte ändert, die schnell in den Index müssen, dann könnt ihr Search Console so nutzen. Aber nur, weil ihr Quellen einfügt, ändert das ja nicht eure ganze Seite (außer diese sind eure einzigen Inhalte). Das ist nichts, worüber ich mir Sorgen machen würde.


16.10.2015, 56:06

Frage: Was ist der Unterschied zwischen dem Googleindex und dem Googlebot? Wie wirkt sich das auf die SERPs aus?

Antwort: Der Googlebot ist der Crawler, der losgeschickt wird, um die Seiten zu crawlen. Der Index ist der Platz, wo diese gespeichert werden.


16.10.2015, 51:51

Frage: Ich möchte meine Seite ohne #! indexieren lassen und meine Firma liefert keinen HTML Snapshot an Suchmaschinen. Nach der gestrigen Bekanntmachung – Soll ich daran arbeiten, dass der Server HTML Snapshots liefert oder wie?

Antwort: Wir brauchen individuelle URLs. Du könntest das #! mit HTML5 in eine sauberere Struktur überführen. Die Schnappschüsse kommen später. Ansonsten kann das Fetch and Render Tool genutzt werden, um zu testen, wie das mit den Snapshots funktioniert.


15.10.2015, 18:57

Frage: Wir haben eine Produktwebseite (200 Seiten) und im Unterverzeichnis dieser Domain eine Hilfe Website (1200 Seiten) mit Anleitungen (viele Fachbegriff etc.). Sollten wir diese Hilfeseite indexieren lassen? Verwässerungsgefahr Content, Keywordlisten mit Hilfeseiten?

Antwort: Ich würde das auf jeden Fall indexieren lassen. Hilfeseiten sind ja meist Fachwissen, daher könnte es sicher für Suchende relevant sein. Das ist meist eine gute Ergänzung zu gezielten Produktseiten, da hier Probleme gelöst werden und diese dann auch weiterempfohlen werden. Wenn ihr euch nicht sicher seid, startet erst einmal mit einem kleinen Teil der Seiten.


15.10.2015, 03:01

Frage: Wir bauen einen Filter, um Ergebnisse einzugrenzen: Klickt man auf Berlin-Mitte, wird der Filter aktiviert – um ihn zu deaktivieren, klickt man noch mal darauf. Problem: Der Linktext “Berlin-Mitte” führt zu den Ergebnissen von “Berlin” – ist das ein Problem?

Antwort: Aus unserer Sicht ist das eigentlich kein Problem. Wenn wir die Inhalte finden, dann können wir sie auch indexieren. Wenn der Ankertext nicht mit den Inhalten übereinstimmt, dann ist das eher ein Usabilityproblem.


24.09.2015, 48:59

Frage: Wie sollen wir vorgehen, wenn wir zwei WordPress Wes, von denen das eine das Hauptweb mit der Index Seite ist, vertauschen möchten, ohne Probleme mit angepassten URL resp. unaufindbaren URLs zu bekommen? Kann Google manuell diese Anpassung verarbeiten?

Antwort: Hierfür haben wir momentan keine Hilfstools, vielleicht braucht ihr eine dritte oder vierte Seite, um dann sauber weiterzuleiten.


11.09.2015, 51:40

Frage: Wie kann ich ein doc Dokument komplett aus der Google-Suche löschen?

Antwort: Im Bestfall sollte man es vom Server löschen und dann das URL Removal Tool nutzen – wenn die Seite aber noch existiert, dann wird es für uns schwierig, zu entscheiden, was wir machen sollen.


11.09.2015, 14:14

Frage: Wir sind eine verifizierte Website und haben einige tausend Seiten, die generell zwei oder drei Ergebnisse anzeigen, während andere keinerlei Ergebnisse listen. Grund dafür ist, dass es in einigen Städten keine Ergebnisse gibt. Werden diese Seiten mit drei oder vier Ergebnissen als Low Quality Pages gewertet?

Antwort: Generell würde ich empfehlen, Suchergebnisseiten mit 0 Ergebnissen von der Indexierung zu blockieren. Für Nutzer ist es eine schlechte Benutzererfahrung, wenn sie auf ein Suchergebnis klicken, was sie auf ein Suchergebnis mit 0 Einträgen führt – daher sollte das vermieden werden.


10.09.2015, 52:50

Frage: Wir haben eine Ratgeberdomain, die schon vorher bestand und in die Richtung Adult-Content ging. Nun haben wir die Seite überarbeitet und sehen aber, dass wir kaum organischen Traffic bekommen. Muss man bestimmte Maßnahmen berücksichtigen, damit Google merkt, dass es sich nicht mehr um Adult-Content sondern um seriösen Content handelt?

Antwort: Ich würde probieren, ob die Ergebnisse mit SafeSearch genauso sind. Wenn die Seite wirklich gefiltert wird, würde ich mich im Hilfecenter melden und angeben, dass die Seite fälschlicherweise gefiltert wird. Dort gibt es ein Formular. Es ist keine normale Frage des Crawlings, da bei gefilterten Seite manuell nachgeschaut werden muss.


10.09.2015, 51:48

Frage: Wir haben Search Box Code integriert, der eine Zeit lang von Google anerkannt wurde und auf interne Suche verlinkte. Seit ein paar Wochen ignoriert es Google und zeigt eigene Ergebnisse. Code ist laut Testing Tool richtig. Was können wir machen?

Antwort: Es braucht einige Zeit, bis der Code wirklich sauber sichtbar ist. Wenn er sichtbar war und jetzt nicht mehr funktioniert, würde ich auf ein technisches Problem tippen. Schick uns den Link einfach mal zu.


10.09.2015, 47:41

Frage: Wir haben seit letzter Woche das Problem, dass plötzlich über 300.000 indexierte Seiten vorhanden sind, nachdem versehentlich robots.txt deaktiviert wurde. Wir haben die robots wieder aktiviert, wie bekommen wir am besten die 300000 Seiten aus dem Index?

Antwort: Ich würde mir die URL-Struktur anschauen. Wenn alle URLs im selben Unterverzeichnis sind, kann man sie gut mit dem URL-Entfernungstool entfernen lassen. Wenn die Struktur nicht klar erkenntlich ist, müssen wir die Seiten erst neu crawlen, um zu merken, dass sie blockiert sind. Das kann gut ein halbes Jahr dauern. Wenn es ein kritisches Problem ist, weil auf der Seite zum Beispiel persönliche Daten vorhanden sind, dann würde ich die ganze Seite entfernen lassen und alles Schritt für Schritt durchgehen. Persönliche Seiten sollten am besten durch ein Passwort oder durch noindex geschützt werden, falls wieder ein Problem mit der robots.txt auftritt.


10.09.2015, 31:56

Frage: Wir möchten ein Wörterbuch (Datenbank) mit vielen qualitativ hochwertigen Datensätzen als Subfolder in die Rootdomain (Sprachreisen) integrieren, über die Menüs verlinken. Der Shop weißt ca. 5000 Seite auf, das Wörterbuch viele Millionen. Ist das riskant?

Antwort: Es ist schwerig zu sagen. Auf der einen Seite sind es viele hochwertige Datensätze, auf der anderen Seite ist es ein Wörterbuch und all diese Wörter sind sicherlich schon irgendwo im Internet definiert, mit einer ähnlichen oder gleichen Definition. Wenn man alles zum Indexieren freigibt, hat man eine große Menge an Inhalten auf der Website, der keinen wirklichen Mehrwert für das Internet bringt. Ich würde mir überlegen, ob diese Inhalte wirklich so spannend sind, dass sie indexiert werden sollen. Erst, wenn man merkt, dass sich Benutzer für diese Inhalte interessieren, sollte man einen Teil oder das ganze Wörterbuch freischalten.


10.09.2015, 00:29

Frage: Wir haben einen Shop und folgendes Problem: Es gab ein Duplicate Content Problem, welches vergangene Woche behoben wurde – die Seiten werden jetzt sehr langsam indexiert. Dies ist der Fall, obwohl die Seite sich auf der zweiten Ebene befindet und auch sehr gut verlinkt wird. Die Website ist sehr gut strukturiert, daher verstehen nicht, warum diese Seiten nicht mehr indexiert werden.

Antwort: Meistens deutet das auf ein technisches Problem hin, d. h. das wir die Seiten irgendwie nicht richtig crawlen können. Vielleicht war zuvor ein noindex auf diesen Seiten oder es wurde ein 404er ausgelöst. Google versucht grundsätzlich, alle Seiten zu indexieren und schaut erst im zweiten Schritt, wie die Qualität ist und welche Signale es gibt. Das heißt, ich würde eher auf ein technisches Problem tippen. Ich würde alles durchgehen und prüfen (z. B. mit “Fetch as Google”) ob man darüber alle Seiten sauber holen kann und ob nicht z. B. irgendwo ein noindex vorhanden ist.

Folgefrage: Wir haben all diese Sachen schon einmal überprüft, es ist alles in Ordnung. Es handelt sich um eine große Website, allerdings sind nur 100 Seiten auf Index gestellt.

Antwort: Schwierig. Ihr könntest es noch mit einer info-Abfrage versuchen (info:url), um zu sehen, ob die URL(s) Google bekannt ist / sind.


08.09.2015, 56:26

Frage: Kunden haben eine wichtige Seite. Aber Google zeigt immer doch die Volume 1 davon, nicht die neue Volume 2. Was kann man tun?

Antwort: Das ist nicht einfach. Wenn eure alte Seite immer noch so stark ist, dann ranken wir sie weiter – vor allem, wenn wir nur wenige Informationen zur neuen Seite haben. Vielleicht könntet ihr sie zu einer Überseite für das Thema machen, um von dort auf die jeweiligen Volumes zu verlinken.


27.08.2015, 37:08

Frage: Seit ein paar Tagen schwankt bei dem von mir betreuten Onlineshop die Zahl der indexierten Seiten +/-30 (bei ca. 200 Seiten). Außerdem sind die Positionen sehr instabil und schwanken auch bei den URLs. An was könnte das liegen?

Antwort: Es könnte sein, dass dort auf Google’s Seite etwas geändert wurde, als wir die Indexierung neu berechnet habe. Bei den indexierten Seiten muss man sich keine Sorgen machen. Bezüglich der Schwankungen: Die Algorithmen scheinen sich unsicher zu sein, wie sie diese Website bewerten sollen. (Siehe auch unseren Beitrag zum Thema Update am Indexierungsvorgang).


27.08.2015, 28:21

Frage: Wir haben vor, unsere URLs auf https umzustellen und auch sonst einiges daran zu ändern, wie schnell werden die neuen URLs indiziert?

Antwort: Geht in der Regel sehr schnell. Wenn Google eine Weiterleitung findet, folgt Google dieser. Wenn es weder Weiterleitung noch Canonical gibt, ist dies für Google deutlich schwieriger. Es sollte also sichergestellt werden, dass Google auf die neue Version hingewiesen wird.


27.08.2015, 10:27

Frage: In Seach Console hat sich der Indexierungsstatus (nicht die Sitemapindexierung!) meiner Seite vor einigen Tagen plötzlich halbiert. Ein Fehler bei euch, oder liegt’s an meiner Seite? goo.gl/QPN7Fz

Antwort: Die Frage wurde in letzter Zeit häufiger gestellt worden. Es gab Veränderungen am Algorithmus des Indexierungs-Vorganges – das Google Team wird sich das noch einmal ansehen, um Probleme auszuschließen. (Siehe auch unseren Beitrag zum Thema Update am Indexierungsvorgang).


14.08.2015, 45:15

Frage: Was ist ein gutes URL Parameter Tool, um mit Parametern umzugehen? Sollte ich immer die Option “Googlebot entscheiden lassen” wählen?

Antwort: “Googlebot entscheiden lassen” ist die Standardeinstellung. Wenn ihr mit dem, was indexiert wird, zufrieden seid, dann lasst die Einstellung so. Wenn ihr dem Googlebot etwas spezielles mitteilen wollt, dann könnt ihr uns diese Informationen geben.


31.07.2015, 49:15

Frage: Ist es möglich, dass viele paginierte Kommentare im Index zum Problem werden können? Barry sagt, er hätte lediglich die Kommentare zu JavaScript geändert, um sich aus dem letzten Panda zu befreien.

Antwort: Ich weiß nicht, was mit Barry’s Seite passiert ist. Aber wir lesen auch JavaScript, daher ändert das vielleicht gar nicht so viel. Schlussendlich hängt es immer von der Qualität der Kommentare ab. Sind sie gut, dann helfen sie dem Nutzer und der Seite. Sind sie durchschnittlich, kann es in beide Richtungen gehen. Leute zum Mitmachen zu bewegen ist gut, aber vielleicht sollte man die besten Kommentare hervorheben und die anderen aus dem Index entfernen.


31.07.2015, 46:24

Frage: Wir haben auf einmal sehr viel weniger indexierte Seiten. Wir haben mit SEO angefangen, eine Sitemap eingereicht und Fetch as Google genutzt. Aber es gibt noch keine Veränderung – was kann man tun?

Antwort: Hier gibt es einige Punkte zu beachten. Site Query ist ein schlechter Weg, um die Anzahl der indexierten Seiten herauszufinden. Die Nummern in Search Console beziehen sich immer nur auf die Seiten, die ihr verifiziert habt – nutzt also in jedem Fall die Canonical Tags und schaut euch alle Variationen eurer Seite an. Bei einem solchen Abfall weiß man selten direkt, woran es liegt. Vielleicht haben wir bisher Session IDs genutzt und viel zu viele Seiten indexiert. Ihr müsst euch also mehrere Faktoren ansehen. Es ist nicht garantiert, dass wir alles direkt in den Index nehmen und dann auch für immer darin behalten.


02.07.2015, 38:43

Frage: Wie geht Google mit Daten wie z. B. der Bounce Rate um, wenn eine Website einen Tag offline ist?

Antwort: Google muss damit umgehen. 😉 Wir versuchen, die Seiten schnell aus dem Index zu nehmen – aber auch, sie schnell wieder reinzupacken. Aktuell wird seitens Google überlegt, ob da eine Art Warnsystem für Webmaster eingerichtet werden kann. So nach dem Motto: „Achtung, du hast keine 503 eingerichtet, schau dir mal bitte deinen Server an“. Grundsätzlich kann sich eine Website davon recht schnell wieder erholen.


17.06.2015, 42:56

Frage: Wie lange dauert es, bis Google eine E-Commerce-Page oder einen Blogpost nach der Veröffentlichung indexiert? Macht die Fetch as Google-Funktion oder der Data Highlighter es einfacher, diese Seite indexiert zu bekommen?

Antwort: Wenn die Fetch as Google-Funktion genutzt wird, und die Inhalte hier für die Indexierung eingereicht werden, versucht Google diese Hinweise zu beachten. Um welchen Inhalt es sich handelt, ist egal. Normalerweise versuchen wir, neue Inhalte innerhalb eines Tages zu erfassen. Wenn Google mit Hilfe einer Sitemap oder eines Feeds auf neue Inhalte hingewiesen wird, kann das noch schneller gehen. Man muss Fetch as Google also nicht benutzen, um auf neue Inhalte hinzuweisen. Der Data Highlighter hat mit der Indexierung nichts zu tun.


02.06.2015, 51:10

Frage: Wie sorgt man dafür, dass eine Website schnell indexiert wird?

Antwort: Eine sehr schnelle Variante ist, die Website in der Google Search Console unter „Fetch as Google“ und dann „Submit to Indexing“ einzureichen. Auch die Einreichung einer Sitemap ist hilfreich.

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT