Kernaussagen:
- Will man eine Unterseite aus inhaltlichen oder technischen Gründen nicht in den Google SERPs sehen, kann man diese auf Noindex stellen und sie zählt nicht mehr.
- Inhaltliche Dinge wie unbeantwortete Forethreads sollten auf Noindex stehen. Technische Dinge wie endlose Kalender kann Google selbst verstehen und weglassen.
- Auf Seiten, die bereits weitergeleitet wurden, braucht es kein Noindex. Google würde es wahrscheinlich eh nicht sehen.
25.08.2017, 58:37
Frage: Wir wollen unsere interne Suche auf Noindex stellen. Wir bekommen aber externe Links auf die Suchergebnisseiten, ist das ein Problem?
Antwort: Wenn sie bei robots.txt geblockt wird, dann können wir die Links noch sehen uns sie auch ohne Crawlen in den SERPs zeigen. Das ist nicht ideal, aber vielleicht ein Weg, um damit umzugehen. Aber ihr solltet mal schauen, welche dieser Links überhaupt relevant sind – und diese dann zu einer Kategorie oder so weiterleiten.
25.08.2017, 47:25
Frage: Sollte man Produktseiten, die keine starken Informationen zum Produkt enthalten, auf Noindex stellen?
Antwort: Das könnt ihr machen, wie ihr wollt.
25.08.2017, 42:42
Frage: Wir haben einen Shop mit Kategorieseiten. Die werden am Ende etwas dynamisch, da immer mal wieder Produkte aus dem Katalog fallen oder neue hinzukommen. Manchmal ist Seite 10 dann leer, manchmal hat sie Produkte. Sollte man da Noindex nutzen oder nicht?
Antwort: Das ist wahrscheinlich egal. Wenn es in der Pagination so weit hinten ist, geben wir dem wahrscheinlich eh kein großes Gewicht. Dann crawlen wir es nur immer mal wieder, um das zu prüfen. Auch wenn das jetzt die zweite Seite wäre, würde das keinen großen Unterschied machen. Denn entweder sehen wir es als 404 – oder irgendwann als soft 404.
24.08.2017, 48:24
Frage: Angenommen es befinden sich einige hunderte oder tausende URLs im Google Index, die aber intern nicht mehr verlinkt sind, also über den Bot nicht mehr gecrawlt werden können. Wie bekomme ich die schnellstmöglich aus dem Index, ohne es manuell über die Search Console machen zu müssen?
Antwort: In der Regel crawlen wir jede URL im Index immer mal wieder. Auch 404er oder andere Fehler. Das kann aber ein paar Monate dauern. Ansonsten kann man sie mit einem Änderungsdatum in eine Sitemap aufnehmen.
11.08.2017, 04:53
Frage: Ich habe zwei Seiten, die eine Seite hat ein Noindex und verweist mit einem Canonical auf die andere. Wird dabei auch das Noindex weitergegeben?
Antwort: Das ist schwierig. Wir haben schon vor langem diskutiert, was wir da machen sollen. Denn Noindex sagt ja “nimm die Seite aus dem Index” und das Canonical sagt “diese Seiten sind gleich”. Da ist schon Potential gegeben, um unsere Algorithmen zu verwirren. In der Praxis versuchen wir da aber, das Canonical einfach zu ignorieren.
02.08.2017, 14:41
Frage: Ich habe in der robots.txt ein Noindex für mehrere Unterseiten hinzugefügt, aber viele der Seiten sind noch im Index, obwohl der Googlebot schon da war. Was kann ich da tun?
Antwort: Googlebot crawlt ja pro URL, nicht die ganze Seite auf einmal. Deswegen haben wir das Noindex schon auf manchen Seiten gesehen, bei anderen aber noch nicht. Das kann dann noch ein paar Wochen oder auch Monate dauern. Sobald wir das sehen, werden wir sie aber aus dem Index nehmen. Du kannst zum Beispiel eine Sitemap einreichen, um das zu beschleunigen. Wenn es schnell gehen muss, kannst du in Search Console einen vorübergehenden Site Removal beantragen, dann verschwindet aber die ganze Seite aus den Suchergebnissen (und bleibt im Index). Wenn ein Noindex versehentlich war, könnt ihr ihn auch entfernen und das sollte dann wiederkommen. Uns ist das letztens mit der Login-Seite von Search Console passiert, sowas kann es also immer mal geben.
02.08.2017, 11:57
Frage: Google entscheidet, dass eine meiner Unterseiten von niederer Qualität ist und schickt keinen Traffic mehr dorthin. Hat diese Seite dann einen schlechten Einfluss auf die allgemeine Qualität meiner Seite? Sollte ich sie also auf Noindex stellen?
Antwort: Wir schauen uns die allgemeine Qualität an. Und die fußt natürlich auf der Qualität der einzelnen Unterseiten. Wenn du die Seiten dann loswirst – oder noch besser: sie verbesserst – dann wird sich das natürlich auch widerspiegeln.
02.08.2017, 07:27
Frage: Wir wurden vom Fred Update getroffen. ich habe seitdem 75% der Seiten deindexiert, da sie schlecht performt haben. Das hat aber bisher nichts gebracht. Was kann ich noch tun?
Antwort: Unsere algorithmischen Updates sollen die Qualität der SERPs verbessern. Du musst dir vielleicht mal die Seite im Ganzen anschauen, um sie insgesamt verbessern zu können. Fred ist auch nur der externe Name für viele Dinge, die bei uns über einen gewissen Zeitraum passiert sind. Und wenn ihr viele drastische Dinge verbessert habt, dann gab es wohl auch viele Probleme. Das kann dann dauern, bis sich das in den SERPs widerspiegelt.
29.06.2017, 13:47
Frage: Ich hätte eine Frage zu Agenturmeldungen bei Nachrichtenwebseiten. Von Google wird empfohlen, diese auf Noindex zu setzen. Allerdings ranken diese oftmals gut und generieren organischen Traffic. Kann eine Seite als ganzes wegen indexierten Agenturmeldungen abgestraft werden?
Antwort: Ich denke, dass ist an und für sich euch überlassen. Ich weiß nicht, wo diese Empfehlung herkommt. Das Problem ist eher, dass eure Meldungen auf vielen Seiten veröffentlicht werden, und die konkurrieren dann miteinander. Wenn das für euch ok ist, dann macht das so. Da würde ich aber nicht sagen, dass es da manuelle Abstrafungen gibt. Agenturmeldungen sind ja etwas ganz normales.
27.06.2017, 10:13
Frage: Macht es Sinn, alle Nachrichtenbeiträge und so auf Noindex zu stellen?
Antwort: Das kommt auf euch an. Schaut einfach immer, was ihr in der Suche zeigen wollt – und was vielleicht nicht mehr der Zeit entspricht.
06.04.2017, 47:00
Frage: Ich habe eine Website auf der viele URLs durch die Robots.txt gesperrt sind (login-Bereich). Diese URLs waren teilweise durch interne Links für den Crawler erreichbar. Ich habe nun die Links, die auf die geblockten Seiten geführt haben, entfernt. Leider sind durch diese Links dennoch einige der Seiten in den Google Index geraten, jeweils mit dem Hinweis, dass die Seite durch die Robots.txt gesperrt ist. Werden diese Seiten nun wieder aus dem Index verschwinden, nachdem ich die internen Links auf sie entfernt habe oder ruft der Crawler diese URLs nun direkt auf? In diesem Fall müsste ich ja die Robots.txt deaktivieren und auf den entsprechenden URLs das noindex-Tag platzieren.
Was ist das optimale Vorgehe?
Antwort: Wie viele der Seiten erscheinen denn in den normalen Suchergebnissen? Sind das nur ein paar, die man ausschließlich per Seitenabfrage sieht, dann kann man das ignorieren. Ihr könnt die Impressions in Search Console sehen. Wollt ihr sie dann loswerden, müsstet ihr die Sperre in robots.txt entfernen und ein Noindex einbauen. Dann können wir die Seiten sehen, das Noindex verarbeiten und sie dadurch aus dem Index schmeißen.
06.04.2017, 25:22
Frage: Wir haben aktuell mehrere Tausend Seiten die wir aus dem Google Index entfernen möchten. Die Seiten haben entweder ein NOINDEX oder wurden gelöscht (404), sind aber noch größtenteils im Google Index. Über die Search Console lassen sich diese ja direkt entfernen, aber fließen diese Seiten dann auch nicht mehr in den Google Algorithmus ein oder werden sie nur in der Ergebnisliste “ausgeblendet”? Crawlt google diese Seiten vor dem Entfernen?
Da die Seiten nirgends verlinkt sind und auch in keiner Sitemap braucht Google leider sehr lange um die Seiten selbst aus dem Index zu entfernen. Wie können wir das Bereinigen unserer indexierten Seiten am besten beschleunigen?
Kann ich z.B. alle Seiten der Domain per Search Console entfernen und dann gezielt die gewünschten Seiten per “Abruf wie durch Google” wieder indexieren lassen? Oder greift dann weiterhin die Entfernung/das Ausblenden der Seiten die ich davor eingerichtet hatte und es wird nichts indexiert?
Antwort: Wenn es ein kritisches Problem ist und die Inhalte sofort weg müssen, dann kann man das URL Entfernungstool nutzen und das vielleicht auf Verzeichnisebene rausnehmen. Das entfernt die Inhalte aber nicht aus dem Index, sondern unterdrückt sie nur so, dass sie nicht angezeigt werden. Für die Nachhaltigkeit sollte man dann eine Sitemap nutzen, da wir die Seiten erst wieder crawlen müssen, bevor sie aus dem Index fallen. Da kann man dann ein Änderungsdatum für die URLs eingeben und wir crawlen das dann etwas schneller. Aber an sich werden wir sie eh irgendwann crawlen, den Noindex sehen und die Seiten fallen lassen – auch ohne, dass ihr etwas tut.
04.04.2017, 47:35
Frage: Was ist besser, um Seiten auf Noindex zu stellen? Noindex, Nofollow zurückgeben oder lieber Noindex im x-robots Tag im Header?
Antwort: Beides geht.
04.04.2017, 34:33
Frage: Kann es ein Problem sein, wenn man zu viele Seiten auf Noindex hat?
Antwort: Nein. Außer natürlich, wenn diese Seiten eigentlich ranken sollen.
07.03.2017, 40:52
Frage: Wie lange braucht Google, um Seiten mit Noindex aus dem Index zu entfernen?
Antwort: Normalerweise passiert das direkt nach dem nächsten Crawlen. Manchmal crawlen wir Seiten aber auch und es dauert etwas, bis wir das verarbeiten. Dann ist das eine technische Sache auf unserer Seite. Wenn das für euch schneller gehen muss, dann könnt ihr zusätzlich das Removal Tool in Search Console nutzen. Dann sollte das innerhalb eines Tages passieren.
24.02.2017, 17:45
Frage: Was hältst du von Noindex auf Sub Pages?
Antwort: Das kann man machen. Aber Links auf diese Seiten gehen dann praktisch ins Nichts.
23.02.2017, 32:54
Frage: Wir haben Anfang November ca. 200k Thin-Content Produktseiten auf “noindex” gesetzt. Bis heute kommt bei ca. 30% der URLs noch Organic-Traffic an. Gibt es eine Möglichkeit die Deindexierung bei solch einer Größenordnung zu beschleunigen, da wir weitere TLDs haben bei denen wir den Thin-Content deindexieren möchten.
Antwort: Ich würde raten, dass wir hier mit dem Crawling nicht ganz nachkommen. Dass wir zwar viel Crawlen, aber die alle noch nicht wieder gesehen haben. Bei 200.000 Seiten sollten wir das aber eigentlich ziemlich schnell hinkriegen. Es kann sein, dass wir viel Duplicate Content finden, wodurch wir deutlich mehr als diese 200.000 Seiten crawlen müssen. Schaut mal in die Logs, weil vielleicht gibt es auch noch Parameter oder so. Wahrscheinlich fanden wir die Seiten auch vorher schon nicht so wichtig, deswegen werden sie selten gecrawlt. Hier hilft eine Sitemap mit dem Änderungsdatum, an dem der Noindex eingebaut wurde. Dann sollten wir das relativ schnell sehen.
10.01.2017, 03:50
Frage: Wie sollte man das Tag eingeben: “noindex” “nofollow” vs. “NOINDEX, NOFOLLOW”? Und wie lange dauert es, bis eine solche Änderung in Kraft tritt?
Antwort: Für uns sind beide Schreibweisen ok, beide sind gleich gut und auch gleich schnell. Ihr braucht aber kein “Index” oder “Follow” Tag eingeben, da das eh der Standard ist. Wir ignorieren das dann. Wir schauen uns nur die negativen Tags an.
27.12.2016, 1:02:29
Frage: Wir wollen viele Seiten auf Noindex stellen, etwa 500.000, die keinen Traffic erhalten. Wir wollen jeden Tag 10.000 Seiten auf Noindex stellen und das per Sitemap weiterreichen. Oder können wir alles auf einmal machen?
Antwort: Beides geht. Aber am Anfang solltet ihr erstmal testen, um zu sehen, was passiert. Wenn ihr seht, dass alles klappt, könnt ihr die restlichen aber auf einmal machen.
02.12.2016, 47:12
Frage: Wir verkaufen Tickets für Veranstaltungen, was können wir tun, damit diese Seiten nach der Veranstaltung nicht mehr im Index auftauchen?
Antwort: Das ist schwierig, da wir uns das Datum in diesem Zusammenhang nicht anschauen. Ihr könnt aber nach dem Datum ein Noindex nutzen oder das robots Meta Tag unavailable after nutzten. Dann werden wir sie nach dem Datum nicht mehr nutzen.
29.11.2016, 17:36
Frage: Ich habe Inhalte auf meiner Seite auf Noindex gestellt, aber andere Leuten verlinken diese weiterhin. Helfen mir diese Links im Ranking, obwohl sie auf eine Seite mit Noindex verweisen – oder sollte ich die Inhalte wieder in den Index lassen?
Antwort: Auch bei Noindex geben wir den PageRank weiter, wenn ihr von der deindexierten Seite auf andere interne Seiten weiterleitet – z.B. eure Navigation oder die Kategorien. Aber überlegt euch mal: Ihr mögt die Inhalte nicht, aber viele andere verlinken es. Entweder solltet ihr so etwas vielleicht freigeben oder es, wenn ihr es nicht mögt, ganz löschen.
11.11.2016, 22:44
Frage: Wir binden Produktbeschreibungen anderer Anbieter auf unserer Seite ein. Da wir aber nicht mit diesen, sondern nur unseren eigenen Inhalten ranken wollen, wir sie dem Kunden aber zeigen müssen, laden wir diese mit AJAX nach. Der HTTP Header der Antwort enthält x-Robots Noindex und die Inhalte sind im Cache der Seiten auch schon nicht mehr zu finden. Leider findet man die Inhalte aber noch, wenn man Textausschnitte sucht. Sollten wir die AJAX URLs sicherheitshalber per robots.txt sperren? Oder kann das sperren von AJAX URLs bzw. Inhalten per robots.txt das Ranking negativ beeinflussen, auch wenn man mit den entsprechenden Inhalten ohnehin nicht ranken will?
Antwort: Der Header funktioniert nur für die indexierte Seite. Wenn Dinge eingebunden werden, wird das nicht verwendet. Das bringt bei euch also eher nichts. Hier könnte man die AJAX URLs per robots.txt blockieren. Nutzer können dann alles sehen, Google aber nicht. Wenn das generische Produktbeschreibungen sind, dann werdet ihr dafür aber sicher eh nicht gut ranken, daher hat das dann einen geringeren Einfluss. Da könnt ihr euch die ganze Arbeit sparen. Aber vielleicht habt ihr ja auch gute Gründe für ein Noindex.
01.11.2016, 17:32
Frage: Ich möchte zwei Seiten auf Noindex stellen, die zwar viel generellen Traffic von Google erhalten, aber nicht explizit gesucht werden. Nutzer dieser Seiten werden dann keine loyalen Nutzer. Sie ranken aber gut, würde ein Noindex also mein allgemeines Ranking verschlechtern?
Antwort: Das ist eher eine Marketingfrage. Ihr bekommt Traffic, wollt ihn aber nicht. Ihr könnt sie behalten, löschen oder vielleicht auch so verbessern, dass sie den Nutzern besser gefallen – und damit auch Conversions beitragen. Ein Noindex hier wird euch aber nicht schaden.
01.11.2016, 06:26
Frage: Wir haben viele Filter und Unterkategorien. Wenn Seiten weniger als 15 Produkte anzeigen, stehen sie auf Noindex. Findest du das passend oder sollten sie indexiert werden? Sollte es so bleiben, wie können wir dann das Crawling optimieren, da Googlebot diese Seiten fast täglich anfragt. Und wenn eine Firma kurzzeitig keine Produkte hat, müssen wir dann wirklich auf 404 stellen oder können wir sie auch kurzfristig per 302 zu fast identischen Produkten weiterleiten?
Antwort: Ihr könnt dünne Kategorien auf Noindex stellen. Googlebot wird sie crawlen, das ist kein Problem für uns. Wir haben meist genug Kapazitäten dafür. Wenn ihr das aber vorher wisst, dann könnt ihr die Links zu diesen Seiten direkt auf Nofollow stellen. Wenn das Crawlen zu Problemen führt, dann könnt ihr sie in der robots.txt blockieren. Aber macht das nur, wenn es wirklich problematisch ist. Denn wir können dann das Noindex nicht sehen und indexieren sie vielleicht ohne Inhalte. Wenn die Produkte wirklich so gleich sind, dann kann man bestimmt weiterleiten. Das hilft dann dem Nutzer. Und 302 wird bei ihnen nicht gecached, wenn ihr also wieder Inhalte habt, landen sie auf der Ausgangsseite.
07.10.2016, 32:57
Frage: Unsere Artikel können auch gefunden werden, wenn man alle Artikel eines bestimmten Monats aufruft. Sollte diese Übersicht Noindex oder Nofollow sein?
Antwort: Normalerweise würde ich da keine Ressourcen für verschwenden. Wenn es für den Index keinen Sinn macht, macht es Noindex. Aber ich glaube nicht, dass so etwas eure Rankings beeinflusst. Nofollow solltet ihr aber nicht machen, da es für uns Sinn macht, diese Links zu sehen.
07.10.2016, 24:39
Frage: Ich habe eine Seite mit tollen eingehenden Links, die viel Traffic aus der Suche erhält. Ich möchte sie aber auf Noindex stellen, da sie meinen Qualitätsansprüchen nicht genügt. Verkleinert das den positiven Einfluss der Links auf meine Domain?
Antwort: Das hört sich nach einer komischen Situation an, wenn Leute es verlinken aber du es nicht gut genug findest. Versuche lieber, es zu verbessern um mit den Links zu arbeiten. Ist die Seite lange Noindex und sieht für uns wie 404 aus, dann werden wir die Signale mit der Zeit fallen lassen. Vielleicht könnt ihr sie ja mit einer anderen Seite ersetzen und das weiterleiten.
07.10.2016, 21:06
Frage: Wir haben eine Suche auf unserer Seite, die aktuell auf Noindex, Follow eingestellt ist. Ist das ok oder sollten wir das ändern?
Antwort: Suchseiten sind hilfreich für uns, da wir so eure Produkte finden können. Vor allem, wenn die Suchseiten Kategorieseiten sind. Noindex macht Sinn, wenn sie uns keine guten Informationen geben würden oder sie in den SERPs nicht passen würden. Ihr könnt auch die ganze Suche in robots.txt blockieren – wenn der Crawler trotz Noindex auf die Seiten geht. Nofollow macht Sinn, wenn dort nur Navigationslinks oder so sind.
23.09.2016, 03:55
Frage: Gibt es einen besseren Weg als Noindex, Nofollow, um Suchergebnisseiten auszuzeichnen? Können wir sie auch zu sinnvollen Seiten weiterleiten?
Antwort: Das geht, aber viele solche Seiten sind einfach nicht sinnvoll in den SERPs. Nutzt nur sinnvolle Seiten, die vielleicht auch Signale einsammeln. Da muss man sehr vorsichtig sein, nur auf Qualität und Nützlichkeit zu achten.
09.09.2016, 34:18
Frage: Wir haben ein neues Design und das Theme war auf Noindex und der Webmaster hat es nicht gesehen. Dann sind wir aus den SERPs rausgeflogen, da wurde mir dann in den Foren geholfen. Jetzt sind wir wieder da. Und ich habe Angst, dass die falsche Seite indexiert wird, also die alte statt der neuen.
Antwort: Ich würde die am besten laufende Version aussuchen und die als Canonical aussuchen. Zudem auch mit 301 weiterleiten. Für normale Änderungen an der Seite würde ich auch nicht Remove from Index benutzen. Denn das nimmt es nur aus den SERPs, das alte bleibt aber unter Umständen im Index. Nutzt lieber eine Weiterleitung, da werden dann auch Nutzer, die die alte URL aufrufen, weitergeleitet. Wenn in Fetch as Google keine Weiterleitung gezeigt wird, dann funktioniert sie auch nicht.
25.08.2016, 55:27
Frage: Sollte man dpa News auf Noindex setzen? Oder eher nicht, weil so viele Seiten da dasselbe bieten.
Antwort: Das wäre denke ich nicht problematisch. Ihr braucht aber eigene Inhalte, da solche News bei euch sicher nicht gut ranken würden.
09.08.2016, 33:13
Frage: In einem Hangout hast du empfohlen, unbeantwortete Forenthreads und ähnliches auf Noindex zu stellen. An anderer Stelle hast du gesagt, dass 100.000 Seiten aus einem Kalenderscript keinen negativen Einfluss haben. Was stimmt davon?
Antwort: Dinge wie endlose Kalender können wir sehr gut verstehen. Dann hören wir auf zu crawlen, und es wird zu einer Seite zusammengefasst. Viele schlechte Inhalte sind da schon etwas anderes. Das ist nicht zu vergleichen.
08.07.2016, 30:45
Frage: Du hast gesagt, dass Canonical und Noindex auf einer Seite die Suchmaschine verwirren könnte, wodurch vielleicht beide Seiten aus dem Index fliegen. Könnte das von Externen für negative SEO Angriffe genutzt werden?
Antwort: Meistens verstehen wir das ganz gut. Es ist aber trotzdem ein verwirrendes Signal. Externe Leute sollten da also keine Probleme verursachen können.
01.07.2016, 10:57
Frage: Wir haben letztes Jahr die URL-Struktur geändert und dabei viele alte Seiten auf Noindex gesetzt. Ich habe aber grad gesehen, dass viele der Seiten auch eine Weiterleitung zu den neuen Seiten haben. Ist das ein Problem?
Antwort: Das ist schwer zu sagen. Grundsätzlich sehen wir das Noindex nicht, wenn die Seite weitergeleitet ist. Es sollte also eigentlich alles funktionieren, da wir nur die Weiterleitung sehen.
30.06.2016, 08:34
Frage: Warum werden Seiten trotz meta tag <meta name=”robots” content=”noindex, follow”> bei Google indexiert? Normalerweise durchstöbert der Spider diese Seite nicht.
Antwort: Ich denke, da kommen mehrere Dinge zusammen. Haben wir eine Seite mit Noindex gecrawlt, dann zeigen wir sie nicht. Es passiert aber oft, dass die Seiten auch per robots.txt blockiert werden. Dann können wir sie nicht crawlen und das Noindex nicht sehen. Es kann auch eine Seite sein, die wir nur alle paar Monate crawlen – dann kann es etwas dauern. In solchen Fällen könnt ihr eine Sitemap einreichen, um das schneller zu machen. Noindex heißt auch nicht, das wir nicht crawlen – wir durchstöbern sie schon manchmal, um sicherzugehen, dass das Tag noch da ist. Wollt ihr kein Crawling, dann nutzt die robots.txt.
14.06.2016, 32:53
Frage: Macht es einen Unterschied beim Ranking, wenn wir bei Paginierten Seiten alle außer der ersten auf Noindex stellen?
Antwort: Wir werden dann nur die erste Seite indexieren. Wenn sich alle wichtigen Inhalte dort befinden, dann könnt ihr das machen. Andernfalls solltet ihr alle Seiten indexieren lassen. Es kann auch verwirrend werden, wenn wir ein Canonical sehen und für die Seiten gleichzeitig unterschiedliche Vorgaben erhalten. In eurem Fall würden wir die Seiten unter Noindex aber denke ich einfach fallen lassen.
05.04.2016, 39:38
Frage: Werden URLs mit Noindex seltener gecrawlt als indexierbare URLs?
Antwort: Ja, grundsätzlich versuchen wir, das so zu handhaben. Das ähnelt unserem Verhalten bei 404-Seiten. Wir schauen sie immer mal wieder an, versuchen aber, die Intervalle größer zu halten.
05.04.2016, 04:30
Frage: Wie ist es möglich, dass eine Seite mit Noindex rankt? Gerade für eine mobile Version.
Antwort: Wenn eine Seite einen Noindex hat, dann zeigen wir sie normalerweise nicht in den Suchergebnissen. Wenn also einzelne Unterseiten ranken sollen, muss technisch alles stimmen. Ihr müsst also sichergehen, dass alles vernünftig vom Desktop weitergeleitet wird etc.
24.03.2016, 29:19
Frage: Macht es Sinn, JSON-LD Markup auf einer Seite zu nutzen, die auf Noindex steht?
Antwort: Für uns macht das keinen Sinn. Die Seite ist nicht im Index, also können wir mit dem Markup nichts anfangen. Aber vielleicht habt ihr ja andere Gründe, um das Markup zu nutzen.
11.03.2016, 08:04
Frage: Was sind aus der Sicht von Google die fünf größten SEO-Fehler?
Antwort: Leute packen oft aus Versehen ein Noindex auf ihre Seite – und das passiert bei großen und kleinen Seiten. Es gibt auch viele technische Details, die man immer anders machen kann. Aber bei wirklichen Fehlern ist Noindex der wichtigste. Auch das Blockieren in der robots.txt passiert immer wieder.
10.03.2016, 38:55
Frage: Wir haben einige Seiten/Folder im Index, die wir entfernen möchten (DC und fehlende Übersetzungen). Ist es ok, wenn ich den ganzen Ordner in Search Console ausschließen lasse und anschließend die Seiten auf noindex/nofollow setze und in robots.txt ausschließe?
Antwort: Das sind verschiedene Maßnahmen, die man treffen kann. Wenn ihr es in Search Console ausschließt, dann bleibt es in unserem internen Index, wird aber nicht mehr in den SERPs angezeigt. Das kann sehr schnell gehen. Das Noindex kann etwas dauern, da wir neu crawlen müssen, bevor die Seiten aus dem Index fliegen. Bei robots.txt können wir nicht mehr crawlen. D.h. im schlechtesten Fall, dass die URL im Index bleibt, aber die Inhalte nicht mehr gezeigt werden können. Dann wissen wir nicht, dass die Seiten nicht mehr existieren. Ich empfehle das Noindex, das ist die natürliche Art.
25.02.2016, 53:14
Frage: Von Herstellern kopierte Produktbeschreibungen sind laut deinen Aussagen ja kein negativer Rankingfaktor. Wäre es dennoch besser, die Produktseiten mit noindex zu kennzeichnen?
Antwort: Mit Noindex werden sie natürlich ganz entfernt und werden auf keinen Fall angezeigt. Bei kopierten Beschreibungen gibt es immerhin die Möglichkeit, dass jemand genau danach sucht und dann wird die Seite auch angezeigt.
25.02.2016, 16:03
Frage: Haben Backlinks, die sich auf Seiten befinden, die mit “noindex, follow” ausgezeichnet sind einen geringeren Wert als Backlinks von indexierbaren Seiten?
Antwort: Das ist kompliziert auf unserer Seite. In manchen Fällen lassen wir Seiten mit Noindex ganz raus, das gilt dann auch für die Links auf der Seite. Manchmal ist es aber so, dass wir die Seite im Index lassen, wir sie aber nicht in den Links zeigen. Dann kann sie auch PageRank weitergeben.
11.02.2016, 33:21
Frage: Besteht die Möglichkeit, bei redaktionell gepflegten Seiten das Indexieren von einzelnen Bereichen (Sidebar mit Querverlinkung zu anderen Artikeln) zu verhindern? Manchmal ranken Seiten für Keywords, die nicht im Artikel selbst, sondern bei den ausgehenden Links sind.
Antwort: Man könnte die Sidebar theoretisch als Iframe verwenden, wodurch sie blockiert wird. Das würde ich aber nicht empfehlen, da das zu unterschiedlichen Problemen führen kann. Schaut lieber, dass die gemeinsamen Bereiche möglichst stabil bleiben. Dann wissen unsere Algorithmen, was die wirklichen Hauptteile der Seite sind. Ihr müsst aber eine Sidebar nicht künstlich von der Indexierung ausschließen.
28.01.2016, 10:36
Frage: Wir haben eine Seite, die auf noindex und nofollow gesetzt ist. Auf der Seite selbst gibt es keine Googlecodes wie Analytics etc, trotzdem taucht die Seite in den Suchergebnissen auf, was wir aber nicht wollen. Was können wir tun?
Antwort: Das könnte ein Fehler auf unserer Seite sein, denn das sollte nicht passieren. Es kann aber auch sein, dass die Seite gerade erst auf Noindex gesetzt wurde und wir sie daher noch neu crawlen müssen. Das kann Tage oder Wochen dauern, ihr könnt das aber durch Fetch as Google beschleunigen. Ansonsten könnte die Seite per robots.txt blockiert sein, wodurch wir den Nouindex gar nicht sehen können. In dem Fall müsstet ihr das aus der robots.txt löschen, damit wir sie crawlen und aus dem Index schmeißen können.
28.01.2016, 06:34
Frage: Spricht etwas dagegen, wenn gleichzeitig das Canonical Tag und das Meta-Tag Noindex auf der gleichen Seite stehen?
Antwort: Die Frage kommt immer wieder. Grundsätzlich widersprechen sich die beiden für uns eher. Wenn zwei Seiten als gleich angegeben werden, aber eine ist Noindex und eine nicht – dann sind sie doch unterschiedlich. Das verwirrt uns dann also eher. Ihr solltet da einfach eine auswählen und auf Noindex stellen, dann lassen wir sie komplett fallen. Sind beide Seiten wirklich gleich, dann nutzt das Canonical. Unsere Systeme kennen die Kombination beider und können oft damit umgehen, aber es ist nicht empfehlenswert.
12.01.2016, 05:25
Frage: Wir haben eine Warnung von Google bezüglich einer hohen Anzahl von URLs erhalten. Wir wollen wissen, ob Google Probleme hat, unsere Website zu crawlen und zu indexieren?
Antwort: Ja, wenn ihr diese Nachricht erhalten habt, dann ist davon auszugehen. Diese Warnung wird normalerweise herausgegeben, wenn wir auf eine hohe Anzahl neuer URLs stoßen – dies geschieht, bevor Google diese Seiten wirklich crawlt. Wenn auf diesen Seiten ein “noindex” ist, dann werden die Seiten zwar nicht indexiert, aber Google muss sie dennoch crawlen, um das “noindex” überhaupt zu sehen. Das kann zu dieser Meldung führen.
15.12.2015, 14:55
Frage: Eine Seite ist in robots.txt blockiert, aber immer noch da. Wie stellen wir sicher, dass sie nicht mehr im Index auftaucht?
Antwort: Nutzt das URL Removal Tool. Hier müsst ihr immer das exakte Ziel eingeben. Das hilft dann für einen begrenzten Zeitraum, nach dem ihr das noch einmal prüfen könnt. Viele Seiten werden dann, da wir sie nicht sehen können, aus dem Index fallen (oder sehr schlecht ranken, wenn es sich nicht um ein site-query handelt). Und wenn sie nach dem ersten Zeitraum noch da sind, versucht es einfach noch einmal. Ein Noindex in der robots.txt kann funktionieren, aber das ist keine offizielle Richtlinie. Daher solltet ihr euch darauf nicht langfristig verlassen. Wenn es also wichtig ist, dann arbeitet nicht auf diese Weise.
04.12.2015, 49:50
Frage: Unsere Website hat auch Software, die auf einer Subdomain liegt. Diese ist momentan disallow, noindex. Ich habe gelesen dass wir das zu allow, noindex ändern sollten – oder führt das zu Problemen.
Antwort: Was bei disallow passieren kann, ist folgendes: Wir können die Seiten nicht crawlen, sehen also das noindex nicht. Es kann dann sein, dass wir die URLs in den Suchergebnissen zeigen, ohne zu wissen, was dahintersteht. Wenn euch das egal ist, dann lasst es wie es ist. Wenn ihr die URLs nicht in den SERPs sehen wollt, dann solltet ihr auf allow umstellen oder server site authentification nutzen. In beiden Fällen würden sie dann nicht mehr angezeigt werden.
03.12.2015, 33:22
Frage: Sollte man Seiten mit Robots Noindex Meta Tag in die XML Sitemap integrieren, um Google quasi auf die noindex-Seiten aufmerksam zu machen – und so das noindexing zu forcieren?
Antwort: Platziert in der Sitemap langfristig eher das, was ihr im Index haben wollt. Für kurzfristige Lösungen ist das aber ok und kann uns dazu bringen, Seiten etwas schneller aus dem Index zu nehmen. Aber filtert das auf lange Sicht wieder raus.
01.12.2015, 35:37
Frage: Wenn man noindex-nofollow nutzt – dann muss Google die Seite so oder so indexieren, um das noindex zu sehen – braucht dies das Crawlbudget auf?
Antwort: Das hat sicherlich Auswirkungen, aber wenn von der Seite auf Tausende von Suchanfragen verlinkt wird, dann folgt Google diesen Links wenigstens nicht.
01.12.2015, 33:40
Frage: Wenn eine Website 2/3 des eigenen Contents auf noindex stellt – würde das irgendeine Art von Problem oder Penalty auslösen?
Antwort: Nein, das ist in Ordnung.
01.12.2015, 04:53
Frage: Ein Freund hat ein Forum und seit 2012 nimmt sein Traffic rapide ab. Ich glaube, das hat mit Panda zu tun. Wie kann ein Webmaster wie er für den User Generated Content verantwortlich sein?
Antwort: Es ist immer so, dass ein Webmaster für seine Seite verantwortlich ist. Wenn du ein Forum mit schlechten nutzergenerierten Inhalten hast, dann sind das deine schlechten Inhalte. Wie andere Webmaster auch musst du dich dann um sie kümmern – selbst wenn das bei einem großen Forum schwer ist. Vielleicht kann auch vieles auf Noindex gestellt werden?
17.11.2015, 17:17
Frage: Wenn wir ein noindex in Verbindung mit follow auf paginierten Seiten platzieren – Wird Google die Produktseiten weiterhin indexieren?
Antwort: Ja. Wenn die Detail- bzw. Produktseiten indexiert werden können, dann wird Google das machen.
06.11.2015, 23:43
Frage: Ein Shop hat Seiten mit ähnlichen Inhalten, wo sich nur die Farben unterscheiden. Entsprechend sind auch die URLs ähnlich. Sollten immer alle Versionen eines Produkts außer einer auf Noindex stehen, um einen Penalty zu vermeiden?
Antwort: Das kann nur zu einem Penalty führen, wenn die Inhalte schlecht sind. Aber grundsätzlich führt so etwas im E-Commerce nicht zu Problemen. Wir werden sie vielleicht in den SERPs zusammenklappen, aber ihr solltet kein Noindex benutzen.
06.11.2015, 22:33
Frage: Kann ich das Self-Referencing Canonical Tag behalten, wenn ich versuche, eine Seite auf Noindex, Nofollow zu stellen? Oder wird das komische Signale an Google senden?
Antwort: So ein Canonical sagt uns, dass wir die Seite nicht indexieren sollen – dem folgen wir dann. Verwirren könnte es uns nur, wenn es auf eine Seite führt, die schon ein Noindex hat.
05.11.2015, 50:30
Frage: Google News blockieren: 1. <meta name=”Googlebot-News” content=”noindex, nofollow”> ignoriert Google. 2. Verzeichnis über Robots.txt ausgesperrt: Artikel werden immer noch teilweise gelistet. Jetzt sind wir etwas ratlos, was wir noch tun können!?
Antwort: Ich müsste das mit dem News Team anschauen. Schicke mir doch bitte den Link. Wenn ihr Noindex und Robots Blockierung auf einmal macht, dann sehen wir den Noindex vielleicht nicht, da wir es uns ja nicht anschauen dürfen.
27.10.2015, 43:44
Frage: Kann das Versehen einer Page mit dem noindex Tag negative Auswirkungen auf die Seiten haben, die auf diese Seite zeigen? Werden diese ebenfalls aus dem Index entfernt?
Antwort: Nein, das sollte keinen Effekt auf die Seiten haben, die auf die vom Index ausgeschlossene Seite zeigen.
16.10.2015, 1:05:42
Frage: Wenn Inhalt, der mit dem Noindex-Tag versehen wurde, in der Sitemap gelistet wird – führt das dazu, dass Crawlbudget verschwendet wird?
Antwort: Man kann das temporär einfügen, vielleicht für ein oder zwei Wochen – um den Wegfall aus dem Index zu beschleunigen. Danach könnt ihr diese Inhalte aus der Sitemap entfernen.
16.10.2015, 37:52
Frage: Wir haben 9.000 unserer 10.000 Seiten entfernt, um alles sauberer zu machen. Ich habe diese ins URL Removal Tool gegeben. Muss ich darüber hinaus auch die Robots.txt nutzen und wie lange wird es dauern, bis sie entfernt wurden. Die Seiten wurden mit “noindex” und “nofollow” markiert.
Antwort: Kombiniert “noindex” und “nofollow” nicht miteinander – wir sehen die Seiten dann nicht mehr und wissen nicht, dass sie nicht mehr indexiert werden. Bedenkt, dass das Removal Tool nur eine temporäre Geschichte ist – die URLs könnten also wieder auftauchen. Wenn sie auf “noindex” stehen sollte das aber in Ordnung sein. Pflegt euren neuen Content ein, auch wenn aktuell noch der alte Content in den SERPs auftaucht – wenn die Inhalte nicht 100 % gleich sind. Wir können versteckte Seiten und ihre Links immer noch sehen, aber wir zeigen sie in den Suchergebnissen nicht an. Das gilt sowohl für URLs im Removal Tool als auch für Seiten, die mit “noindex” markiert sind.
15.10.2015, 03:48
Frage: Du besitzt eine Reise-Webseite, die Produkte in ganz Europa anbietet, der Main-Traffic fließt aber nur in 2-3 Länder: Würdest du die anderen Länder no-indexen? Können diese Seiten ohne viel Traffic/Engagement einen Einfluss auf das Overall-Ranking haben?
Antwort: Das hängt davon ab, was ihr damit erreichen wollt. Die Seiten können auch Sinn machen, wenn sie wenig Traffic erhalten. Sie können trotzdem für einige Benutzer relevant sein. Wenn sie aber eigentlich identisch mit anderen sind, dann kann man sie zusammenführen. Je weniger Seiten ihr habt, desto weniger Wartungsarbeiten müsst ihr durchführen.
24.09.2015, 20:22
Frage: Warum ist es unmöglich, die Seite https://www.college-contact.com/mba in den Google Index zu bekommen? Versuche sie seit zwei Monaten ohne Erfolg manuell an den Index zu schicken, nachdem automatisch auch nichts passiert ist.
Antwort: Bei der URL wurde eingereicht, dass sie nicht in den SERPs erscheinen soll. Da ist also ein Konflikt auf eurer Seite. Wir können sie crawlen und indexieren, zeigen sie aber nicht an. Schaut in die URL Entfernungstools und zieht die Anfrage zurück, dann wird sie in den SERPs erscheinen. In den Entfernungstools werden immer alle Versionen einer Seite auf einmal beachtet, sei es mit oder ohne www oder http oder HTTPS, es werden immer beide rausgenommen.
11.09.2015, 26:29
Frage: Ist es in Hinsicht auf Google sinnvoll, den Noindex-Tag für paginierte Seiten zu verwenden? Ist es in Ordnung, den Noindex-Tag für paginierte Seiten, auf denen ebenso rel=pre und rel=next angewendet wird, zu nutzen?
Antwort: Das ist Sache des Webmasters. Der entscheidet, was indexiert wird und was nicht indexiert werden sollte. Wenn dieser findet, dass viele wichtige Inhalte dort zu finden sind, sollte diese Seite indexiert werden. Wenn diese Seiten nicht besonders viel Qualität bieten, dann sollten sie nicht indexiert werden. Wenn der Noindex-Tag genutzt wird, macht die parallele Nutzung von rel=pre und rel=next keinen Sinn.
11.09.2015, 17:17
Frage: Wir haben Seiten, auf die von der restlichen Website nicht verlinkt wird. Trotzdem werden sie durch Google indexiert. Ist es möglich, dass Google mit Hilfe des Browsers indexiert? Also indexiert Google Seiten, die im Chrome Browser geöffnet werden?
Antwort: Ich bezweifle, dass wir das in Betracht ziehen. Generell ist es so, dass Seiten, die auf einer Website nicht verlinkt werden, dann aber doch indexiert werden, irgendwo anders verlinkt sind. Google zieht Daten wie z. B. Analytics nicht für die Indexierung heran. Wenn etwas nicht indexiert werden soll, dann sollte die entsprechende Seite mit einem Noindex-Tag versehen werden. Darauf zu hoffen, dass sie durch nicht vorhandene Verlinkungen nicht indexiert wird, ist mutig. Wenn es sich um vertrauliche Informationen handelt, dann sollte die Seite durch ein Passwort geschützt werden. Wenn es einfach Informationen sind, die nicht indexiert werden sollen – stellt sicher, dass es ein Noindex-Tag auf der Seite gibt. Wenn es sich einfach um Informationen handelt, die nicht indexiert werden sollen, dann nutze den Noindex-Tag! Wenn es sich um Informationen handelt, die problematisch werden könnten, z. B. eine langsame Ladegeschwindigkeit hervorrufen – blockiert sie in der Robots.txt!
08.09.2015, 37:34
Frage: Ich arbeite für eine Firma, wir bauen momentan eine neue Webseite für eine Firmendomain. Der Besitzer will die alte Seite auf einer neuen Domain für geschäftliche Belange und A/B Tests nutzen. Was ist der beste Weg – Noindex für die alte Seite?
Antwort: Eine Seite auf eine neue Domain umzuziehen, um die alte Domain für etwas Neues zu nutzen, ist eine ziemlich schlechte Idee. Das wird uns verwirren und wir werden die ganzen Signale nicht korrekt weiterleiten können. Idealerweise solltet ihr eine neue Domain für neue Inhalte nutzen und die alte so belassen, wie sie jetzt ist. Oder macht einen sauberen Umzug für die alten Inhalte und nutzt eine ganz neue Domain für die neuen. Haltet es so einfach wie möglich, damit wir nicht raten müssen.
08.09.2015, 27:55
Frage: Wir haben dynamisch erzeugte Suchergebnisseiten, die immer wieder – statt der Seiten mit Content – durch Google indexiert werden. Wie können wir diese dynamischen Seiten aus dem Google Index entfernen, sodass Google mehr relevante Seiten crawlt?
Antwort: Ich würde einen Noindex-Tag auf den Suchergebnisseiten hinterlegen. Es können auch ein Noindex sowie ein Nofollow-Tag hinterlegt werden.
11.08.2015, 13:17
Frage: Macht es Sinn, den Meta Robots Tag: Nofollow zu nutzen, wenn dynamische URLs per robots.txt geblockt werden?
Antwort: Wenn eine Seite durch robots.txt blockiert wird, dann können wir keine Meta Tags auf den entsprechenden Seiten mehr sehen. Wenn die Tags euch also wichtig sind, dann müsst ihr das Crawlen erlauben – ggf. als Noindex.
30.07.2015, 46:39
Frage: Ein Portal mit vielen Listenseiten hat auch rel=next/prev im Code. Ab Seite 2-xxx ist allerdings auch index,follow im Code. Sollte man ab Seite 2 besser auf noindex,follow stellen? Oder reicht eine Umstellung der Paramenter “pagenr” in Search Console?
Antwort: Das bleibt euch überlassen. In vielen Fällen macht es Sinn, dass man ab Seite 2 oder 3 mit Noindex arbeitet. Oder man nutzt eine Faceted Navigation. So kann man sichergehen, dass die relevanten Seiten in der Suche sind und wir trotzdem alle sehen können.
19.06.2015, 24:57
Frage: Macht es Sinn, „Noindex, follow“ auf paginierten Seiten zu nutzen, auch wenn diese einzigartige Inhalte haben?
Antwort: Wenn auf den Seiten etwas sinnvolles steht, lass es im Index. Es besteht kein Grund, so etwas per se zu blocken.
17.06.2015, 46:42
Frage: Wir haben zahlreiche Kategorien auf unserer Website. Einige stehen mit Städten in Bezug. Das Problem ist, dass in einigen dieser Kategorien / Städten keine Ergebnisse hinterlegt sind. Was sollten wir mit diesen leeren Listings machen? Sollte ein Canonical zur Hauptkategorie gesetzt werden? Oder sollten sie mit noindex, nofollow markiert werden?
Antwort: Im Grunde handelt es sich um leere Ergebnisseiten – diese würde ich mit noindex oder vielleicht sogar 404 markieren, um dafür zu sorgen, dass diese Pages aus den Google SERPs verschwinden.
05.06.2015, 40:10
Frage: Wenn eine Seite für eingeloggte User gedacht ist und Google diese nicht crawlen soll, soll ich dann auch Noindex nutzen?
Antwort: Das kommt darauf an, was du vorhast. Noindex oder Soft 404 funktioniert, wenn du die Seite gar nicht im Index haben willst. Aber wenn du beispielsweise ein Tool anbietest, das Leute finden sollen, dann kannst du das nicht nutzen. Dann solltest du ein Info-Snippet auf der Login-Seite nutzen und diese im Index lassen, damit Nutzer es finden.
05.06.2015, 02:55
Frage: Hilft es, für bestrafte Seiten Noindex anzuwenden, wenn sie keinen Traffic von Suchmaschinen erhalten?
Antwort: Das hängt von deiner Seite ab, du kannst nicht immer den Traffic der Suche als Qualitätsmaßstab nehmen – unter Umständen kann es jedoch helfen.
04.06.2015
Frage: Wie sollte man in einem Online-Shop mit sehr vielen Artikeln ohne hochwertige Beschreibungen umgehen? Noindex? Wenn 80 Prozent auf noindex steht, dann ist das nachteilig, oder?
Antwort: Google beurteilt die Qualität einer Website nicht danach, wie viele Seiten auf noindex eingestellt sind. Das ist völlig okay.
04.06.2015
Frage: Wird der Canonical-Tag auf Seiten, die mit dem Noindex-Tag versehen sind, definitiv nicht beachtet?
Antwort: Das ist eine schwierige Frage. Es ist für Google unklar, was damit erreicht werden soll. Der Canonical-Tag gibt eigentlich an, dass beide Seiten identisch sind. Die mit noindex markierte Seite gibt an, dass die Seite nicht indexiert werden darf. Die Frage für Google: Dürfen dann beide Seiten nicht indexiert werden? Tipp: Canonical-Tag und Noindex-Tag lieber nicht zusammen nutzen. Wichtig für alle Tags: Sie sollten sauber im head stehen! Die Reihenfolge ist egal!
04.06.2015
Frage: Was ist der Unterschied zwischen dem Noindex-Meta-Tag und dem robots.txt? Welche Variante empfiehlt Google?
Antwort: Robots.txt: Inhalte können nicht gecrawlt werden, werden nicht durch Google indexiert. Noindex-Meta-Tag: Inhalte können gecrawlt werden, werden nicht durch Google indexiert.
Inhaltsverzeichnis
- Kernaussagen:
- 25.08.2017, 58:37
- 25.08.2017, 47:25
- 25.08.2017, 42:42
- 24.08.2017, 48:24
- 11.08.2017, 04:53
- 02.08.2017, 14:41
- 02.08.2017, 11:57
- 02.08.2017, 07:27
- 29.06.2017, 13:47
- 27.06.2017, 10:13
- 06.04.2017, 47:00
- 06.04.2017, 25:22
- 04.04.2017, 47:35
- 04.04.2017, 34:33
- 07.03.2017, 40:52
- 24.02.2017, 17:45
- 23.02.2017, 32:54
- 10.01.2017, 03:50
- 27.12.2016, 1:02:29
- 02.12.2016, 47:12
- 29.11.2016, 17:36
- 11.11.2016, 22:44
- 01.11.2016, 17:32
- 01.11.2016, 06:26
- 07.10.2016, 32:57
- 07.10.2016, 24:39
- 07.10.2016, 21:06
- 23.09.2016, 03:55
- 09.09.2016, 34:18
- 25.08.2016, 55:27
- 09.08.2016, 33:13
- 08.07.2016, 30:45
- 01.07.2016, 10:57
- 30.06.2016, 08:34
- 14.06.2016, 32:53
- 05.04.2016, 39:38
- 05.04.2016, 04:30
- 24.03.2016, 29:19
- 11.03.2016, 08:04
- 10.03.2016, 38:55
- 25.02.2016, 53:14
- 25.02.2016, 16:03
- 11.02.2016, 33:21
- 28.01.2016, 10:36
- 28.01.2016, 06:34
- 12.01.2016, 05:25
- 15.12.2015, 14:55
- 04.12.2015, 49:50
- 03.12.2015, 33:22
- 01.12.2015, 35:37
- 01.12.2015, 33:40
- 01.12.2015, 04:53
- 17.11.2015, 17:17
- 06.11.2015, 23:43
- 06.11.2015, 22:33
- 05.11.2015, 50:30
- 27.10.2015, 43:44
- 16.10.2015, 1:05:42
- 16.10.2015, 37:52
- 15.10.2015, 03:48
- 24.09.2015, 20:22
- 11.09.2015, 26:29
- 11.09.2015, 17:17
- 08.09.2015, 37:34
- 08.09.2015, 27:55
- 11.08.2015, 13:17
- 30.07.2015, 46:39
- 19.06.2015, 24:57
- 17.06.2015, 46:42
- 05.06.2015, 40:10
- 05.06.2015, 02:55
- 04.06.2015
- 04.06.2015
- 04.06.2015
Frage:
Wir betreiben einen Onlineshop mit tausenden Artikeln, welche immer wieder ähnlich sind. Somit besteht scheinbar ein Problem mit Duplikat Content, wobei es keine sichtbare Abstrafung lt. Sistrix gibt.
Beispiel: Kaminofen Ersatzteile und das Produkt ist z. B. ein Ascherost. Diese Ascherost unterscheidet sich manchmal minimal in der Form oder im Maß. Ansonsten ist es für 1.000 Kaminöfen ein Ascherost, aus Guss und das die Gleich Funktion.
Jetzt planen wir alle Artikeldetail Seiten mit NoIndex zu verwesen und nur die Einstiegsrubrik (Hersteller) indexieren zu lassen. Meint ihr das ist sinnvoll? Wir hätten dann ca. 12.000 Artikel nicht im Index, fokussieren uns auf die Hersteller Einstiegsseiten. Unser Shopsystem ist Shopware.
Bin gespannt, schönes Wochenende
Hallo Mark,
grundsätzlich solltest du solche Fragen lieber John Mueller direkt stellen, hier werden immer die kommenden Hangouts angekündigt: https://sites.google.com/site/webmasterhelpforum/en/office-hours
Aber an sich ist es so: Wenn du die Seiten aus dem Index nimmst, dann kannst du mit ihnen nicht mehr ranken. Daher solltest du vor allem die Produkte, nach denen am Häufigsten gesucht wird, weiterhin im Index lassen. Ansonsten musst du dich fragen, ob du vielleicht mehrere Unterprodukte auf einer Seite zusammenfassen kannst. Zum Beispiel alle identischen Ascheroste, wo du dann nur eine Auswahlmöglichkeit nach der Größe auf der Artikelseite selbst anbietest. So rankst du weiterhin für das Produkt, kannst aber mit einer starken Seite mehr Signale aufbauen.
Außerdem gibt es auch keinen Duplicate Content Penalty. Wenn Google gleiche Dinge findet, dann sucht sich der Algorithmus lediglich eine Variante aus, die dann für alle rankt. Du könntest also auch ähnliche Seiten mit dem Canonical ausstatten – dann rankst du aber im oben genannten Beispiel nur noch für eine Größe.
Ich hoffe, das hilft dir weiter, ansonsten wende dich in den hangouts an John 🙂