404 & 410

Werbung

 


Kernaussagen:

  1. 404er werden immer mal wieder gecrawlt. So stellt Google sicher, dass sie auf diesen Seiten nichts verpassen.
  2. 404er sind eine normale technische Einstellung und verursachen keine Rankingprobleme.
  3. Die entsprechenden Listen in Search Console muss man also nicht unbedingt abarbeiten. Sie werden auch dann nach jedem Crawl wiederkommen, wenn man sie als bearbeitet markiert.

01.12.2016, 18:32

Frage: Wie lange bzw. werden 404 URLs überhaupt gecrawlt wenn diese nicht mehr auf der Seite bzw Sitemap verlinkt sind?

Antwort: Wir haben ein langes Gedächtnis und schauen sie uns immer wieder an. Auch, wenn die Seite schon lange weg ist, werden wir sie uns vielleicht trotzdem nochmal anschauen. Das ist auch ok und führt zu keinen Problemen.


29.11.2016, 1:01:08

Frage: Erhöhen sich die Abstände zwischen jedem Crawl, wenn Google eine 410 sieht?

Antwort: Nein, es gibt nur: “Wir schauen es uns öfter an” und “wir schauen es uns seltener an”.


18.10.2016, 22:38

Frage: Google hat letzten Monat unsere Seite gecrawlt und 18.000 404er gefunden. Die Seiten gibt es aber schon ewig nicht mehr. Haben wir ein Problem?

Antwort: Vor einem Monat hat Googlebot viele alte Seiten gecrawlt, von denen wir eigentlich wissen sollten, dass sie 404 sind. Dadurch gab es viele 404 Fehler, die verursachen aber keine Probleme im Hinblick auf die Suche. Wenn wir eine 404 sehen, crawlen wir auch nur seltener, hören aber nicht ganz auf. Wir werden uns das trotzdem immer mal wieder anschauen.


23.09.2016, 17:30

Frage: Eine Website wurde für Duplicate Content / Doorway Pages abgestraft und in den letzten Jahren aufgeräumt und umgestaltet. Search Console findet aber zahllose 404er, die wohl von einer alten Sitemap verlinkt sind (die es aber nicht gibt).

Antwort: Das ist kein Problem. Manchmal sehen wir extrem viele 404er, die schauen wir uns immer mal wieder an – aber das ist kein Problem für euch. Vor Kurzem hatten wir ein Problem, wo wir total viele davon gecrawlt haben. Das ist aber kein Problem. Wenn ihr eine Abstrafung für Links habt, dann disavowed alles, was ihr nicht gut findet. Bei Problemen mit Inhalten solltet ihr versuchen, eine Ressource zu werden – anstatt eines Werbeplakates.


23.09.2016, 14:03

Frage: Wir nutzen Adobe Omniture und es kreiert einen nicht korrekten onclick=javascript Link in einem Link, der einen “_1” Parameter ans Ende jeder URL packt, die dadurch zu einer 404 werden. Man kann den Code der Software leider nicht bearbeiten. Wird Google der richtigen URL folgen oder der falschen mit dem Parameter?

Antwort: Ich bin mir nicht ganz sicher, wie das funktioniert. Aber wenn wir beide sehen, dann nutzen wir die, die funktioniert. Das wird aber zu vielen 404ern in Search Console führen, wodurch ihr das schwerer managen könnt.


09.09.2016, 26:34

Frage: Wir haben eine Immobilienwebsite. Wenn etwas verkauft ist, gibt es ein 404. Soll ich dort eine Nachricht einfügen, die auf andere Angebote verweist?

Antwort: Wir schauen uns 404 nicht für die Suche an. Aber für den Nutzer macht es Sinn, wenn ihm die 404 einen weiteren Weg weist. Weiterleitungen würde ich nicht machen. Denn wenn ihr zur Homepage weiterleitet, dann ist das keine passende Weiterleitung und wir sehen es trotzdem als 404.


09.09.2016, 19:22

Frage: Wie ernst sollten wir 404-Benachrichtrigungen in Search Console nehmen?

Antwort: Es ist kein Problem, wenn Search Console viele 404er anzeigt. Das führt nicht zu schlechterem Ranking. Wenn eine Seite nicht existiert, dann gebt uns eine 404 zurück. Das ich technisch richtig. Wir zeigen es in Search Console nur für den Fall, dass es eine versehentliche 404 ist. Dann könnt ihr das da sehen und beheben. Sind die 404 gewollt, dann lasst sie so. Standardmäßig seht ihr die 404er auch nach Priorität geordnet (da sie mal in einer Sitemap waren oder Links haben). Uns ist es auch ziemlich egal, ob es 404 oder 410 sind. Wenn unsere Systeme Zeit haben, dann schauen sie sich auch ganz alte URLs an, die schon seit Jahren weg sind. Einfach um sicher zu gehen, dass sie immer noch weg sind.


09.09.2016, 01:26

Frage: Ich habe einen Shop mit Produktkategorien und einer XML Sitemap. Manche Kategorien sind leer und Google zeigt sie als Soft 404. Welchen Code sollte meine Seite zurückgeben?

Antwort: Das gibt es oft. Es gibt also keine oder nur vorübergehende Inhalte. 404 ist da am besten, vielleicht mit Noindex Meta Tag.


08.09.2016, 45:40

Frage: News-Website: Artikel werden jeweils auf einer Unterseite dargestellt. Alle 1-2 Wochen alten Artikel werden stets gelöscht, sodass 404 Fehler entstehen. Wie kritisch wird das von der Google-Suche bewertet, wenn z.B. 50% der Seiten 404 zurückgeben?

Antwort: Wenn das für euch so richtig ist, dann ist das für uns ok. Wenn aber Links auf diese Seiten bestehen, dann gehen die verloren. Vielleicht können die Artikel mit Weiterleitung in einem Archiv landen? Sind sie gar nicht mehr relevant, dann ist 404 aber eine gute technische Lösung, auch für viele Seiten.


06.09.2016, 06:45

Frage: Sollten wir bei soft 404 die URLs aus der Sitemap rausnehmen und sie wieder hinzufügen, wenn wir ein Ergebnis haben? Ist es normal, URLs alle paar Tage zu entfernen oder hinzuzufügen?

Antwort: Grundsätzlich würde ich soft 404 nicht in die Sitemap packen. Denn dort sollten Seiten stehen, die ihr im Index haben wollt. Wenn das also eine leere Seite bzw. eine Fehlerseite ist, dann sollte die nicht in der xml-Sitemap sein. Die Sitemap verbessert unser Crawlen, ersetzt sie aber nicht. Nur weil ihr eine URL aus der Sitemap nehmt, heißt das nicht, dass wir sie nicht mehr crawlen. Wenn ihr Inhalte auf eine URL packt, dann würde ich diese mit dem Änderungsdatum in die Sitemap packen.


26.08.2016, 04:47

Frage: Wie können wir es schaffen, dass irrelevante 404 Fehler nicht mehr in Search Console auftauchen?

Antwort: Sie werden weiterhin da sein. Google hat ein gutes Gedächtnis und deswegen kommen sie immer wieder. Da müsst ihr aber nichts machen. Wir sehen das nicht als Problem, es ist einfach ein technischer Hinweis. Wir prüfen URLs nur, um sicher zu gehen, dass wir nichts verpassen.


12.08.2016, 26:17

Frage: Search Console zeigt 404er, die es auf der Seite gar nicht gibt. Wie findet Google diese überhaupt? Wir bekommen auch Meldungen von www.exampe.com/apple-app-site-association/.

Antwort: Das sind eher zwei Fragen. Wir finden URLs an vielen Stellen im Web. Manchmal im JavaScript, in Textfiles, in User Generated Content und so weiter. Und wenn wir sie finden und interessant finden, dann crawlen wir sie, um zu schauen, was es dort gibt. Wenn ihr solche 404er findet, dann ist das ein Zeichen, dass wir lieber mehr Inhalte von euch finden würden. Die App Sache ist nur ein Test von uns, um herauszufinden, ob es eine App gibt. Das testen wir, wie wir auch die robots.txt testen.


12.08.2016, 00:37

Frage: Ich habe mich durch die 404er in Search Console gearbeitet, auf einer großen E-Commerce Seite. Lohnt sich das?

Antwort: Dinge aufräumen ist immer gut, aber ihr werdet keinen großen Sprung in den Rankings sehen.


26.07.2016, 08:08

Frage: Ich habe vor einiger Zeit ein paar Seiten fälschlicherweise als 404 und 410 gekennzeichnet. Wenn ich diese zurück auf 200 setze und sie dann per 301 auf Seiten mit Inhalten weiterleite, wird Google dann den PageRank zu den neuen Seiten weitergeben?

Antwort: Ja, wenn Seiten wiederkommen, dann sehen wir sie wieder als normale Seiten an.


08.07.2016, 50:23

Frage:  Was passiert mit Links, wenn ich die Zielseiten auf 404 stelle?

Antwort: Dann lassen wir sie fallen.


08.07.2016, 09:45

Frage: Ich habe seit einem Jahr etwa 4000 404 und 410 Meldungen. Versteht Google die Seiten nicht – und werden sich meine Rankings verbessern, wenn diese weg sind?

Antwort: 404 Seiten sind kein Problem. Wir sehen eine Seite deshalb nicht als schlechter an. Sie sind ein technisches Werkzeug, mit dem ihr uns anzeigt, dass eine Seite nicht mehr existiert. Google hat aber ein gutes Gedächtnis und wird diese Seiten immer mal wieder crawlen und sie euch dann wieder anzeigen. Das tun wir für den Fall, dass die Seiten nicht 404 sein sollten. Wenn das aber gewollt ist, dann könnt ihr das einfach so lassen.


01.07.2016, 32:01

Frage: Ich arbeite an einer dynamischen Website, auf der Inhalte heute existieren und später ablaufen. Es gibt Inhalte, dann werden sie zu 404er und später erhalten sie neue Inhalte. Wir können sie nicht weiterleiten. Wie sollen wir damit umgehen?

Antwort: Das ist eine schwierige Situation. Wir sehen keine konsistente Geschichte und können die Seiten daher schlecht einordnen. Ihr solltet das also im Bestfall nicht mit 404ern machen. Es geht zwar auch so, aber allgemein wären andere Wege für uns einfacher. Setzt auch immer eine Sitemap ein, damit wir sehen, wenn etwas passiert ist.


30.06.2016, 24:32

Frage: In der Search Console wird zwischen Soft 404 und normalen 404 Fehlern unterschieden. Spielt diese Differenzierung auch aus Ranking-Sicht eine Rolle bzw. wie sollte man mit Soft 404 Fehlern umgehen?

Antwort: Für das Ranking sind sie in etwa gleich. Wir sehen, dass etwas nicht mehr existiert und nehmen es aus dem Ranking. Bei Soft 404 müssen wir aber etwas genauer hinschauen. Manchmal sind diese auch technische Fehler. Für uns sind die Unterschiede mehr für das Crawling relevant. Bei 404 sehen wir, dass die Seite nicht mehr existiert und crawlen sie nur noch sehr sehr selten, bei Soft 404 kommen wir noch häufiger vorbei, um das hin und wieder zu prüfen.


16.06.2016, 11:26

Frage: Eine Website ist relauncht. Ursprüngliche Pages existieren nicht mehr und geben einen 410-Code aus. Kann ich für diese temporär eine gesonderte 410-Sitemap einsetzen, damit sich die Bots auf Wesentliche bzw. neue Pages konzentrieren?

Antwort: Ja das ist möglich. Mit einer Sitemap können Nutzer angeben, wann sich URLs geändert haben. Wurden die URLs so geändert, dass sie einen Fehlercode zurückgeben, können die Sitemaps auch eingesetzt werden. Bei einem Relaunch würde ich überlegen, die alte Seite nicht einfach aus- und die neue Seite einfach anzuschalten. Ich würde einen Redirect einrichten. Somit wird das Risiko minimiert, dass die neue Seite in den ersten Monaten bis zur kompletten Einrichtung nicht zu stark in den Suchergebnissen sinkt. Sind Redirects von der alten zur neuen Webseite eingerichtet, sinkt der Pagerank zumeist wesentlich weniger.


02.06.2016, 14:56

Frage: Wir haben in der SC viele 404 Fehler von Seiten, die so nie existierten. Stimmt da was beim Crawling nicht? Ich kann ja nicht alles mögliche mit einer 301 etc. weiterleiten.

Antwort: Wenn die Seiten nie existiert haben, dann macht da einfach gar nichts. Wir zeigen alle 404er an, die wir finden – die Reihenfolge ist aber grob prioritisiert. Wenn die oben schon keinen Sinn machen, dann könnt ihr den Rest der Liste wohl getrost ignorieren.


08.04.2016, 32:27

Frage: Muss der Bot die 404er sehen können? Brauchen sie also Index, Follow oder Noindex, Follow?

Antwort: Wenn eine Seite ein 404 zurückgibt, dann schauen wir uns nichts auf dieser Seite an. Wir lassen sie dann einfach fallen, ihr müsst da also nichts weiter einstellen. Aber stellt sicher, dass der Server wirklich ein 404 zurückgibt.


08.04.2016, 31:23

Frage: Ist es ok, wenn man viele 404er erstellt – vielleicht von 70% aller bestehenden Seiten?

Antwort: Viele 404er sind immer ok. Wir sehen das als technische Methode, ihr könnt also viele machen. Wenn ihr wollt, dass schlechte Inhalte verschwinden, dann ist das eine Option.


08.04.2016, 00:38

Frage: Wir haben eine große Website, bei der Millionen von Einträgen jeden Monat auslaufen. Wie sollen wir hier vorgehen? Sie per 301 an die Überkategorie weiterleiten, 404 nutzen oder zu einem ähnlichen Beitrag weiterleiten?

Antwort: Normalerweise würde ich 404er zurückgeben, damit diese mit der Zeit verschwinden. Ihr könnt auch das “unavailable after” robots Meta-Tag nutzen, das uns sagt, dass die Seite ab einem bestimmten Zeitpunkt in der Zukunft nicht mehr aktuell sein wird. Wenn die Seiten viele Links generieren, dann könnte ihr sie auch zu passenden Seiten weiterleiten. Das geht aber nur, wenn die neuen Seiten ähnlich oder sogar gleich sind. Gibt es keine Äquivalente, dann solltet ihr das lieber lassen.


07.04.2016, 40:12

Frage: Eine Immobilienseite hat folgenden Aufbau: www.immosite.com/region/ort/angebote/ Angenommen, für einen bestimmten Ort gibt es aktuell keine Angebote. Was wäre der beste HTTP-Statuscode? 200 ok, mit Info, dass derzeit keine Angebote verfügbar sind?

Antwort: Ich würde in solchen Fällen einen 404 zurückgeben. Zumindest ein Noindex macht Sinn, damit wir so etwas nicht indexieren. Denn wir versuchen seit langem, solche leeren Seiten aus dem Index zu halten.


24.03.2016, 17:37

Frage: Wir sehen viele 404er, obwohl die Seiten entweder nicht mehr existieren oder nie zu diesen Seiten verlinkt haben.

Antwort: Vielleicht erinnern wir uns nur daran. Dies ist eine der Situationen, wo ihr euer Wissen über eure Seite nutzen müsst, um die Daten in Search Console zu interpretieren. Es gibt viele Möglichkeiten, warum wir diese Fehler anzeigen. Zum Beispiel crawlen wir sie immer mal wieder, um zu sehen, ob sie wirklich weg sind. Wenn sie dann 404 zeigen, ist das ja kein Problem für euch.


11.03.2016, 28:14

Frage: Ich sehe viele 404er. Google indexiert die PDFs mit Links nicht richtig, was kann ich tun?

Antwort: Es ist manchmal schwer, herauszufinden, wo diese Links herkommen. Wir versuchen bei PDFs, Links im Text zu finden. Die können aber auch nur zusätzliche sein, während wir andere normal finden. Das ist für uns dann aber kein Problem, wenn dort 404er bei herumkommen. Wenn es aber spezielle PDFs gibt, schickt mir die einfach mal und ich schaue mir das an.


11.03.2016, 02:30

Frage: Sollten 404er follow sein?

Antwort: Wenn wir eine 404 sehen, schmeißen wir sie aus dem Index, das ist also egal.


08.03.2016, 32:36

Frage: Würde es Sinn machen, Seiten, die ich nicht mehr sehen möchte, von 404 auf 410 zu wechseln?

Antwort: Das sollte keinen Unterschied machen. Das ist in großen Teilen ein eher theoretischer Unterschied, in der Praxis ist es nur eine Sache von Stunden oder einem Tag – und meist haben wir eh genug Kapazitäten, um alles zu crawlen, was wir brauchen. Ist das nicht der Fall, solltet ihr mal euren Server checken. Wenn ihr wollt, dass wir etwas gar nicht mehr crawlen, blockiert es irgendwann in der robots.txt. Aber bei normalen Seiten ist es ausreichend, ein 404 anzuzeigen, sodass wir immer mal wieder nachschauen können, ob sich etwas ändert.


25.02.2016, 52:29

Frage: In den WMT werden bei den 404-Fehlern die verweisenden Seiten angegeben. Häufig sind diese Seiten “uralt” und gar nicht mehr vorhanden, entsprechend auch die Links nicht mehr vorhanden. Wann werden diese Seiten aktualisiert, bzw. warum sind die so alt?

Antwort: Manche Seiten crawlen wir einfach sehr selten und sehen die Veränderungen dann einfach später. Wir geben ja extra das Datum an, damit ihr das einordnen könnt.


25.02.2016, 29:23

Frage: Mich irritiert in der Search Console, dass 404 Fehler, die ich häufig nicht nachvollziehen kann, mit einem Crawling Stempel jüngsten Datums angezeigt werden. Wäre es nicht sinnvoller, wenn Search Console nur aktuelle Fehler anzeigt?

Antwort: Das ist gutes Feedback, das hören wir öfters. Grundsätzlich werden Seiten, die jetzt ein 404 haben, trotzdem noch mal gecrawlt – um sicherzugehen, dass das 404 auch dauerhaft ist. Daher taucht das dann auch öfters in Search Console auf.


11.02.2016, 29:07

Frage: Hi, wenn Seiten gelöscht sind, schickt der Server den User mit 302 auf eine 404 bzw. 410 Seite, ist das OK?!

Antwort: Ja, das kann man so machen. Aber ihr werdet viele Requests in dieser Richtung sehen, das ist aber kein Problem.


11.02.2016, 27:09

Frage: Wir haben viele Veranstaltungen, dadurch natürlich auch viele 404er, wenn die Veranstaltungen abgelaufen sind. Sollte man den eingehenden Traffic aus Google per 301 auf eine Überseite leiten oder nur eine 404/410 Seite machen?

Antwort: Grundsätzlich würde ich eine 404 zurückgeben lassen, damit die Seiten aus dem Index fallen. Eine Weiterleitung macht nur Sinn, wenn es äquivalente neue Veranstaltungen gibt. Zum Beispiel das Konzert vom letzten Jahr auf das Konzert von diesem Jahr weiterleiten. Aber einfach auf die Homepage weiterleiten ist keine so gute Option. Dann werden wir sie als Soft 404er ansehen. Erstellt also am besten eine wirklich gute 404 Seite, die dem Nutzer weiterhilft und ihn vielleicht dazu bringt, zu anderen Seiten weiterzuklicken.


26.01.2016, 37:57

Frage: Ich habe eine Nachrichtenseite und möchte alte Artikel löschen. Was ist hier der beste Weg?

Antwort: Ihr könnt sie einfach löschen und eine hübsche 404 Seite einrichten. Ich würde aber gute Inhalte nicht löschen, sondern sie eher in ein Archiv verschieben.


17.12.2015, 28:27

Frage: 410 Errors Search Console – wenn ich die Errors behebe, tauchen die 410er immer wieder auf. Warum? Die betreffenden Seiten sind halt nunmal “gone”, die Seiten sind weder intern noch extern verlinkt, sonst hätte ich sie ordnungsgemäß redirected.

Antwort: Wenn ihr etwas als korrigiert markiert, dann ist das nur für euch. Wenn wir sie dann wieder crawlen und den Fehler wieder sehen, dann zeigen wir das auch wieder. Wir crawlen solche Seiten immer mal wieder (nur seltener), um sicher zu gehen, dass wir nichts neues verpassen. Ihr könnt die Fehlermeldungen dann einfach ignorieren, wir sehen das nicht als Zeichen für ein Qualitätsproblem – sondern nur als technische Angabe.


04.12.2015, 35:31

Frage: Wir sind eine Modefirma mit verschiedenen Artikeln. Nun werden wir aber aufhören, einige davon anzubieten. Wie sollen wir mit den entsprechenden Seiten umgehen?

Antwort: Technisch solltet ihr ein 404 einrichten, hier könnt ihr auch eine spezielle 404 Seite basteln. Vielleicht arbeitet ihr ja auch mit einem Partner zusammen, der ähnliche Produkte hat – dann könnt ihr dahin verlinken.


17.11.2015, 21:28

Frage: Schaut sich Google die Qualität der 404 Fehlerseiten oder unserer internen Suche an, wenn die generelle Websitequalität ermittelt wird?

Antwort: Wir berücksichtigen 404 Fehlerseiten nicht, weil wir sie uns gar nicht ansehen. Darum erkennt Google auch keine gut gestaltete 404 Fehlerseite, aber Nutzer tun dies natürlich. Wenn sie trotz der Fehlerseite finden, was sie gesucht haben, ist das super!


27.10.2015, 48:10

Frage: Google sagt, dass es besser ist, Inhalt auf noindex zu setzen, statt Inhalte zu entfernen. Wenn viele Pages entfernt werden müssen – wäre es dann besser, diese mit Pages zu ersetzen, die die Nachricht “Inhalt entfernt” zeigen – statt der 404 Fehlerseite?

Antwort: Google präferiert, 404 Seiten zu sehen, da es den Googlebot davon abhält, diese Seiten ständig zu crawlen. Am Ende behandelt der Googlebot die noindex Pages vermutlich als Soft 404er. In Bezug auf das Crawling ist es besser, saubere 404er zu haben.


25.09.2015, 21:07

Frage: Wir haben in Search Console viele 404er. Wie können wir diese entfernen, damit sie unsere Rankings nicht beeinflussen?

Antwort: 404er haben keinen Einfluss auf die Rankings, ihr müsst also nichts tun.


27.08.2015, 00:36

Frage: Im Jahr 2015 gab es auf die Website Seonauten einen Hackingangriff, wo mehrere Tausend Seiten erstellt und dann mit illegalen bzw. schlechten Links beschossen worden. Die Betreiber haben dann diese Seiten wieder von ihrem Server gelöscht und die entsprechenden Links per Disavow auch an Google gemeldet. Es kam zu einem massiven Rankingverlust. Dieser Rankingverlust hat sich bis heute nicht erholt. Laut Google schaden 404er nicht, andere Personen sind da aufgrund diverser Erfahrungen anderer Meinung. Daher die Frage: Was ist schuld an diesen Rankingverlusten? Die vielen 404er oder die zahlreichen schlechten Links?

Antwort: Die genannte Website rankt so, wie sie rankt aufgrund ihres aktuellen Zustandes und nicht wegen irgendetwas, was bei diesem Hackingangriffes entstanden ist. Die 404er-Seiten haben da wirklich keinen Einfluss. Auf unserer Seite fallen 404er raus, d. h. auch Links, die vorher auf diese 404er gezeigt haben, fallen aus unserem Linkwert raus. Diese Links zählen nicht mehr, da sie keinen Wert mehr haben. 404er sind kein Problem, dies zeigt Google, dass eine Website in Ordnung ist und eine saubere Antwort auf eine Anfrage gibt. Der Umstand, dass es zeitlich jetzt so aussieht, als würde das zusammenhängen ist nicht von der Hand zu weisen, aber weder die 404er Seiten noch die Links, die auf diese Seite zeigen sind daran schuld. Ggf. muss überprüft werden ob andere Maßnahmen durchgeführt wurden in der Zeit.


14.08.2015, 03:55

Frage: Warum sehen wir immer noch Seiten, die seit Jahren 404 zurückgeben? Warum crawlt Google sie immer wieder?

Antwort: Wir crawlen sie nicht mehr so oft. Aber manchmal sehen wir einen neuen Link zu der Seite und prüfen sie dann erneut. Und allgemein kommen wir manchmal zurück, da viele Seiten nach einiger Zeit wiederkommen und wir keine Inhalte verpassen wollen.


14.08.2015, 00:48

Frage: Einige Seiten ohne Inhalt sind im Index, obwohl sie nicht in der Sitemap sind – es kommt wegen rel=next. Ich schaffe es nicht, sie aus dem Index zu entfernen.

Antwort: Die Seiten geben wahrscheinlich einen 200 Result Code zurück und werden deswegen noch angezeigt. Ihr solltet eine 404 einrichten, damit sie deutlich ausgeschlossen werden können. Wenn das nicht geht, nutzt noindex, nofollow. Eine robots.txt würde hier nicht helfen, da wir dann nicht mehr crawlen können und nicht sehen, dass wir die Seiten fallen lassen sollen.


11.08.2015, 14:15

Frage: Um Doorway Pages loszuwerden, denken wir an 301. Ist es besser als follow, noindex zu nutzen, da diese Seiten Traffic generieren? Wir versuchen, unsere Seite zu säubern, wollen dabei aber nichts falsch machen.

Antwort: Beide Möglichkeiten funktionieren, auch ein 404 würde gehen, das hängt also von euch ab.


11.08.2015, 08:24

Frage: Würde es zu einem kleinen Ranking-Vorteil führen, wenn eine Seite mit vielen 404 und Soft 404s sowie technischen Problemen wie falschen Hreflangs und Canonical Tags mit einer identischen, aber technisch “perfekten” Seite vergleichen wird?

Antwort: Normalerweise sind diese Dinge keine Probleme, außer vielleicht das Hreflang. Es hilft nicht, um besser zu ranken, aber sorgt dafür, dass immer die richtige Seite angezeigt wird. 404 und soft 404s sind technische Probleme, die auf jeder Seite auftreten können. Daher zählen sie nicht gegen euch. Auf der anderen Seite wird dadurch das Crawlen und Indexieren erschwert. Wir müssen uns also unter Umständen mit langem crawlen aufhalten und verpassen daher neue Inhalte.


31.07.2015, 42:05

Frage: Wir haben gesehen, dass einige URLs für einen Tag den 404er Status hatten – dies wurde am nächsten Tag angezeigt. Ist das vorübergehend oder muss ich die Indexierung meiner Seite überprüfen?

Antwort: Das kann immer mal passieren. Wenn ihr euch sicher seid, dass es keine Probleme auf eurer Seite gibt und alles richtig indexiert ist, dann macht euch keine Sorgen.


30.07.2015, 57:09

Frage: Warum “merkt” sich der Google-Bot alte URL’s so lange? Wir haben von “viele” CSS-Includes auf “einen” Include, mittels PHP-Script umgestellt, dennoch versucht der Google-Bot laufend die alten CSS-Files zu crawlen, trotz 404?

Antwort: Wir haben sehr viel Speicher und versuchen, immer wieder zu kontrollieren, ob die Seiten wirklich weg sind. Wir schauen sie uns dann alle paar Monate mal an. Wichtig ist, dass sie auch wirklich 404er zurückgeben.


03.07.2015, 50:26

Frage: Wie lange behält Google 404er im Index, bevor sie entfernt werden. Und wenn sie entfernt wurden – können wir einen 301er nutzen, um sie wieder zu indexieren?

Antwort: Wir versuchen, sie so schnell wie möglich zu entfernen. Google prüft sie allerdings einige Male, bevor sie wirklich entfernt werden. Da kann kein Zeitrahmen genannt werden.

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT