Warum man sich nicht allein auf SEO-Tools verlassen sollte

Auf dem Weg zu besseren Rankings können SEO-Tools ein wahrer Segen sein. Mit wenigen Klicks erhält man einen Überblick, wo die eigene Website momentan steht und dazu Tipps, was man auf den eigenen Seiten verbessern sollte, damit die Platzierungen schön brav steigen. Im Idealfall erkennt das Tool auch schwerwiegende Probleme, die einem selbst womöglich nicht aufgefallen wären.

Aber Vorsicht: Wo Licht ist, ist auch Schatten. Wenn man alle Aussagen eines SEO-Tools auf die Goldwaage legt und ohne Gegenprüfung alle Tipps umsetzt, kann der Schuss ebenso schnell nach hinten losgehen – im besten Fall vergeudet man lediglich seine Zeit.

Nachfolgend zeige ich verschiedene Beispiele auf, die ich selbst gesehen habe. Gleichzeitig gebe ich Tipps, wie man im jeweiligen Fall vorgehen kann. Auf geht´s!

HTTP-Statuscodes

Manche Tools enthalten eine Funktion, mit welcher sich die HTTP-Statuscodes aller Seiten einer Domain prüfen lassen. Im Normalfall lautet der Statuscode bei existierenden Seiten 200 und bei nicht (mehr) existierenden Seiten 404 bzw. 410.

Doch wenn das Tool nun bei allen Seiten Code 403 („Forbidden“) oder 503 („Service Unavailable“) zurückgibt, muss ich mir dann Sorgen machen? In der Tat sind beide Codes sehr suboptimal, da die betroffenen Seiten nicht erreichbar sind. Mein Tipp: Sucht Euch ein paar URLs heraus und prüft stichprobenartig, ob diese Codes wirklich zurückgegeben werden (z. B. mit https://httpstatus.io/). Wenn Ihr bei Eurem Gegencheck Code 200 und bei nicht (mehr) existierenden Seiten 404/410 erhaltet, sollte alles in Ordnung sein.

Als Auslöser für diese Fehlinformation kommt in Betracht, dass der Webserver Eurer Domain dem Tool den Zugriff verweigert (z. B. über die .htaccess-Datei) oder dass der Server im Moment der Prüfung kurzzeitig nicht erreichbar war („Downtime“). So etwas kann immer mal vorkommen. Prüft daher in diesem Fall unbedingt stichprobenartig, ob die von Eurem Tool angezeigten Statuscodes überhaupt stimmen, bevor Ihr alle Hebel in Bewegung setzt und Euren Provider kontaktiert.

Backlink-Check

Es gibt im Internet zahllose Tools, mit denen sich Links ermitteln lassen, welche auf die eigene Website zeigen („Backlinks“). Da Google und andere Suchmaschinen ebenfalls Backlinks als Rankingfaktor heranziehen, ist das eine hilfreiche Sache, um sich einen Überblick über die Backlink-Situation der eigenen Website zu verschaffen. Allerdings solltet Ihr dabei bedenken, dass Backlink-Checker keine Gewähr für Vollständigkeit bieten können. Möglicherweise haben Google & Co. auch Backlinks zu Eurer Website gefunden, die von diesen Tools unentdeckt bleiben – oder umgekehrt.

Das Internet umfasst ungeheure Datenmengen und dabei bleiben quasi zwangsläufig Seiten und somit auch Links unentdeckt. Wer es besonders ausführlich wissen möchte, macht Abfragen bei mehreren Backlink-Checkern und führt die Ergebnislisten anschließend zu einer Liste zusammen.

Der Sichtbarkeits-Index

Der Sichtbarkeits-Index von SISTRIX ist eine großartige Sache. Mithilfe eines festgelegten Sets von mehr als 250.000 Keywords und Keyword-Kombinationen wird annäherungsweise ermittelt, wie oft und wie weit oben eine bestimmte Website in den Suchergebnissen zu finden ist. Das bezeichnet man als „Sichtbarkeit“. Deshalb stellt dieser Wert in vielen Fällen einen guten Indikator für den Erfolg von SEO-Maßnahmen dar.

Wenn eine Website jedoch unter sehr speziellen Keywords gefunden wird, die nicht im besagten Keyword-Set enthalten sind, kann es vorkommen, dass die Sichtbarkeit dieser Website niedriger angegeben wird, als sie tatsächlich ist. Es handelt sich definitiv um einen guten und wertvollen Indikator, aber nicht um eine Kennzahl mit absolut sicherer Aussagekraft.

Abstrafung droht! Oder doch nicht?

„Alarm! Der Seitentitel ist 60 Zeichen lang! Nur 50 Zeichen dürfen verwendet werden! Eine Abstrafung droht!“

Dieses Beispiel ist natürlich übertrieben. Aber es soll veranschaulichen, was manche SEO-Tools unter dem Begriff „Auswertung“ verstehen. Wie manche PC-Virenschutzprogramme selbst mit dunkelroten Warnzeichen vor harmlosen Cookies warnen, stellen auch manche SEO-Tools harmlose Gegebenheiten als sich anbahnende Katastrophe dar. Kürzlich hat sich sogar John Müller von Google öffentlich darüber geärgert, dass sich einige SEO-Tools auf Aussagen von ihm berufen und diese dabei falsch wiedergeben. Dreister geht es kaum.

Mein Tipp lautet: Solche Auswertungen zur Kenntnis nehmen und mit seinen eigenen Erfahrungen vergleichen. Sind wirklich nur 50 Zeichen im Seitentitel erlaubt? Nein. Droht wirklich eine Abstrafung, wenn der Seitentitel 60 Zeichen lang ist? Nein. Wer sich nicht sicher ist, kann im Internet recherchieren oder in einem Forum fragen. Damit ist dieser Punkt abgehakt.

Der Wert einer Domain

Vor einigen Jahren erhielt ich einen Anruf. Jemand wollte mir eine Domain abkaufen und bot mir 15 EUR an. Nach drei Sekunden der Stille begann ich schallend zu lachen und dachte erst an einen Scherz. Aber nein, das Angebot war ernst gemeint: Der Anrufer hatte meinen Domainnamen bei einem selbsternannten SEO-Tool zur Wertermittlung einer Domain eingetippt und ihr Wert wurde tatsächlich mit 15 EUR angegeben. Daraufhin habe ich dieses Tool selbst ausprobiert und die Domain eines großen deutschen Fernsehsenders eingegeben. Sie war immerhin 220 EUR wert…

Finger weg von solchen Tools! Der Wert einer Domain bemisst sich neben ihrer Bekanntheit nicht zuletzt am Umsatz, der über sie generiert wird. Nur der liebe Gott weiß, was der Entwickler dieses Tools sich dabei gedacht hat.

Minifizierung von CSS- und JS-Dateien

Der Balken in der Auswertung ist rot. „Durch die Minifizierung der Datei ‚default.css‘ können Sie 300 Bytes einsparen“. 300 Bytes sind zwar nur 300 Bytes, bei einer schlechten mobilen Datenverbindung können die aber einen Unterschied machen. Dennoch empfinde ich einen roten Balken an dieser Stelle als übertrieben. Ein gelber Balken hätte es auch getan.

Mein Tipp: Ein gutes Farbschema erleichtert es dem Nutzer, wichtige Punkte von weniger wichtigen unterscheiden zu können. Leider sind die Schwellenwerte für die Auslösung einer Farbe nicht immer sinnvoll gewählt und oftmals zu niedrig angesetzt. Ob ein bestimmter Punkt einen roten Balken verdient hat oder ob die Farbe Gelb ausreichend wäre, könnt Ihr aus den Detailangaben herauslesen.

Verkleinerung von Bildern

Oft findet man bei der Pagespeed-Optimierung erhebliches Potential in der Reduzierung der Größe von Bildern – dies betrifft sowohl die Bildabmessungen als auch die Kompressionsrate. Insbesondere bei JPEG-Bildern kann man durch letztere sehr kleine Dateigrößen und somit kurze Ladezeiten erzielen.

Wenn ein Bild auf einer Seite nur winzig klein zu sehen ist, muss es nicht in 4K-Auflösung auf dem Webserver liegen. Der Webbrowser lädt nämlich zuerst die gesamte Datei vom Server und verkleinert sie danach entsprechend. Welch eine Vergeudung an Bandbreite! In diesem Fall macht eine Verkleinerung des Bildes ausdrücklich Sinn.

Manchmal geben SEO-Tools aber bei bereits optimierten Bildern den Tipp, diese noch stärker zu komprimieren. Stellt Euch eine eingebundene JPEG-Grafik vor, deren Abmessungen bereits optimiert sind und die eine Kompressionsrate von bereits 20 % aufweist. Wenn Ihr die Bildgröße nun weiter reduziert, wird die Grafik irgendwann unscharf. Wenn Ihr die Kompressionsrate weiter steigert, treten irgendwann unschöne JPEG-Artefakte auf und Euer Bild sieht aus wie Suppe.

Natürlich ist eine besonders kurze Ladezeit vorteilhaft, aber Euren Besuchern soll Eure Seite schließlich auch gefallen. An dieser Stelle solltet Ihr abwägen und einen Mittelweg wählen.

Fazit

SEO-Tools sind ein hilfreiches Werkzeug für jeden, der Suchmaschinenoptimierung betreibt. Ein gutes Tool wird selten fehlerhafte Angaben liefern, aber ganz vermeiden lässt sich das technisch bedingt nie. Als SEO sollte man sich daher nicht ungeprüft auf alle Aussagen verlassen, sondern Dinge hinterfragen, sie ggf. gegenprüfen und die Priorität der einzelnen Punkte richtig setzen. Auch wird kein Tool auf dem Markt exakt so „denken“ wie es der Google- oder Bing-Algorithmus tut und daher nur Richtwerte und Anhaltspunkte liefern. Auch gilt es zu bedenken, dass jedes Tool von einem Menschen geschrieben wurde und Menschen Fehler machen.

1 KOMMENTAR

  1. Schöner Artikel Jochen, einen solchen Artikel hätte ich mir vor Jahren gewünscht und sorgt für Klarheit.

    Bei einern großen Anzahl an 503ern verwechseln verschiedene Sicherheits-Anbieter deinen Crawl auch gelegentlich mit einer DDoS-Attacke (einfach whitelisten)

    Beim Backlink-Check sollte man ebenfalls beachten, dass viele Tools zahlreiche Crap-Links werten, die von Google ohnehin entwertet werden.

Hinterlasse eine Antwort