SEO Wochenrückblick KW 47 2019

von Sara Grzybek

Kategorie(n): Wochenreports Datum: 25. November 2019

SEO nicht bei großen Websites abschauen

Gerade, wenn jemand eine Website besitzt und noch nicht so viel Erfahrung in Suchmaschinen und deren Optimierung hat, liegt die Überlegung nahe, sich einfach an den Big Playern zu orientieren und deren Methoden und Tricks nachzuahmen. Kürzlich hat Google-Mitarbeiter John Müller auf eine Forenfrage auf Reddit geantwortet, dass sich Nutzer nicht allzu sehr auf die Methoden großer Websites verlassen sollten. Diese könnten womöglich auch nur bei diesen Websites funktionieren, während bei der eigenen kleineren Website die Erfolge ausbleiben. Gerade in diesem Zusammenhang sollte beim Setzen von Canonical-Tags darauf geachtet werden, dass selbstreferenzierende Tags nicht immer den gewünschten Effekt mit sich bringen, da diese das Crawlen für den Google-Bot erschweren könnten. Manchmal lohnt es sich eher, einen Satz an spezifischen Canonical-Tags zu verwenden. https://www.reddit.com/r/TechSEO/comments/dx1mi1/should_i_listen_to_googles_advice_or_follow_big/f7nf80q/?context=1

Kein CSS in FAQ Structured Data

Mithilfe strukturierter Daten ist es möglich, essenzielle Informationen an Google bereitzustellen. Im besten Fall tauchen diese strukturierten Daten dann in speziellen Infoboxen in der Google-Suche oder als Zusatzinformationen der SERPs auf. Google gibt dafür ein bestimmtes Regelwerk vor, wie die Daten aufzubereiten sind und stellt ein spezielles Tool zur Verfügung, damit User die strukturierten Daten testen können: https://search.google.com/structured-data/testing-tool/u/0/ Wieder stand Google-Mitarbeiter John Müller Rede und Antwort bei einer Frage auf Twitter. Bei dieser Frage kam das Thema auf, ob der CSS-Code in den strukturierten Daten für einen FAQ-Bereich auftauchen darf. Er beantwortete dies mit einem klaren und kurzen Nein. https://twitter.com/JohnMu/status/1197602392335945730

Entfernung von SEO-Texten bedeutet weniger Traffic

In einer Studie des Unternehmens „Distilled“ wurde beobachtet, inwieweit die Entfernung von Texten, welche allein aus SEO-Gründen erstellt und eingebaut worden sind, einen Einfluss auf die Performance einer Website haben könnten. SEO-Südwest berichtete hierüber. Dabei wurden bei der Website eines Reiseunternehmens die zuvor eingebauten Texte entfernt. Im Nachgang wurde ein Trafficverlust von circa 9800 Such-Sessions innerhalb eines Monats festgestellt. Logischerweise können verschiedene Faktoren Grund für ein solches Performanceverhalten sein. Die Texte, welche zuvor geschrieben worden sind, hatten laut Agentur einen geringen Informationswert. Generell rät Google-Guru John Müller von SEO-Texten ab, welche keinen Mehrwert für Nutzer bieten und alleine der Suchmaschine Relevanz zeigen soll. Er spricht von einer schlechten Usability, wenn Nutzer für den Text die gesamte Seite runterscrollen müssen. Dies zeigt aber ebenfalls, dass die Suchmaschine sehr wohl die Texte unterhalb von Produkten registriert und in das Ranking mit einfließen lässt. Fazit der Fallstudie ist, dass nicht empfohlen wird, auf der Stelle alle SEO-Texte zu entfernen, sondern ersatzweise Texte zu erstellen, von denen sowohl Nutzer als auch Suchmaschinen profitieren. Vor allem sollte der Textaustausch testweise auf einzelnen Unterseiten geschehen, um starke Trafficverluste wie auf der getesteten Website zu vermeiden. https://www.distilled.net/resources/removing-seo-text/

Mixed Content vermeiden

Angefangen hat es mit Aspekten wie der SSL-Zertifizierung und der Umstellung auf HTTPS. Nun geht es im Thema Sicherheit noch einen Schritt weiter: Sicherheitsicons in Form von Schlössern und Ähnlichem, welche bei verschiedenen Browsern neben der URL-Zeile die „Sicherheit“ der jeweiligen Website aufzeigen. Dieser Schritt hat aber weniger mit der Sicherheit für Nutzer als solches zu tun. Da sogenannter Mixed Content, also Inhalte auf einer Website, welche sowohl mit https:// und/oder auch http:// aufgerufen werden können, dem Crawler Probleme bereiten könnten. Aus diesem Grund werden Mixed Content-Inhalte ab der Chrome Version 79 blockiert. Somit stehen Websites mit Mixed Content vor ernsten Problemen, welche schnellstmöglich behoben werden sollten. https://www.seo-suedwest.de/5387-google-mixed-content-kann-zukuenftig-das-crawlen-durch-googlebot-behindern.html