Werbung

 


15.04.2015: Interview zum neuen Search-Console-Tool “serplorer”

Sebastian Erlhofer von der mindshape GmbH aus Köln stand uns Rede und Antwort zu dem neuen Tool serplorer. Was es kann, was es ist und welche Erfahrungen er gesammelt hat.

Was ist der serplorer und was bringt er für das SEO?

Der serplorer nutzt die Daten der Google Search Console (GSC) und fügt sie zu ganz neuen, hilfreichen Ansichten und Auswertungen zusammen. Der User erhält auf Klick Insights, die bis jetzt nur mit aufwändigen API-Programmierungen oder Excel-Zaubereien möglich waren. Und das Tolle an den GSC-Daten ist ja, dass sie direkt von Google kommen und nicht auf Schätzungen oder Hochrechnungen beruhen. Der serplorer macht das SEO-Monitoring viel zuverlässiger und effizienter. Und aus den Erkenntnissen kann man neue Ansätze für die Suchmaschinenoptimierung einer Domain ableiten.

Das klingt spannend. Wie kommt man eigentlich als SEO-Agentur auf die Idee, ein eigenes Tool anzubieten?

serplorer-screensmindshape ist ja keine reine SEO-Agentur, wir entwickeln schon seit Jahren Websites und Tools für Kunden. Als Google im Spätsommer 2015 die GSC-API veröffentlichte, haben wir uns gleich ein internes Script geschrieben, welches kleinere Analysen ermöglicht. Im täglichen Consulting fanden wir das so hilfreich, dass wir im November beschlossen, ein Tool für SEOs zu entwickeln. Letztendlich sind wir also Teil der Zielgruppe und konnten daher den serplorer passgenau entwickeln.

Vor allem die Beta-Phase hat aber dann doch nochmal viel spannendes Feedback gebracht, das wir auch größtenteils umgesetzt haben. Der meistgenannte Wunsch war z.B. ein Rankmonitoring auf Basis der durchschnittlichen Rankings, was wir in der ersten Beta-Version nicht integriert hatten. Wir haben aber auch gemerkt, dass viele SEOs mit der Search Console und den zugrundeliegenden Daten noch nicht wirklich vertraut sind. Meiner Meinung nach wird der Search-Bereich der GSC noch viel zu wenig in den SEO-Alltag integriert.

Was ist denn deiner Meinung nach der Grund, dass die GSC so wenig genutzt wird?

Aus Gesprächen und Mails mit serplorer-Nutzern höre ich immer wieder heraus, dass die Notwendigkeit fürs Monitoring, sowohl in Agenturen wie auch Inhouse, zwar gesehen wird, de facto dafür jedoch nur wenig Zeit bleibt. Schließlich kann man nur mit regelmäßigem Monitoring sicherstellen, dass man erstens frühzeitig Probleme erkennt und zweitens weiter Ableitungen zur Optimierung einer Domain treffen kann, weil man eben Chancen und Potenziale konkret erkennt.

Die Aufbereitung des Search-Bereichs in der GSC ist zwar mit der neuen Version nun um einiges leichter – aber die nicht gerade guten Filtermöglichkeiten, die 90-Tage Begrenzung und die vielen Ungereimtheiten in den Grunddaten erschweren schnelle Auswertungen und Erkenntnisse. Google legt hier meiner Meinung nach absichtlich hohe Hürden. Es bleibt also nur, wie so oft, die Daten in Excel zu exportieren und dann dort die Auswertungen zu fahren. Und dieser Umstand ist glaube ich vielen als regelmäßige Arbeite einfach zu aufwändig. Diesen Aspekt haben wir durch die Entwicklung des serplorers gelöst.

Was meinst Du denn genau mit den Ungereimtheiten in den Grunddaten?

Wenn man sich einmal intensiver und genauer mit den Daten beschäftigt, – was wir offen gestanden auch erst in dieser Tiefe tun, seitdem wir den serplorer entwickelt haben – dann stolpert man z.B. über einige Einzeldaten, die nicht den angezeigten Summen entsprechen. Das hat unterschiedliche Gründe. Häufig werden beispielsweise einige Anfragen aus Datenschutzgründen herausgefiltert und sind in der Detailansicht dann nicht zu sehen. In der Summe der Impressionen werden sie aber mitgezählt. Das führt dann auch zu spannenden Support-Anfragen bei uns, weil serplorer-Tester natürlich zuerst denken, dass die importieren Daten nicht korrekt wären.

Da ist dann auch das Thema „durchschnittliche Rankings“ immer wieder dabei. Als SEO ist man eher an die Ranking-Logik von SISTRIX, Searchmetrics, XOVI und anderen gewohnt. Die scrapen ihre Grunddaten direkt aus den Google-Suchergebnissen und bilden damit genau eine Abfrage zu einem Zeitpunkt ab. Die durchschnittlichen Rankings aus der GSC bilden ja quasi alle Anfragen weltweit für eine URL oder ein Keyword an diesem Tag ab, eben durchschnittlich und gewichtet. Da muss man als SEO schon einmal umdenken.

Wie verbessert der serplorer die Arbeit eines SEOs denn konkret?

serplorer-layered-mockupsZum einen erhälst du mehr Daten, wenn man über die API geht. Da nicht jeder SEO programmieren kann (oder will), bringt dich der serplorer schon alleine deswegen voran – mehr Daten. Gleichzeitig steigt damit allerdings das Problem, dass man sehr viele Stördaten hat. Wenn Google irgendwo in Deutschland einen SERP-Test durchführt und man dann ein Ranking hat mit einer Impression und keinem Klick, dann wird das als Datenzeile angezeigt. Das kommt sehr häufig vor und man sieht am Ende den Wald vor lauter Bäumen nicht. Wir haben daher einen Rauschfilter integriert, der stufenweise diese Störungen für die Analyse ausblendet, wenn man möchte.

Der serplorer speichert außerdem die Daten über 90 Tage hinaus und ermöglicht so spannende und saisonale Vergleiche und Langzeitanalysen. Bei der GSC ist das nicht möglich – und mal ehrlich – wer speichert regelmäßig alle GSC-Daten seiner Properties? Ich kenne niemanden.

Welches ist Dein Lieblings-Feature?

Neben vielen hilfreichen Ansichten, die in der GSC nicht verfügbar sind, finde ich persönlich vor allem die Mehrfachranking-Ansicht super hilfreich für das eigene SEO. Wenn beispielsweise zwei URLs in den TOP20 für ein und dasselbe Keyword ranken, dann kann Google sich nicht so recht entscheiden. Entfernt man eine URL (über einen 301er oder über Content-Zusammenlegung), dann steigt in sehr vielen Fällen das Ranking der verbleibenden URL um mehrere Positionen. Und genau solche Mehrfachrankings kann man mit dem serplorer auf Klick identifizieren.

serplorer-pfadanalyseVon vielen Nutzern haben wir auch das Feedback, dass die URL-Ansicht und die aggregierte Pfadansicht sehr hilfreich sind und einen guten Überblick geben. Diese Daten kann man sich für jede einzelne URL auch aus der GSC direkt ziehen. Im serplorer werden aber alle URLs angezeigt und darunter direkt die Keywords, die den organischen Traffic bringen. Setzt man jetzt noch den Datumsfilter mit einem Monatsvergleich an, sieht man genau, über welche Keywords bei welchen URLs mehr oder weniger Traffic kommt. Hilfreich, vor allem wenn es starke Schwankungen im organischen Traffic gab! Der Nutzer sieht genau, wo er optimieren muss. Analytics zeigt das wegen des Not-Provided ja leider nicht mehr an.

Wird der serplorer noch weiterentwickelt – gibst Du uns einen Einblick in Eure Roadmap?

Gern. Derzeit arbeiten wir daran, dass man mehrere Keyword-Sets definieren kann. Mit denen kann man dann spezielle Auswertungen durchführen oder zum Beispiel auch die SERP-Visibility für jedes Keyword-Set beobachten. Neben ständigen Optimierungen wie z.B. an der Performance werden wir auch weiterhin die Wünsche von den Nutzern aufnehmen und integrieren. Auch im Bereich der Filtereinstellungen wird noch Einiges kommen. Wir möchten aber auch konkret Handlungsempfehlungen integrieren. Wir haben festgestellt, dass viele Online-Marketer den serplorer nutzen, die nicht so tief im SEO drin sind. Hier können wir viele hilfreiche Tipps aufgrund der Daten geben, wie man die eigene Domain bei Google konkret noch weiter voran bringen kann.

Vielen Dank für das Interview und viel Erfolg weiterhin!

Euch auch vielen Dank!

Wer jetzt Neugierig auf das Tool gewesen ist findet es hier: https://www.serplorer.com.

PS: Wir nutzen den Serplorer im übrigen selber für unsere Auswertung des SEO-Portals und können das Tool daher nur empfehlen


26.11.2015: Interview auf der SEOkomm

Nicole Mank von der Web Netz GmbH hat bei der Ticketverlosung zur SEOkomm 2015 mit Ihrem Vorschlag der Video Interviews auf der SEOkomm den zweiten Platz belegt. Im nachfolgenden Video hat Sie Sebastian Erlhofer interviewt.

Von Sebastian Erlhofer haben wir zwar noch kein eigenes Interview, wir sind aber dran. 🙂 Und nun Viel Spaß mit dem Video.

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

2 KOMMENTARE

  1. Hi Nicole, hi Sebastian,

    ich stelle die Frage mal an euch beide!

    Gibt es Empfehlungen für SEO-Prozesse für Unternehmen, die SEO inhouse betreiben?

    Gibt es aus eurer Sicht überhaupt fertige Lösungen oder muss man die je Unternehmen selbst für sich entwickeln?

    Es könnten ja auch Module sein, die man je Unternehmen anders sortiert und priorisiert.

    Danke
    Uwe

  2. Hey Uwe, fertige Lösungen gibt es da definitiv nicht, weil sich die Prozesse der Unternehmensumwelt anpassen müssen. Und da ticken Inhouse-Uhren doch anders als Agentur-Logiken. Man kann wohl einiges transferieren, aber nur weniges direkt übernehmen. Und ein fertiges Prozess-Set gibt es meiner Meinung nach definitiv nicht. Sonst könnte es ja jeder 🙂

HINTERLASSEN SIE EINE ANTWORT