Inhaltsverzeichnis
- 24.05.2016: Search Console: Featured Snippets, Property Sets, Keywords
- 13.05.2016: Ein Report für Search Console und Analytics
- 12.05.2016: Neuigkeiten zu Search Console
- 03.05.2016: Search Console: Neue URL und neuer Mobile Friendly Test
- 18.03.2016: Dynamische URLs in der Suchanalyse
- 03.03.2016: Suchanalyse verspätet
- 02.03.2016: Fetch as Google überarbeitet?
- 25.02.2016: Neue Spam Warnungen
- 25.02.2016: Search Console
- 23.02.2016: Fetch as Google Beschränkung
- 18.02.2016: Mehr Tage in der Suchanalyse?
- 03.02.2016: Fetch as Google
- 02.02.2016: Reconsideration Request in welcher Sprache?
- 02.02.2016: Googlebot und Search Console
- 29.12.2016: Zwei News zu Search Console
- 27.01.2016: Warnung bei alter CMS Version
- 22.01.2016: Benachrichtigung in Search Console
- 07.01.2015: Google App Indexing
- 05.01.2016: Robots.txt schneller indexieren
- 22.12.2015: Google Search Console News
- 10.12.2015: App Indexing Error Report
- 02.12.2015: Links in Search Console
- 24.11.2015: Suchanalysedaten wieder aktuell
- 19.11.2015: Suchanalysedaten fehlen
- 16.11.2015: Disavow File Limit
- 12.11.2015: Google Suchanalyse und Warnungen für SSL
- 11.11.2015: Google zeigt, wie wichtig geblockte Ressourcen sind
- 03.11.2015: Google Search Console News
- 28.10.2015: Search Console Update
- 28.10.2015: Links im Fließtext
- 27.10.2015: Google Search Console News
- 14.10.2015: Google Search Console News
- 13.10.2015: Snippet-Info in Search Console
- 15.09.2015: Nur noch Suchanalyse-Report möglich
- 04.09.2015: Grund für Schwankungen bei der Indexierung in Search Console
- 24.08.2015: Google Search Analytics API
- 05.08.2015: Die Suchanalyse API ist da!
- 04.08.2015: Google hat technische Probleme
- 29.07.2015: Search Console Warnungen für blockiertes JavaScript und CSS
- 15.07.2015: Search Console versendet weniger Nachrichten
- 13.07.2015: Google versendet hreflang Fehlermeldung über SearchConsole
- 20.05.2015: Google Search Console ersetzt Google Webmaster-Tools
- 06.05.2015: Webmaster-Tools Suchanalyse
- 07.01.2014: Google Webmaster Tools: Detailliertere Suchanfragendarstellung
- 12.12.2013: Google Webmaster Tools: Fehleranzeige für das Crawling von Smartphones
- 09.08.2013: Webmaster-Tools : Manuelle Maßnahmen (Penalty-Überprüfung)
- Hidden text and/or keyword stuffing
- Pure spam
- Thin content with little or no added value
- Unnatural links from your site
- Unnatural Links to site
- Unnatural Links to site – impacts links
24.05.2016: Search Console: Featured Snippets, Property Sets, Keywords
Google Search Console ist eines der wichtigsten Tools für Betreiber von Websites. Entsprechend haben sie viele Wünsche, was an diesem Tool noch verändert und verbessert werden kann – und manchmal erhört Google diese Wünsche und führt neue Dinge ein. Es werden jedoch auch immer wieder Features beendet.
Featured Snippets und Rich Results
Eine Sache, die von Webmasteers und SEOs immer wieder gefordert wurde, ist die Einführung von Daten für Featured Snippets und Rich Results. Denn es wäre für Seitenbetreiber doch schön, diese Daten auch einzeln herausgefiltert sehen zu können – und dies soll bald möglich sein.
Eine offizielle Ankündigung gibt es zu diesem Thema zwar noch nicht – doch Google hat sich verraten. In seinem Vortrag auf der I/O hat Richard Gingras eine Folie mit einem Screenshot aus Search Console gezeigt. Und dort waren im Drop Down Menü deutlich die Filter “Featured Snippets” und “Rich Results” zu erkennen.
Entsprechend ist momentan natürlich noch unklar, wann dieses Feature denn kommen wird – und auch, wie es im Endeffekt genau aussehen wird. Google hat jedoch schon mehrfach darauf hingewiesen, dass mit solchen Features experimentiert wird. Hoffen wir also, dass die aktuell offensichtlich laufenden Tests erfolgreich sein werden.
Property Sets
Google macht es künftig einfacher, Websites, mobile Seiten und Apps zu tracken. Denn bislang musste man die Daten für jede Property einzeln tracken. Doch damit ist es nun vorbei. Künftig können mehrere Datensätze in so genannten Property Sets zusammengefasst werden.
Dadurch wird es möglich, Seiten und Apps in einem einzelnen Report zusammenzufassen. So wird das Tracking vereinfacht und deutlich übersichtlicher gestaltet. Momentan ist dies jedoch nur für die Suchanalyse möglich. Weitere werden aber in Zukunft folgen. Dieses Feature wird in den nächsten Tagen global ausgerollt.
Content Keywords
Laut John Muellers Aussage im letzten Hangout vom Freitag wird ein anderes Feature in Zukunft hingegen nicht mehr verfügbar sein. Denn Google will die Content Keywords abschaffen. Der Hauptgrund dafür ist, dass diese Keywords viele Nutzer verwirren und zu falschen Schlüssen im Hinblick auf das Google Ranking führen.
Da Google seine Tools auch für nicht so erfahrene Webmaster immer (vergleichsweise) einfach halten möchte, soll dieses Feature also abgeschafft werden. Wer es weiter nutzen möchte, soll sich mit John in Verbindung setzen und ihm ein paar gute Gründe zur Beibehaltung der Content Keywords liefern.
13.05.2016: Ein Report für Search Console und Analytics
Die meisten Betreiber von Websites, die sich wirklich um die Performance ihrer Seite sorgen, werden sowohl Google Search Console als auch Google Analytics nutzen. Denn mit diesen beiden Tools sorgt der Suchmaschinenbetreiber dafür, dass Webmaster immer auf die zentralen Daten zugreifen können.
Und nun möchte Google für diejenigen, die beide Tools nutzen, den Zugriff auf diese relevanten Daten vereinfachen. So werden Webmaster künftig die Möglichkeit haben, die Metriken aus Search Console und aus Analytics in einem übersichtlichen Report zusammenzufassen.
Google verspricht sich durch diese Änderung, dass Webmaster künftig auf einen Blick sehen können, wie Nutzer zu ihrer Seite gelangt sind, was sie auf der Seite getan haben – und wie bzw. ob sie eine Conversion durchgeführt haben. Das dürfte eine große Zeitersparnis bedeuten, da man nicht mehr mehrere Reports gleichzeitig öffnen und vergleichen muss.
Dieses Feature wird in den kommenden Wochen international ausgerollt. Es kann also unter Umständen noch etwas dauern, bis auch ihr es für eure Websites voll und ganz nutzen könnt. Wenn ihr es seht, dann könnt ihr uns ja einmal im Forum oder in den Kommentaren erzählen, wie ihr es so findet.
12.05.2016: Neuigkeiten zu Search Console
Google Search Console ist eines der zentralen Tools für Webmaster und SEOs. Und hier hat Google nun einige Änderungen einfließen lassen, um die Datenerhebung noch genauer zu gestalten. Zunächst sollte sich für die meisten Seiten jedoch nicht viel ändern – aktuell gibt es in der Suchanalyse eh keine aktuellen Daten – denn diese hängt seit einer Woche fest.
Klicks und Impressionen
Wie John Mueller auf Google+ mitteilt, passt Google die Art und Weise an, wie Search Console Klicks und Impressionen misst und reportet. Daher könnten sich die Werte in der Suchanalyse für einige Seiten verändern. Zu groß sollte der Einfluss dieses Updates jedoch wie gesagt nicht sein.
So werden diese Zahlen bei Seiten, die mit einer App verbunden sind, nun speziell der App zugerechnet und nicht mehr der ganzen Website. Damit erleichtert Google die Möglichkeit, die Performance von Apps datengestützt zu hinterfragen und verhindert, dass nicht zusammenhängende Zahlen vermischt werden.
Darüber hinaus zählen Links, die in Knowledge Panels, in Rich Snippets und in den lokalen Ergebnissen angezeigt werden, nun auch als Impressionen. Wird eine URL mehrfach ausgespielt, zum Beispiel da es mehrere Filialen gibt oder sie auch in den organischen Ergebnissen steht, so zählt es als eine Impression.
Voice Search in Search Console
Im letzten Hangout brachte John zudem den Gedankenn ins Spiel, dass in Zukunft auch die Anfragen aus der Sprachsuche eine Rolle in Search Console spielen könnten. Hierbei soll es zum Beispiel vereinfacht werden, die Suchanfragen aus der getippten und der gesprochenen Suche gegenüber zu stellen.
Dies ist jedoch ein schweres Unterfangen, da sich die Art der Suchen sehr unterscheidet. In der Sprachsuche werden mehr Phrasen und ganze Sätze genutzt, während bei der herkömmlichen Suche vor allem Keywords eingegeben werden. Soweit die aktuellen Ideen. Genaue Pläne oder gar ein Zeitrahmen stehen hier allerdings noch nicht fest.
03.05.2016: Search Console: Neue URL und neuer Mobile Friendly Test
UPDATE 10.05.2016: Es ist online
Nun sind die unten stehenden Neuerungen auch in Deutschland live. Bei uns funktioniert der neue Test nun auch schon in Search Console. (https://search.google.com/search-console/mobile-friendly) Schaut es euch doch einmal an und teilt uns eure Meinung mit: Handelt es sich um eine Verbesserung – oder hat sich am Ende gar nicht so viel geändert?
Vor fast genau einem Jahr hat Google die Webmaster Tools in Search Console umbenannt. Bislang ist allerdings, abgesehen vom Namen, alles gleich geblieben – doch das ändert sich nun. Search Console bekommt nicht nur eine neue URL, sondern ein beliebtes Feature erhält darüber hinaus ein Update.
Neue URL
Nach überraschend langer Wartezeit ist Google nun scheinbar soweit, auch die URL an den neuen Namen des Tools anzupassen. Schon im Google Webmaster Hangout vom 02. Juniletzten Jahres sprach John Mueller über eine mögliche Änderung der URL im Zuge der Umbenennung:
Frage: Ändert ihr die URL für die Search Console, denn dort steht immer noch Webmaster Tools?
Antwort: Nein, damit wollen wir alle austricksen! Ernsthaft, wir haben viele Dinge auf unserer Liste, die wir noch ändern müssen. Und irgendwann werden wir vielleicht auch eure Hilfe anfordern, um alle Optimierungsfelder zu finden.
Es gab also intern so viel zu tun, dass es erst jetzt langsam so weit ist. Und es scheint, als gehe das Ganze mit einem weiteren großen Update einher. Vielleicht hat es also vor allem deshalb so lange gedauert, damit diese zweite Änderung ausführlich vorbereitet werden konnte.
Neuer Mobile Friendly Test
Denn Dan Shure ist die Änderung der URL nur deshalb aufgefallen, weil er den Mobile Friendly Test in Search Console nutzen wollte. Dieser ist mittlerweile bei vielen Nutzern unter der neuen URL zu finden. Bei den anderen steht dort noch: “Coming soon”. Das Ganze wird also langsam ausgerollt.
Denn damit nicht genug – der Mobile Friendly Test wurde darüber hinaus einem ausführlichen Update unterzogen. Sowohl optische als auch inhaltliche Dinge haben sich dabei verändert. Inhaltlich fällt vor allem auf, dass nun mehr Informationen im Hinblick auf die blockierten Ressourcen geliefert werden. Und so sieht der Test nun aus:
Auf Google+ hat sich nun auch John Mueller zu diesem Thema geäußert. Er teilt mit, dass momentan mit dem neuen Mobile Friendly Test experimentiert wird und dieser auf lange Sicht Teil der Search Console werden wird. Das neue Feature wird momentan langsam ausgerollt.
Im Zuge dessen will Google es auch weiterhin verbessern und anhand des Nutzerverhaltens sinnvolle Schlüsse ziehen. Es kann also gut sein, dass die aktuelle Version noch nicht das finale Produkt ist. Daher freut sich John über das Feedback der Nutzer bei Google+ oder in den Hilfeforen.
18.03.2016: Dynamische URLs in der Suchanalyse
Einer der wichtigsten Teile von Search Console ist die Suchanalyse. Diese wird von den meisten Seitenbetreibern (fast) täglich genutzt. Und hier war es bislang ein Grauen, den Monitoringzeitraum für URLs einzustellen.
Wollte man eine gewisse Anzahl der letzten Tage überwachen, musste man dies jeden Tag neu einstellen. Denn hatte man einmal einen Zeitraum angegeben, galt dieser vom Zeitpunkt der Einstellung und nicht vom Zeitpunkt des Abrufes.
Doch damit ist es nun vorbei. Laut Zineb Ait hat Google nun in diesem Bereich dynamische URLs eingeführt. Gibt man für eine URL einen Zeitraum – beispielsweise die letzten 7 Tage – an, so werden immer die letzten 7 Tage, gerechnet vom jeweiligen Abrufdatum, angesehen.
Dies war seit langer Zeit ein Wunsch zahlreicher Webmaster und SEOs, die nun täglich unzählige Klicks sparen dürften. Eine schöne Neuerung also, welche die Benutzerfreundlichkeit von Search Console deutlich erhöht.
03.03.2016: Suchanalyse verspätet
Vielen SEOs und Webmastern dürfte dies bereits aufgefallen sein: Die Daten in der Search Console Suchanalyse sind erneut nicht auf dem aktuellen Stand. Momentan sind sie am 23. Februar, also vor mehr als einer Woche stehen geblieben.
John Mueller hat sich nun dahingehend geäußert, dass es sich um einen Bug handele. Dieser sei Google intern bekannt und das entsprechende Team arbeite mit Hochdruck an einer Lösung. Es gebe jedoch noch keinen genauen Zeitplan.
Dies ist nicht das erste Mal, dass die Daten in der Suchanalyse einfach stehen bleiben – und auf Dauer wird das für Nutzer, deren Arbeitsinhalt diese Daten sind, wirklich lästig. Es steht zu hoffen, dass Google bald eine dauerhaft tragfähige Lösung für dieses Problem finden wird.
02.03.2016: Fetch as Google überarbeitet?
Im Google Hilfeforum berichteten einige Nutzer über Probleme mit der Abruf wie durch Google Funktion in Search Console. Denn dies gibt einen Fehlerstatus zurück, auch wenn keine offensichtlichen Fehler vorliegen.
John Mueller hat sich dem Problem angenommen und eine Lösung präsentiert, die sicher zahlreiche Webmaster interessieren dürfte. Denn es hängt mit JavaScript und CSS zusammen – es heißt also aufpassen, dass es nicht zu viele solcher internen Dateien gibt.
“Das Hauptproblem ist, dass auf der Seite einfach zu viele JavaScript und CSS Dateien genutzt werden. Wir müssen sie alle abrufen um die Seite rendern zu können. Und da sie alle auf demselben Host sind (auch wenn einer ‘cdn’ heißt, es ist dieselbe IP-Adresse), dann haben wir eine Zeitbeschränkung. Daher lassen wir einige von ihnen Fallen und können die Seite dann nicht richtig rendern (der Code kann nicht komplett laufen). Das sieht man beim Pagespeed Tool oder webpagetest.org.
[…] Ich würde empfehlen, die Probleme mit der hohen Anzahl an JavaScript und CSS anzugehen, auch unabhängig vom Redering. Das wird die Anzeige der Seite für Nutzer und Suchmaschinen deutlich verbessern.”25.02.2016: Neue Spam Warnungen
Google hat seine Spam-Nachrichten in Search Console umbenannt. Sie weisen nun darauf hin, dass es “große Spam Probleme” auf der entsprechenden Seite gibt. Der Rest der Nachricht ist (bisher) gleich geblieben.
Bei den Zielen und Inhalten der dahinter stehenden manuellen Abstrafungen gibt es also zunächst keine Änderungen. Die Umbenennung soll scheinbar einfach dazu dienen, das Problem für eher unerfahrene Webmaster etwas deutlicher zu machen.
25.02.2016: Search Console
Im Abschnitt “Data Anomalies” zeigt Google in Search Console an, wenn es im Reporting möglicherweise Probleme gegeben hat. Dieses Mal geht es um Daten für Apps, der Zeitraum ist auf den 05. – 08. Februar beziffert.
Laut John Mueller handelt es sich dabei um ein internes Update im Hinblick auf das Indexieren. Dieses könne dazu führen, dass einige Seiten unerwartete Änderungen in ihren Statistiken zu sehen bekommen.
23.02.2016: Fetch as Google Beschränkung
Mit Abruf wie durch Google ist es bekanntlich möglich, Seiten, auf denen man etwas geändert hat, an den Index zu schicken. Somit sollen diese schneller gecrawlt werden – doch hier gibt es nun eine Beschränkung.
Künftig darf man unter der Option “mehrere URLs” nur noch mit 10 URLs pro Monat auf diese Weise verfahren. Dies ist eine zumindest vorübergehende Maßnahme, da dieser Teil des Tools laut John Mueller immer wieder zu unerwünschten Zwecken genutzt wurde.
John weist zudem darauf hin, dass es in den meisten Fällen Sinn machen kann, die Änderungen einfach per Sitemap File an den Index zu schicken. Dies ist vor allem für Agenturen eine gute Alternative, da bei diesen das neue Limit schnell ausgereizt sein dürfte.
18.02.2016: Mehr Tage in der Suchanalyse?
Immer wieder kommt die Forderung an Google auf, die Daten in der Suchanalyse in Search Console doch bitte länger als 90 Tage zu speichern. Zwar kann man die Daten auf anderem Wege lange speichern, aber eine integrierte Möglichkeit wäre oft dennoch schön.
Nun hat Zineb Ait auf Twitter verlauten lassen, dass man bei Google über eine solche Option nachdenken würde. Allerdings sei im Moment kein dahin gehendes “großes Update” geplant.
Auf Grundlage dieser Diskussion hat sie zudem eine Twitter-Umfrage gestartet: Was würden Search Console Nutzer mit mehr Tagen voller Daten machen, wenn sie Zugriff auf diese hätten?
Dabei zeigt sich, dass fast alle Webmaster und SEOs gerne mehr Daten hätten – die Gründe dafür sind allerdings vielschichtig. Eure eigenen Gründe könnt ihr unter #moredataSAN auf englisch oder französisch mitteilen.
03.02.2016: Fetch as Google
Via Fetch as Google in Search Console kann man Seiten unmittelbar an den Index schicken. Dieses Tool wird daher oft genutzt, nachdem weitreichende Updates durchgeführt wurden.
Nun wird dieser Prozess jedoch etwas verlangsamt, da man künftig bei jeder Nutzung ein Captcha anklicken muss – um zu beweisen, dass man ein menschlicher Nutzer ist. Bisher war dies nur in unregelmäßigen Abständen der Fall.
02.02.2016: Reconsideration Request in welcher Sprache?
In welcher Sprache sollte man eine Reconsideration Request nach einer Manual Action gestalten? Gary Illyes hat bei Twitter eine ausführliche Diskussion zu diesem Thema losgetreten.
Denn er sagte, dass eine englischsprachige Reconsideration Request für eine Website, die nicht in englischer Sprache gehalten ist, “ein brillianter Weg ist, um sich selbst in den Fuß zu schießen.”
Auf Nachfrage stellte er dann klar, dass Google natürlich auch solche Requests verarbeiten kann. Aber es dauert länger, da sie intern erst zu jemandem, der die Sprache auf der Website versteht, weitergeleitet werden müssen.
Webmaster können sich also viel Mühe und Wartezeit ersparen, indem sie alle ihre Reconsideration Requests einfach in der Sprache schreiben, in der sich auch ihre Website präsentiert.
02.02.2016: Googlebot und Search Console
Ein Problem, das sich nicht wirklich lösen lässt, sind Bots, die so tun, als wären sie der Googlebot. Diese verursachen eine hohe Beanspruchung des Servers und sind daher oft lästig.
John Mueller wurde nun gefragt, ob die in Search Console angezeigten Crawling Fehler auch von diesen Bots stammen können. Dies ist jedoch nicht der Fall – alle Crawl Errors stammen vom Traffic durch Googlebot.
29.12.2016: Zwei News zu Search Console
Die Datenerhebung in Search Console sorgt bei Webmastern immer wieder für Verwirrung. In den letzten Tagen haben sich jedoch zwei Googler geäußert, um etwas Licht ins Dunkel zu bringen.
Langsame Datenerhebung
Immer wieder wird gefragt, warum die Daten in Search Console nicht in Echtzeit angeboten werden. Denn wenn Fehler behoben werden oder ein neues Feature wie AMP eingestellt wird, so wird das nicht sofort angezeigt.
John Mueller hat sich nun in einem ausführlichen Post zu diesem Thema geäußert. Er nennt für die Verzögerungen zwei Hauptgründe: Die Abhängigkeit der Report vom Crawling sowie die Crawlrate der einzelnen URLs.
Zum ersten Punkt bemerkt er, dass in Search Console der finale Stand der Daten gezeigt werden soll. Entsprechend dauert es etwas, manchmal bis zu einer Woche, bis die gecrawlten Daten fertig verarbeitet sind. Erst dann werden sie angezeigt.
Zum zweiten Punkt führt er aus, dass nicht alle URLs gleich oft gecrawlt werden. Manche werden täglich, andere nur alle paar Wochen vom Googlegot angesehen. Entsprechend kann es etwas dauern, bis die behobenen Fehler auch in Search Console verschwinden.
Zählen Featured Snippets?
Eine häufig gestellte Frage ist auch, ob Featured Snippets in den Statistiken Beachtung finden. Denn es ist bekannt, dass Links im Knowledge Graph nicht in die Statistiken aufgenommen werden.
Bei Featured Snippets verhält es sich laut Zineb Ait jedoch etwas anders. Sie werden in der Gesamtstatistik sehr wohl beachtet. Allerdings werden sie nicht einzeln gezählt – man kann also nicht herausfinden, welchen Anteil an den Daten sie ausmachen.
Webmaster können also auch nicht nachvollziehen, wie viele Impressionen und Klicks es für das Snippet selbst gibt. Sie fügte ihrem Statement jedoch ein “im Moment” hinzu. Dieses Vorgehen könnte sich also in Zukunft ändern.
27.01.2016: Warnung bei alter CMS Version
Search Console verschickt nun Warnungen an Webmaster, die alte Versionen ihres CMS benutzen. Bislang gibt es dieses Feature für WordPress und Joomla, ob noch weitere dazukommen sollen ist bislang nicht bekannt.
Google versteht diese Nachrichten nur als Hinweis, sie haben keinen Einfluss auf das Ranking der Seite. Da die Nachrichten mit einer gewissen Zeitverzögerung versendet werden, können sie unter Umständen auch schon nicht mehr aktuell sein.
22.01.2016: Benachrichtigung in Search Console
Nutzer von Google Search Console erhalten nun eine weitere sinnvolle Benachrichtigung. Diese weist darauf hin, wenn die Haupt-E-Mail-Adresse geändert wurde. Diese erhält alle Benachrichtigungen, daher macht ein entsprechender Hinweis sinn.
07.01.2015: Google App Indexing
Rückwirkend zum 11. Dezember 2015 hat Google die möglichen Fehlerarten in Search Console geändert. Kommt es zu Crawlfehlern beim App Indexing, so gibt es nun drei anstatt zwei Möglichkeiten.
Damit soll die Fehlerbehebung einfacher und übersichtlicher gestaltet werden. Die neue Kategorie heißt “Aus dem Index entfernt” und beinhaltet alle Apps, die aus technischen Gründen beseitigt wurden.
05.01.2016: Robots.txt schneller indexieren
Die robots.txt kann einer der wichtigsten Teile einer Website sein. Daher ist es für Webmaster von zentraler Bedeutung, dass diese von Google schnellstmöglich gelesen, anerkannt und befolgt wird.
Dies ist natürlich vor allem dann wichtig, wenn eine neue robots.txt erstellt oder eine bestehende geändert wird. Dann müssen die enthaltenen Informationen schnellstmöglich zu Google gelangen.
Schneller updaten
Meist wird die robots.txt einmal pro Tag von Google gelesen. Es gibt jedoch Situationen, da ist dies nicht genug – wie kann man dann dafür sorgen, dass Google schneller als gewöhnlich an die neuen Infos gelangt?
Diese Frage kam nun im Google Webmaster Help Forum auf. Und John Mueller hat sich dem Thema angenommen. Ganz ungeduldigen Webmastern empfiehlt er, dass robots.txt Test-Tool in der Search Console zu nutzen.
Dadurch sieht man, welche Version aktuell von Google verwendet wird. Ist es die Falsche, so kann man die neue Version als Update an Google weiterleiten – beziehungsweise Google wissen lassen, das es eine neue Version gibt. Hiermit sollte der Prozess etwas schneller gehen.
22.12.2015: Google Search Console News
Google hat mal wieder einige interessante Neuerungen in der Search Console zu verkünden. Diesmal geht es um Daten für den App Install Button sowie um eine neue Art, die Daten für eine Website darzustellen.
App Install Button
Im Search Analytics Report gibt es nun ein neues Feature: Search Appearance. Diese Funktion wurde gestern von Zineb Ait Bahajji auf Google+ vorgestellt und sollte Webmastern und SEOs, die über eine App verfügen, viel Freude bereiten.
Damit kann man nun sehen, welche Suchanfragen die Nutzer zum Install Button der eigenen App gebracht haben – und woher diese Nutzer kommen. Zudem kann man herausfinden, wie viele Leute auf den Install Button geklickt haben.
Nicht möglich ist es jedoch, zu sehen, wie viele Nutzer den Downloadprozess im Playstore auch wirklich abschließen. Doch trotz dieser Beschränkung liefert Search Appearance viele hilfreiche Daten über das Nutzerverhalten.
Daten in Search Console
Google hat außerdem im Data Anomalies Report mitgeteilt, dass die Search Log Analyse geändert wurde. Dies könne dazu führen, dass sich die Anzahl der Klicks und Impressionen erhöht.
Dies betrifft jedoch ausschließlich Websites und hat nichts mit dem zeitgleich veröffentlichten Search Appearances Feature zu tun. Entsprechend bestätigt Zineb Ait Bahajji, dass die Daten nun einfach anders protokolliert werden – dies kann dann zu den neuen Werten führen.
10.12.2015: App Indexing Error Report
Wer eine App hat, bekommt in Search Console nun zudem den App Indexing Fehlerreport angezeigt. Dieser wird auf der Seite zu Data Anomalies extra angezeigt und bietet damit eine Übersicht für Webmaster.
Es scheint jedoch so, als wäre das Feature noch nicht ganz ausgereift. Laut mehreren Stimmen bei Google ist der Konzern noch dabei, es so hinzubiegen, dass es Webmastern immer sofort weiterhilft. Wir sind gespannt, wie es dann schlußendlich aussehen wird – denn die Grundidee ist hilfreich und daher wirklich toll.
02.12.2015: Links in Search Console
John Mueller wurde bei Twitter gefragt, ob auch Links, die bereits disavowed wurden, weiterhin in Google Search Console angezeigt werden. Und die Antwort, die erfahrene Linkmanager nicht überraschen dürfte, ist JA.
Genauso wie Nofollow Links werden auch disavowte Links dauerhaft in Search Console angezeigt. Denn diese Attribute haben zwar einen Einfluss für Google – trotzdem sind die Links immer noch da und werden daher auch in den entsprechenden Listen genannt.
24.11.2015: Suchanalysedaten wieder aktuell
Ende der letzten Woche versprach Google in Person von Zineb Ait, dass die Suchanalysedaten bald wieder auf dem neuesten Stand sein sollten. Denn seit Anfang November gab es Probleme mit den Updates in Search Console.
Diese scheinen nun wie geplant behoben zu sein. Bei allen Webmastern sollten die Daten nun wieder so sein, wie sie normalerweise sind. Der aktuelle Stand ist dabei der 20. November, also der letzte Freitag.
Zineb Ait hat zudem bestätigt, dass die Fehler auf Google’s Seite behoben sind. Es steht zu hoffen, dass dieser Bugfix nun auch Bestand haben wird – denn letztes mal hat das Updaten für kurze Zeit funktioniert, nur um dann erneut auszufallen.
19.11.2015: Suchanalysedaten fehlen
Update: Daten ab Ende der Woche
Laut Zineb Ait sollen die Daten der Suchanalyse ab Ende dieser Woche wieder funktionieren. Das entsprechende Team arbeitet demnach fieberhaft ein einer Lösung für die nicht angezeigten Kennzahlen.
Suchanalysedaten werden nicht erneuert
Es scheint, als wären die Daten der Suchanalyse in Google Search Console seit dem 03. November nicht mehr geupdated worden. Seit einer Woche warten Webmaster nun also bereits auf neue Daten.
Dies passiert immer mal wieder – und laut John Mueller ist es “nur ein bisschen verspätet”. Es steht also zu hoffen, dass Google das Problem identifiziert hat und es bald lösen wird.
16.11.2015: Disavow File Limit
Es kommt nicht oft vor, daher ist es nicht so bekannt – aber manchmal erreichen Webmaster tatsächlich das Limit des Disavow Files in Google Search Console. Es können nämlich nicht unendlich viele Links eingetragen werden.
Die Begrenzung liegt bei 100.000 Linien oder 2 Mb. Dies antwortete John Mueller auf eineFrage im Hilfeforum. Man muss also auspassen, nicht unendlich viele Links auf einmal disavowen zu wollen.
12.11.2015: Google Suchanalyse und Warnungen für SSL
Google ist dabei, Bugs zu beheben. Dies gilt sowohl für interne Fehler als auch für Probleme auf Seiten der Webmaster.
Daten der Suchanalyse updaten wieder
Wir berichteten, dass die Daten der Suchanalyse in Google Search Console seit Anfang des Monats nicht mehr geupdated wurden. Dies war ein wachsendes Problem für viele Webmaster, und noch gestern versicherte Gary Illyes, dass Google an einer Lösung arbeiten würde.
Und seit einigen Stunden ist nun tatsächlich Besserung in Sicht. Langsam aber sicher werden immer neue Daten eingespielt. Zwar hängen diese immer noch etwa eine Woche zurück, aber wir können davon ausgehen, dass sie schrittweise aufholen werden – es steht nur zu hoffen, dass keine Daten verloren gegangen sind.
Fehlerhafte SSL/TLS Zertifikate
Zudem verschickt Search Console nun Warnungen an Webmaster, wenn ihr SSL/TLS Zertifikat nicht voll funktionstüchtig ist. Ein Beispiel ist, wenn das genutzte Zertifikat nicht mit der Domain übereinstimmt.
Laut Zineb Ait werden solche Warnungen auch für Zertifikate verschickt, die abgelaufen oder ungültig sind, ein falsches Datum oder nicht korrekte Einstellungen aufweisen. Dies sind jedoch nur einige Beispiele dieser hilfreichen Neuerung.
11.11.2015: Google zeigt, wie wichtig geblockte Ressourcen sind
John Mueller hat eine tolle Neuerung in Google Search Console, genauer im Fetch as Google Tool, bekannt gegeben. Denn nun erhalten Webmaster zusätzliche Informationen.
Geblockte Ressourcen werden gewichtet
Auf jeder Webseite gibt es ein paar Ressourcen, die blockiert werden. Webmaster fragen sich dann oft, ob sie diese für den Googlebot freigeben sollten – oder ob sie nicht so wichtig sind. Schon vor kurzem hat Google einen Warnhinweis verschickt, wenn JavaScript oder CSS blockiert sind.
Nutzt man das Fetch as Google Tool in Search Console, werden diese blockierten Ressourcen angezeigt. Nun wird zudem automatisch eine Gewichtung angegeben, die verrät, wie schlimm das Blockieren der entsprechenden Ressourcen für Google ist. Somit weiß man auf einen Blick, ob man die entsprechenden Dinge blockiert lassen kann – oder ob man sie besser freigeben sollte.
Damit hilft Google den Webmastern ungemein. Es steht also zu hoffen, dass die angezeigten Gewichtungen akkurate Angaben sind. Denn dann sollte dieses neue Feature dafür sorgen, dass es künftig deutlich weniger Fragen und Probleme mit blockierten Ressourcen geben wird.
03.11.2015: Google Search Console News
In den letzten Tagen hat sich, auch dank der SMX Israel, einiges im Hinblick auf Google Search Console getan. Hier haben wir alle relevanten Neuigkeiten für euch zusammengetragen.
Profile zusammenfügen
Google plant womöglich, das Zusammenführen von Profilen in Search Console einfach zu gestalten. Damit soll es möglich werden, die Einheiten für http, HTTPS, www., ohne www. und für Apps in einem übersichtlichen Bildschirm zu sehen.
Es ist zwar noch nicht 100%ig sicher, dass dieses Feature kommen wird – aber es wird oft gewünscht. Wenn es also live gehen sollte, dürfte es das Arbeiten für zahlreiche Webmaster und SEOs massiv vereinfachen.
Welches Feature wird gewünscht?
Die Vorstellung dieses möglichen Features war Teil der Präsentation von Michael Fink bei der SMX. In seinem Vortrag ließ er zudem die Anwesenden abstimmen, welche andere Neuerung sie gerne hätten.
Die Möglichkeiten reichten von Daten für ein Jahr über eine Search Console App bis hin zu Alerts wenn das Ranking abrutscht. Aus diesen entschieden sich die meisten Zuhörer vor Ort für die Alerts. Da Google immer mal wieder auf seine Nutzer hört, könnte es gut sein, dass dies in Zukunft eingeführt wird.
Fehler behoben
Zudem hat Google einen Fehler behoben. Es gab das Problem, dass in der Bildersuche weniger Daten zu Klicks und Impressionen angezeigt wurden. Laut Search Console gehört dies nun der Vergangenheit an.
28.10.2015: Search Console Update
Im Webmaster Forum fragte sich ein Nutzer, warum seine Daten zur App Indexierung in Search Console seit dem 09. September nicht mehr gecrawlt wurden. John Mueller nahm sich der Sache direkt an.
Er sagt, dass die Daten im Moment “aufgemotzt” werden. Das Team ist also damit beschäftigt, den Fehler zu beheben und die Reports allgemein zu verbessern. Bis dahin empfiehlt er das Fetch as Google Tool.
28.10.2015: Links im Fließtext
Ein Nutzer auf Twitter wunderte sich, dass ihm nicht verlinkte URLs aus Fließtexten als neueste Links in Search Console angezeigt wurden. Er fragte daher, ob diese wie gewohnt disavowed werden müssen.
Laut John Mueller’s Antwort ist das nicht nötig. Denn Google kann zwar mittlerweile auch solche Links erkennen, diese geben aber keinen PageRank weiter. Man muss sich aus SEO-Sicht also nicht großartig mit ihnen beschäftigen – fraglich ist nur, ob Google dauerhaft bei dieser Einstellung bleiben wird.
27.10.2015: Google Search Console News
Eines der wichtigsten Tools für Webmaster und SEOs ist Google Search Console. Da sich hier in den letzten Stunden einiges getan hat, wollen wir euch auf den neuesten Stand der Dinge bringen.
Alte Nachrichten sichtbar
Bisher war es so: Wenn man als neuer Nutzer für einen Account verifiziert wurde, konnte man nur die Nachrichten sehen, die ab diesem Zeitpunkt eingegangen sind. Doch Google hat dies scheinbar geändert.
Nun ist es möglich, auch alte Nachrichten einzusehen. Dies wäre für viele Nutzer eine tolle Neuerung- denn wer einen Kunden neu übernimmt, kann sich so ein Bild von der Vergangenheit (und den eventuellen Problemen) machen, das so vorher nicht möglich gewesen wäre.
404 statt Reports
Gestern zeigte Search Console in vielen Ländern an Stelle der Berichte zahllose 404-Fehler an. Dies konnte zwar behoben werden, indem man die Seite neu geladen hat, war aber dennoch äußerst ärgerlich.
Bei Twitter hat Gary Illyes jedoch verkündet, dass dieses Problem nun behoben sein sollte. Es ist schön zu sehen, wenn Google technische Fehler schnell erkennt und sich um eine Lösung kümmert.
14.10.2015: Google Search Console News
Google’s Search Console ist eines der wichtigsten Tools für SEOs und Webseitenbetreiber. Nun gibt es einige Neuigkeiten sowie die Möglichkeit, selbst aktiv zu werden.
Update der Data Anomalies Seite
Bisher gab es auf dieser Seite nur einen Report – das Ganze wurde nun ausführlicher aufgesplittet. Neben dem bekannten Search Analytics Report gibt es nun auch einen Mobile Usability Report, einen Blocked Resources Report und einen International Targeting Report.
Damit können Fehler besser einem bestimmten Bereich zugeordnet werden. Wir dürfen gespannt sein, ob und in welcher Form künftig noch weitere Unterpunkte hinzugefügt werden, um die Arbeit von Webmastern zusätzlich zu erleichtern.
Umfrage von John Mueller
John Mueller hat eine kleine Umfrage gestartet, in der er gerne die Gedanken von Webmastern und SEOs bezüglich des Search Console Content Features Tools sammeln würde.
So möchte er wissen, wie das Tool im Allgemeinen genutzt wird – und wie es von den Nutzern definiert wird. Eine gute Chance also, ein bisschen an der zukünftigen Ausrichtung mitzuhelfen.
Disavow nach Umstellung auf HTTPS
Bei Twitter wurde Gary Illyes gefragt, ob man ein bereits anerkanntes Disavow File nach der Umstellung auf HTTPS erneut in Search Console einreichen muss. Nach Rücksprache mit dem Team konnte er eine klare Antwort geben.
Nachdem eine Seite auf HTTPS umgestellt wurde, muss man das Disavow File noch einmal hochladen – dann allerdings in dem HTTPS Profil der entsprechenden Seite. Wird dies nicht getan, kommt vielleicht ein bereits besiegter Penguin wieder zurück.
13.10.2015: Snippet-Info in Search Console
Laut einer Aussage von Gary Illyes plant Google weiterhin, Informationen zu den Rich Snippets zu Google Search Console hinzuzufügen. Damit könnten Webmaster sehen, wann und zu welchen Suchanfragen welche Snippets ausgespielt werden.
Eine solche Einführung wäre also zu begrüßen, um die häufige Verwirrung auf diesem Gebiet einzudämmen. Wann es jedoch so weit sein, wird, kann Gary noch nicht sagen – es wird wohl noch “einige Quartale” dauern.
15.09.2015: Nur noch Suchanalyse-Report möglich
Ab morgen, Mittwoch den 16. September, schaltet Google den Zugang zum alten Search Queries Report (Suchanfragen-Report) endgültig ab. Alle entsprechenden Links werden dann auf den neuen Search Analytics Report (Suchanalysen-Report) verweisen.
Es wird also nicht mehr möglich sein, wie bisher mit einem Trick auf den alten Report zuzugreifen. Wie Zineb Ait Bahajji im Namen von Google mitteilt, findet dieser Schritt etwa vier Monate nach der Einführung des neuen Reports statt und ist endgültig:
UPDATE: Nutzen und Grenzen der Rankingdaten
Die neue Search Console API hat einige neue Möglichkeiten mit sich gebracht. Johannes Beuszeigt bei SISTRIX, wie die neuen Daten zu Stande kommen und wo die Grenzen der neuen API liegen. EIne hilfreiche Übersicht zum Status Quo bei Google Search Console.
04.09.2015: Grund für Schwankungen bei der Indexierung in Search Console
Vor einigen Tagen sahen zahlreiche Webmaster einen Abfall der indexierten Seiten in Search Console. Was zunächst nach einem Bug aussah, sorgt nun für längerfristige Verwirrung.
Geplante Änderung, aber trotzdem wieder zurückgenommen?
Denn Barry Schwartz nahm Kontakt zu Google auf. Ihm wurde mitgeteilt, dass es sich nicht um einen Bug, sondern um geplantes Verhalten handle. Als Grund wurde angegeben, dass “diese Änderung eine akkuratere Schätzung der von Google indexierten Seiten darstellt.”
Bevor Barry jedoch darüber schreiben konnte – und um die Verwirrung komplett zu machen – sind die Zahlen nun wieder zum Originalniveau zurückgekehrt. Innerhalb von 2 Wochen sind die Zahlen also vollkommen unerwartet hin und her gesprungen, was eher den Schluss nahe legt, dass es vielleicht doch ein Bug war.
Möglich ist allerdings auch, dass Google intern gemerkt hat, dass die Änderung vielleicht wenig zielführend war – und sie daher wieder zurückgenommen hat. Wir sind gespannt, wann in dieser Angelegenheit etwas Licht ins Dunkel kommen wird. Barry Schwartz wartet momentan auf eine Antwort durch seine Quellen.
UPDATE: Bug und Änderung
Im letzten Webmaster Hangout hat John Mueller bestätigt, dass es sich bei diesem Phänomen sowohl um einen Bug als auch um ein gewolltes Update handelt. Hier seine Aussage im übersetzten Wortlaut:
“Ich glaube das war nur eine normale Datenpanne. Mit den Zählungen ist etwas durcheinander gekommen und wir das dann so in Search Console abgebildet haben.
Ich glaube das Problem dabei ist das Timing, da wir diese komische Datenpanne hatten, die wir erst hinterher festgestellt haben. Und ungefähr zur selben Zeit haben wir auch angepasst, was wir grundsätzlich anzeigen. Es sah also so aus, als wären einige dieser Dinge wegen unserer Änderungen passiert (was wir dann auch so kommuniziert haben), aber zur selben Zeit gab es halt diese Panne in den Reports. Es ist also zu einem gewissen Grad Zufall gewesen, beide Aussagen (Bug und Update) waren korrekt.”
24.08.2015: Google Search Analytics API
Johannes Kunze von takevalue hat einen sehr informationen Beitrag zur SC API veröffentlicht.
Über die Suchanalyse hatten auch wir bereits geschrieben, durch die Einführung der API erhält man aber komplett neue Möglichkeiten.
Folgende Inhalte werden von Johannes bearbeitet:
Insgesamt zeigt der Blogbeitrag sehr gut auf, wieso man täglich mit der API arbeiten sollte. Jens Fauldrath hatte mich in seinem Podcast darauf aufmerksam gemacht, da sie dort auch noch einmal darauf eingehen. So z. B., dass die API z.B. nur 5000 Zeilen unterstützt.
Insgesamt ein sau geiler Beitrag!
05.08.2015: Die Suchanalyse API ist da!
Nach dem Feedback zur Suchanalyse hat Google nun seit heute die Suchanalyse API veröffentlicht. (Hier gehts zum Code)
Google erklärt den Umgang mit der API und benennt folgende Beispiele:
- Verify the presence of data (what’s the most recent date you can request?)
- Top 10 queries by click count
- Top 10 pages
- Top 10 queries in India
- Top 10 mobile queries in India
Als Anlaufstelle für Fragen zur API ist das Webmaster Hilfe Forum genannt.
Es wird spannend sein welche Möglichkeiten sich mit der API noch weiterhin auftun und auch ob diese ggf. noch erweitert wird.
Update:
Die ersten Scripte werden vorgestellt. Hier ist ein Script was eure Daten runterläd und in einer Datenbank dann auch länger als drei Monate speichert.
04.08.2015: Google hat technische Probleme
Bei zahlreichen Webmastern ist ein Fehler in Google Search Console aufgetreten. Die Reporting-Daten für Dienstag, den 28. Juli, fehlen. Gary Illyes hat bestätigt, dass das Problem bei Google liegt. Zudem kündigt er an, dass das entsprechende Team an einer Lösung arbeitet. Man darf gespannt sein, wann die Daten dieses Tages einsehbar sein werden.
29.07.2015: Search Console Warnungen für blockiertes JavaScript und CSS
Seit gestern versendet Google Search Console eine Warnung an zahlreiche Webmaster:
„Googlebot kann aufgrund von Beschränkungen in Ihrer robots.txt-Datei nicht auf Ihre JavaScript- und/oder CSS-Dateien zugreifen. Anhand dieser Dateien kann Google feststellen, ob Ihre Seite ordnungsgemäß funktioniert. Wenn Sie den Zugriff auf diese Dateien blockieren, kann dies zu schlechteren Rankings führen.“
Es scheint, als hätten viele Webmaster, die Content Management Systeme wie WordPress oder Joomla nutzen, diese Warnung erhalten. Der Grund ist, dass diese Systeme standardmäßig den include folder blockieren, welcher JavaScript und CSS beinhaltet.
JavaScript und CSS sollten nicht blockiert werden
Diese Nachricht hat die Webmaster-Community wenig überraschend in Aufruhr versetzt. Sie scheint auf dem Update der Google Webmaster Richtlinien aus dem vergangenen Oktober zu beruhen, wo ähnliche Konsequenzen angedeutet wurden. Der Grund ist, dass Google dieselbe Seite sehen möchte wie der Nutzer – daher rät der Konzern vom Blockieren der entsprechenden Inhalte ab.
Sie helfen der Suchmaschine
Zudem hat sich John Mueller bei Google+ geäußert, um weiteres Licht in diese Angelegenheit zu bringen. Laut seiner Aussage war es früher sinnvoll, JavaScript und CSS zu blockieren. Heutzutage mache es jedoch keinen Sinn mehr, da die Suchmaschinen mittlerweile schlau genug seien, diese richtig einzuschätzen. Im Gegenteil helfe es der Suchmaschine ungemein, Zugang zu diesen Dateien zu erhalten.
Dadurch wäre es einfacher, das Wesen der Webseite zu verstehen. Die Mobiltauglichkeit könne ebenso erforscht werden wie sämtliche Inhalte – daher sei das Sperren dieser Inhalte ein großes Problem für Google und Co.. John empfiehlt daher, Search Console und das Mobiltool zu nutzen, um blockierte Inhalte auf der eigenen Seite herauszufiltern und freizugeben.
Insgesamt fast 19% aller Websites erhielten diese Warnung?
Es schien zunächst so, als wären zahllose Webmaster betroffen. Gary Illyes hat nun eine ungefähre Anzahl an Nachrichtenempfängern genannt: 18,7% von denen, die vor einigen Monaten die entsprechende Warnung wegen des Mobilupdates erhielten. Damals wurden die Nachrichten in Wellen verschickt, diesmal alle auf einmal. Daher sieht es nach mehr aus – auch wenn man bedenken muss, dass knapp 19% der großen Zahl an Leuten, die damals die Mobilwarnung erhielten, noch immer eine beachtliche Menge darstellt.
Um das Problem zu beheben, müssen JavaScript und CSS für den Googlebot freigegeben werden. Laut Gary Illyes ist der einfachste Weg, folgendes in der roots.txt zu vermerken:
User-Agent: Googlebot
Allow: .js
Allow: .css
Ausführlicher steht es hier. Ob sich dadurch Sicherheitsprobleme auftun haben wir ebenfalls beantwortet.
15.07.2015: Search Console versendet weniger Nachrichten
Gary Illyes hat auf Google+ angekündigt, dass die Versendungsarten von Nachrichten in Search Console in wenigen Wochen geändert werden.
Künftig werden Nachrichten nur noch an die direkten Besitzer einer Seite versendet, die Besitzer der Überseiten erhalten keine Nachrichten mehr. Gary veranschaulicht dies mit folgendem Beispiel:
Wenn bisher die Seite https://example.com/dont/panic/have/a/towel eine Nachricht erhielt, haben zusätzlich diese Seiten die Nachricht erhalten:
https://example.com/dont/panic/have/a
https://example.com/dont/panic/have
https://example.com/dont/panic
https://example.com/dont
https://example.com
Zukünftig wird nur noch die Seite https://example.com/dont/panic/have/a/towel selbst die entsprechende Nachricht erhalten. Ziel ist es, die Anzahl an Mails in den Posteingängen der Webmaster zu reduzieren. Ausnehmend wichtige Nachrichten, wie beispielsweise Hackerwarnungen, können jedoch weiterhin an alle Seiten geschickt werden.
13.07.2015: Google versendet hreflang Fehlermeldung über SearchConsole
Am heutigen Tage hat Google über die Google Webmaster SearchConsole einige Nachrichten an Webmaster verschickt, welche eine fehlerhafte hreflang Implementierung haben.
Barry Schwartz fragt bei Gary Illyes diesbezüglich auch nochmal nach.
Webmaster welche mehrere Sprachen auf einer Webseite anbieten und den hrflang Tag nutzen sollten in der Search Console einmal vorbeischauen und nachsehen ob eine Nachricht von Google im Briefkasten ist.
Gute Anleitungen zum Thema hreflang Tag richtig nutzen findet ihr auf
Sistrix: http://www.sistrix.de/hreflang-guide/ und bei Google selber https://support.google.com/webmasters/answer/189077?hl=de
Bei Fragen wendet euch auch gerne an uns, entweder hier oder im Forum.
20.05.2015: Google Search Console ersetzt Google Webmaster-Tools
Google hat heute bekannt gegeben, dass sich die Google Webmaster-Tools ab sofort Google Search Console nennen. Einhergehen damit sollen Änderungen, die den Anforderungen der verschiedenen Webmaster (Hobby-Webmaster, Kleinunternehmern, SEO Experten, Marketing Experten, Programmierern, usw.) entgegen kommen sollen.
Bis auf die Namensänderung konnten wir bisher keine weiteren Änderungen feststellen. Es ist zu vermuten, dass diese in den kommenden Tagen und Wochen durch Google umgesetzt werden. Man darf gespannt sein, wie nützlich die Umgestaltung letztendlich ist.
06.05.2015: Webmaster-Tools Suchanalyse
Die Google Webmastertools (WMT) verfügen ab sofort über die Suchanalyse. Die Suchanalyse löst die alte Suchanfrage ab und bietet eine sehr genaue Übersicht über die Auffindbarkeit (Positionen), die Menge an angezeigten Sucheinträgen (Impressionen) und die Anzahl der Klicks auf eben diese.
Damit gibt uns Google nun eine kostenlose Möglichkeit zu analysieren, wie es um die eigene Domain steht. Google zeigt sogar Updates an, aber gehen wir der Reihe nach vor.
Die Suchanalyse
Nachdem man sich wie gewöhnlich in die Google Webmaster Tools eingeloggt hat, sieht man sofort die erste Statistik der Suchanalyse auf der Startseite im Dashboard. Nun können wir direkt auf das Bild klicken oder über das linke Menü auf den Reiter Suchanfragen – > Suchanalysegehen. Es erscheint die derzeitige Beta Seite der Suchanalyse. Wer Keywordmonitoring oder andere SEO-Tools kennt, wird sich sofort zu Hause fühlen und nur wenig bis keine Zeit zur Einarbeitung benötigen.
Zeile 1 der Suchanalyse
In der ersten Zeile haben wir nun die Möglichkeit unsere Suchanalyse zu konkretisieren.
Hier müssen wir auswählen was wir in der Suchanalyse der WMT angezeigt (Mehrfachauswahl ist möglich) bekommen möchten.
Klicks:
Hier wird die Anzahl der Klicks innerhalb des Zeitraumes, der in der zweiten Spalte ausgewählt wird, angezeigt.
Impressionen:
Wie oft meine Website insgesamt angezeigt wurde: Wie viele Suchanfragen gab es und wo wurde dem Suchenden die Website angezeigt?
Klickrate:
Wie viele Klicks auf die Impressionen in Prozent.
Position:
Für viele sicherlich ein Highlight und ja, hier ist die organische Position gemeint. Derzeit wird diese bis heute – 3 Tage angezeigt.
Zeile 2 der Suchanalyse
In der zweiten Zeile der Suchanalyse können wir weitere Filter setzen bzw. bestimmt diese Zeile, was wir mit der Auswahl aus Zeile 1 angezeigt bekommen.
Suchanfragen:
Hier sind die Suchphrasen, also die echten Suchanfragen, vorhanden. Dass was die Suchenden bei Google eingeben und worüber Sie von Google auf Eure Website gekommen sind.
Hier mal ein Beispiel von unserem Forum Ayom. Man sieht das wir in 30 Tagen 32.100 Klicks über Google generiert haben. Ich habe einen Haken beiKlicks gesetzt und die Auswahl aufSuchanfragen gestellt. Nun kann ich sehen, welche meine besten Keywörter sind. Das Ayom auf Platz 1 steht ist noch verständlich, dass aber CSS Zeilenabstand auf Platz 2 steht ist dann doch eine neue Information, die wir nun dank der neuen Suchanalyse haben.
Unter Filter können wir dann die Abfragen auch vergleichen und auch nach Keywörtern filtern usw..
Seiten:
Hier werden nun die direkten Unterseiten angezeigt, bezogen auf die Auswahl in der ersten Zeile der Suchanalyse. Lasse ich den Haken also bei Klicks, werden mir nun die Unterseiten mit den Klicks angezeigt, wobei es runter geht bis zu 5 Klicks. Dies ist insofern interessant, da man hier genau erkennen kann, welche Unterseiten mehrere Rankings haben. Wir erinnern uns, das Ayom mit 303 Klicks auf Platz 1 steht (oberes Bild). Unter Seiten ist aber topic-1116.html auf Platz 1 mit 1202 Klicks. Inhalt dieses Beitrages ist der CSS Zeilenabstand. Die Keywörter Rund um dieses Thema sind also so gut und vielfach, dass wir hier 1202 monatliche Klicks generieren.
Es ist auch möglich sich nun genau anzeigen zu lassen, welche Rankings auf die entsprechende Unterseite gehen. Dazu wählt man im Filter nach Seiten Filtern und dannist gleich aus und gibt entsprechende URL ein. Dann oben wieder auf Suchanfrage klicken und schon seht ihr die Rankings nur für die Unterseite.
Diese Informationen sind so bisher nur über Keywordtools und Google Analytics möglich gewesen und in dieser Einfachheit einfach eine Bereicherung und fließen mit Sicherheit ab sofort auch bei Euch mit in die regelmäßige Auswertung ein.
Länder:
Unter dem Punkt Länder sieht man genau das, was Du nun vermutest. Die Länder zur Auswahl oben. Also wie viele Klicks auf die Länder verteilt sind. Wie viele Impressionen, Klickraten und welche durchschnittlichen Positionen. Die letzten beiden Punkte sind aber mit Vorsicht zu genießen. So habe ich eine 100 % Klickrate und Platz 1 Positionierung in Grönland. Jetzt darf man natürlich nicht davon ausgehen, dass dies mit allen Keywords ist, würde ja auch keinen Sinn ergeben. Nein, wir werden dort mit irgendeinem Keyword (welches kann man in der Suchanalyse nicht sehen, bzw. hab ich es nicht gefunden, wenn doch, bitte gerne in den Kommentaren posten) angezeigt und dies scheint ein absolutes Nischenkeyword mit niedrigem Suchvolumen zu sein.
Dennoch sind auch diese Daten recht interessant, da man dieses sonst so nur in Analytics verfolgen konnte.
Geräte (Mobil Update Test):
Unter Geräte finden wir die Aufteilung zwischen Desktop – Tablet und Mobil der ausgewählten Suchanalyse aus der ersten Zeile.
Wenn man also seine mobilen Rankings und deren Verlauf gerade wegen dem Update sehen will, wählt man dieses hier aus. Dazu nutzt man den Filter und stellt auf mobil. Nun muss man aber wieder auf Suchanfragen klicken! Ich habe dann dazu noch die Positionen genommen, um im durchschnittlichen Verlauf zu schauen, ob das Update für uns positiv oder negativ war.
Ich sehe also das mit 3.900 Klicks nur etwa 12 % der Suchanfragen mobil kommen. Das ist nicht wirklich viel. Am Tag des Updates, welches wir ja in der Grafik eingezeichnet sehen, waren wir bei Position 11,5 und sind am 3.5 bei 9,1. Obwohl wir also nicht mobil optimiert sind, haben wir vom Update profitiert. Ob man im Durchschnitt also Plätze gut gemacht oder verloren hat, kann man hier mit ein paar einfachen und oben beschriebenen Einstellungen in der Suchanalyse der Webmaster Tools wunderbar einsehen.
Suchtyp:
Über den Filter kann man derzeit nach Web – Bild – Video suchen. Wer also viele eigene Videos oder Bilder auf der Seite hat, kann hier z. B. sehr genau die Suchanalyse und Suchabfragen einsehen.
Edit: Anscheinend ist es für die Bildersuche wohl derzeit so noch nicht zu gebrauchen: https://schnurpsel.de/neue-google-suchanalyse-fuer-bildersuche-in-de-unbrauchbar-2101/
Zeiträume:
Hier stellt man den Zeiraum ein, welchen man sich anschauen oder vergleichen möchte. (Ähnlich Google Analytics) In der Auswahl kann man bis zum 3.2.2015 zurück gehen, vorherige Daten sind nicht erfasst. Zwei Updates werden angezeigt: (https://support.google.com/webmasters/answer/6211453#search_analytics)
Fazit zur Suchanalyse der Google Webmaster Tools
Seitdem in Google Analytics die not provided Keywordanzeige eingeführt wurde, war es sehr schwer möglich zu erfahren, woher nun genau der Traffic aus der organischen Suche kommt. Auch wenn Google selber sagt, dass nicht alle Daten zu 100 % stimmen und teilweise aus Gründen des Datenschutzes etc. Abfragen rausfallen, so äußert sich Google schon in dem Umfang, dass sie sagen, sie haben auf die Community und die geäußerten Wünsche gehört. Und wie sie das haben. Ich bin begeistert, verliebt und die ganze Zeit am spielen und probieren. Wenn das erst die Beta ist, dann weiß ich nicht, was noch kommen soll. Endlich habe ich die Möglichkeit meine Strategien im Online-Marketing, insbesondere der Suchmaschinenoptimierung, anhand von festen Zahlen neben denen von Google Analytics auszuwerten.
Viel wichtiger ist aber, dass ich sehe, ob mich Updates positiv oder negativ erwischen und nicht nur anhand von Sichtbarkeitsindexen. Ich sehe es sofort an den Klickzahlen und habe einen durchschnittlichen Positionswert. Diesen werden viele unterschätzen, aber für eine Einschätzung der Lage taugt er sehr gut denke ich. Natürlich muss das ganze nun auf Herz und Nieren getestet werden, aber ich finde die Suchanalyse einfach Spitze. Dazu noch kostenlos. Wenn nun die Daten auch noch Tagesaktuell werden ohne ein drei Tages Delay, bin ich glücklich.
Was sagt Ihr zur Suchanalyse? Gut, schlecht? Einfach zu bedienen und werdet ihr regelmäßig damit arbeiten?
Offizieller Blogbeitrag von Google zur Suchanalyse: http://googlewebmastercentral-de.blogspot.de/2015/05/prazisere-daten-im-neuen-suchanalyse.html
Wer weitere Hilfe bei den Einstellungen braucht, oder wissen möchte was einzelne begriffe genau bedeuten kann dies auch hier einsehen: https://support.google.com/webmasters/answer/6155685?hl=de
07.01.2014: Google Webmaster Tools: Detailliertere Suchanfragendarstellung
Google gab heute über den Google Webmaster Central Blog bekannt, dass Suchanfragen in den Google Webmaster Tools zukünftig detaillierter dargestellt werden. Noch ist dies nicht für alle Nutzer sichtbar, dies soll sich aber im Laufe der nächsten Tage ändern.
Das Suchanfragen-Feature zeigt an, wie viele Suchen mindestens eine Seite einer Website in den Suchergebnissen von Google angezeigt wurden. Dort werden diese Impressionen gesammelt und mit der Anzahl der Klicks kombiniert. Das Feature zeigt dies für 90 Tage rückwirkend an.
Ein Screenshot zeigt den Unterschied der alten Anzeige und der neueren, detaillierteren Darstellung:
Google hofft, dass die detailliertere Darstellung Webmastern dabei hilft, zu analysieren mit Hilfe welcher Suchanfragen User die Website finden und wann sie das Suchergebnis anklicken.
12.12.2013: Google Webmaster Tools: Fehleranzeige für das Crawling von Smartphones
Wie Google im Google Webmaster Blog bekannt gab, gibt es ab sofort eine neue Funktion in den Google Webmaster Tools: Die Anzeige von Crawling Fehlern bei mobil optimierten Websiten.
Abrufbar ist diese Fehleranzeige in den Webmaster Tools via “Crawling”. Dort befindet sich nun ein neuer Tab, wo die Fehlermeldungen für das Crawling der für die mobile Nutzung optimierten Seiten angezeigt werden:
Fehler, die angezeigt werden, sind:
- Serverfehler,
- Fehler „Nicht gefunden“,
- Soft 404-Fehler,
- fehlerhafte Weiterleitungen und blockierte URLs.
09.08.2013: Webmaster-Tools : Manuelle Maßnahmen (Penalty-Überprüfung)
Heute Nacht informierte Google in seinem Blog die Leser, dass es ab sofort in den Webmaster Tools einen Bereich gibt, in dem Webmaster sofort sehen, ob ein Penalty vorliegt. Eine Anfrage entfällt damit ab sofort.
Auch wurde der Bereich aufgeteilt in Maßnahmen, die ganze Webseite betreffen, und nur einen Teilbereich. Diese Information ist insoweit neu, da sie bisher nur anhand des Abfalls zu erkennen war. Google selbst äußerte sich ja auch in seinen Nachrichten bisher nicht dazu.
In einem Beispiel, welches wir herausgesucht haben, werden leider keine Beispiel-Links gepostet, wie es Google ja hier angekündigt hat. Dennoch ist die Neuerung sehr gut, um schnell einen Überblick zu bekommen. Auch nach einem Antrag sieht man hier, ob ggf. die Wiederaufnahme schon zum Erfolg geführt hat.
Google setzt seinen Weg der Transparenz dennoch weiter um. Natürlich kann man sich (zu Recht) die Frage stellen, wieso immer nur mit Brotkrümeln und so Schritt für Schritt. Böse Zungen meinen, jegliche Öffnung geschieht nur, um ein staatliches Eingreifen (vor allem in den USA) zu verhindern. Egal welcher Grund es ist, uns Webmaster kann dies nur zu Gute kommen.
Quelle: http://googlewebmastercentral-de.blogspot.de/
Für betroffene Webmaster hier ein paar Videos von Matt welche Matthias Großkopf zusammen gesammelt hat.
Hidden text and/or keyword stuffing
Pure spam
Thin content with little or no added value
Unnatural links from your site
Unnatural Links to site
Unnatural Links to site – impacts links
The only organization that provides CBSE, NCERT, and State wise board solutions for free, that too online.
So you can get an online test series of NEET and JEE 2020 for free.
CBSE solved paper