Google Search Console

Werbung

 


02.12.2016, 57:56

Frage: Was kannst du zu den Content Keywords sagen, werden sie wiederkommen?

Antwort: Ich denke und hoffe, dass sie komplett weg sind. Es hat Nutzer zu sehr verwirrt. Es hat euch nicht für das Erkennen von Themenrelevanz geholfen, es ging nur um die Keywordhäufigkeit und darauf solltet ihr euch nicht konzentrieren. Es gibt viel bessere Wege, um zu sehen, wie Google eure Seite sieht.


02.12.2016, 50:51

Frage: In Search Console wird uns nach dem Wechsel auf ein neues Theme beim Rendern nur eine weiße Seite angezeigt. Woran kann das liegen?

Antwort: Das kommt auf die Hintergründe an. Eigentlich sollten wir so einen Wechsel ziemlich sofort sehen. Es kann also sein, dass wir eure Seite nicht indexieren können. Unter Fetch and Render seht ihr die geblockten Ressourcen. Schaut mal, ob die vielleicht dazu führen, dass wir eure Seite nicht erkennen können.


02.12.2016, 26:03

Frage: Womit kann man am besten die Performance einer Seite für ein Keyword tracken?

Antwort: Die Suchanalyse in Search Console ist der beste Ort dafür.


02.12.2016, 10:58

Frage: Wie sieht man es in Search Console, wenn eine Seite für eine Direct Answer genutzt wird.

Antwort: Dann schauen wir es als die höchste Position. In diesem Fall würden wir also nur das Ranking der Direct Answer zeigen – auch dann, wenn eure Seite nochmal auf Position 3 oder so rankt. Da gibt es auch einen guten Artikel im Hilfecenter.


01.12.2016, 26:55

Frage: Bei einem unserer österreichischen Kunden ist uns eine große Abweichung der angegeben Search Console Positionen gegenüber den Suchergebnissen aufgefallen. Bereits seit Monaten finden wir den Kunden für die Suchanfrage “hautarzt wien” (inkognito und google.at) auf Seite 2. Laut Search Console liegt die durchschnittliche Position (für die letzten 28 Tage) aber bei 6,2. Die Frage ist nun, woher kommt diese Abweichung? Machen wir einen Fehler bei der Analyse oder bei der manuellen Abfrage?

Antwort: Ohne Daten ist das schwer zu sagen. In Search Console zeigen wir aber das, was wir den Suchenden effektiv gezeigt haben.


29.11.2016, 36:48

Frage: Gibt es Neuigkeiten im Hinblick auf die Aufnahme von Traffic aus der Sprachsuchein Search Console.

Antwort: Ich weiß von nichts.


15.11.2016, 40:27

Frage: Was bedeutet es, wenn ihr “Infrastrukturupdates” an Search Console durchführt? Bekommen wir vielleicht bald die Daten für 12 Monate?

Antwort: Wir hoffen, dass ihr diese Daten früher oder später bekommen werdet. Ich weiß aber nicht, was gerade an Updates passiert. Die sollten aber ganz normale Updates sein. Das meiste sollte nichts offensichtliches sein, sondern eher etwas, damit alles weiterhin gut läuft. Manchmal müssen Dinge einfach geupdated werden, damit alles wieder auf dem aktuellen Stand ist.


11.11.2016, 42:48

Frage: Wie kann ich herausfinden unter welcher E-Mail Adresse der Hauptinhaber einer Domain in einer Google Search Console läuft. Wenn ich nur Ansprechpartner habe die anscheinend “Delegierte Inhaber” sind?

Antwort: Als Externer geht das nicht. Ist es deine eigene Seite, dann kannst du sie neu verifizieren. Dann kann man alle Hauptinhaber auflisten. Dadurch gehen auch keine Daten verloren.


04.11.2016, 19:37

Frage: Was ist der Grund dafür, dass in der Suchanalyse unterschiedliche Zahlen angezeigt werden: https://productforums.google.com/forum/#!msg/webmasters/htqS52VRpg8/wWVyZV_jHAAJ?

Antwort: Ich denke mal, da geht es um die Filter, die wir nutzen. Anfragen, die nur sehr selten passieren, filtern wir dann heraus. Die Gesamtnummer wäre also alles, was wir sehen, die einzelnen Reihen werden aber weniger sein, da wir da Dinge rausfiltern. Schaut euch die Ergebnisse pro URL an, um da gleiche Zahlen zu erhalten.


01.11.2016, 19:07

Frage: Wie werden die organischen Impressionen im Hinblick auf die Browsereinstellungen errechnet? Wer 100 Ergebnisse pro Seite einstellt, erhält Dinge angezeigt, die sonst erst nach mehrmaligem Klicken kommen würden. Wird das Scrollen berücksichtigt, um diese Diskrepanz auszugleichen?

Antwort: Wir schauen uns die Position an, die dem Nutzer gezeigt wird. Ist jemand Nummer 78 auf einer Seite mit 100 Ergebnissen, dann ist das äquivalent zu einer Suche, wo jemand 7 mal weiterklickt. Es gibt ja auch immer Unterschiede, wenn z.B. Direct Answers, Local Packs oder so oben stehen. Eine Position 2 kann dabei Above oder auch Below the Fold sein. Und wir müssen schauen, wie wir das anzeigen – Infos dazu gibt es im Hilfecenter. Wenn ihr Ideen zu dem Thema habt, könnt ihr mir auch gerne Änderungsvorschläge schicken.


18.10.2016, 10:12

Frage: Ich habe Probleme mit der Search Console API. Ich bekomme duplizierte Ergebnisse bei der zweiten Ausspielung. Und ich bekomme weniger als 5000 Ergebnisse, obwohl ich 5000 einstelle.

Antwort: Ich habe deinen Post gesehen und das schon an das Team weitergeleitet. Wenn du 5000 Anfragen hast, dann sind vielleicht auch 2000 rausgefiltert. Deswegen hast du dann 3000. Viele Dinge sind so granular, dass sie einfach rausgefiltert werden. Ich werde dir sagen, was das Team dazu meint.


07.10.2016, 51:08

Frage: In Search Console gibt es die Content Keywords. Einige nutzen wir sehr oft, heißt die volle Anzeige, dass wir überoptimiert haben?

Antwort: Ich muss dem Search Console Team sagen, dass wir dieses verwirrende Feature loswerden müssen. Es zeigt einfach nur die Anzahl der Keywords an, sagt aber nichts über Probleme aus. Es hilft zum Beispiel, wenn dort falsche Keywords auftauchen – dann wurdet ihr vielleicht gehackt. Nutzt es einfach als Hinweis, dass wir die Wörter auf eurer Seite gefunden haben. Für Keyword Stuffing: Schaut euch die Seiten an und lest den Text laut vor. Würde sich das gut anhören, wenn man es einem Kunden am Telefon vorliest oder würde der euch für verrückt halten?


23.09.2016, 21:00

Frage: Viele Leute haben Probleme, seit die Daten im Keyword Planner nicht mehr öffentlich sind.

Antwort: Ich verstehe beide Seiten, AdWords hatte viele Probleme mit Bots, aber ihr braucht auch Daten. Nutzt vielleicht Google Trends oder Google Consumer Surveys. Und wir überlegen auch, Daten vielleicht in Search Console anzubieten. Aber sollte das passieren, dann ist das eine sehr langfristige Geschichte. Wenn ihr ein etabliertes Geschäft habt, könnt ihr auch eure Nutzer befragen.


23.09.2016, 07:36

Frage: Wie kann man einen Search Console Account erreichen, nachdem ein Mitarbeiter die Firma verlassen hat, während man nicht da war?

Antwort: Ihr könnt die Seite einfach neu verifizieren. In Search Console verliert ihr dabei auch keine Daten, anders als bei Analytics.


22.09.2016, 35:15

Frage: Hallo, wir haben einen Relaunch unserer Seite gemacht und plötzlich einen riesigen Anstieg an 404s (40.000!) in unserer Search Console. Wir haben allerdings keine Ahnung wo Google die Links hernimmt, da wir sie teilweise gar nicht kennen.

Antwort: Wie gesagt sind das wohl Dinge, die nicht mehr so relevant sind.


22.09.2016, 32:26

Frage: Bei den HTML-Verbesserungen in der Search Console finden sich bei uns Doppelte “tilte”-Tags – unter anderem bei paginierten Seiten – jedoch haben wir diese mit rel=”prev” und rel=”next” ausgezeichnet. Haben wir einen Fehler gemacht oder wieso tauchen die paginierten Seiten dort auf?

Antwort: Wahrscheinlich nicht. Wir indexieren die einzelnen Abschnittsseiten trotzdem und geben das dann als doppelte Title Tags an. Da müsst ihr denke ich nichts machen. Die HTML-Verbesserungen sind auch nur Tipps.


22.09.2016, 29:51

Frage: In diversen Foren wird aktuell gemeldet, dass seit einiger Zeit extrem viele URL-Fehler in der Search-Console angezeigt werden (unter “Nicht gefunden”), vor allem URLs, die seit Jahren nicht mehr existieren. In solchen Fällen sieht man auf einmal Tausende von Fehlern, wo es unter “Verlinkt über” gar nichts steht und die man Tage lang in der Search-Console als korrigiert markieren soll (wegen des Limits von 1000 Seiten). Manchmal ist es aber auch eine solche Maßnahme nicht möglich, wenn bei Projekten über 100.000 Fehler angezeigt werden.

Warum ist die Anzahl solcher Seiten in den letzten Tagen so stark angestiegen? Und wie kann man in solchen Fällen vorgehen, damit schnellst möglich andere relevante Fehler angezeigt werden?

Antwort: Wir haben das angeschaut und gesehen, dass dort Fehler auf unserer Seite vorlagen. Da haben wir viele alte Seiten neu gecrawlt, die schon lange 404 sind. Da müsst ihr aber nichts machen. Das ist auch immer nach Relevanz geordnet, wenn die ersten also schon unwichtig sind, sollte weiter unten auch nichts wichtiges mehr kommen.


22.09.2016, 00:30

Frage: In der Suchanalyse in Search Console fallen die Daten ab, woran kann das liegen?

Antwort: Eine häufige Fehlerquelle ist es, wenn Google von einer Variante einer Website auf eine andere umschaltet – als Canonical in den SERPs. Der Traffic in Analytics bleibt dann gleich, in Search Console muss man dann aber die richtige Version anschauen. In eurem Fall haben wir für einige Teile auf Https umgestellt, daher erscheint das dann dort. Man kann auch die verschiedenen Versionen als Property Set zusammenfassen, da seht ihr dann in der Suchanalyse die gesammelten Daten.


08.09.2016, 52:22

Frage: Hast du Informationen zu aktuellen Meldungen über Spamstrukturen zu Rich Snippets in der Search Console?

Antwort: Ich weiß nicht, was damit gemeint ist.


08.09.2016, 50:55

Frage: Die Search Console zeigt an, dass eine unserer Kunden Websites (mobile Version) nur 73 mal geklickt wurde. Sie ist allerdings eine der meistbesuchten Webseiten Deutschlands. Wie kommt es zu solchen Diskrepanzen? Unsere Analyse Tools sagen auch anderes.

Antwort: Da müsste ich die URLs haben. Manchmal sehen wir aber, dass die falsche Version in Search Console registriert ist. Also www. und non-www. oder http und https. Ansonsten müsst ihr mir das mal schicken oder einen Thread im Hilfeforum eröffnen.


08.09.2016, 34:26

Frage: Hat es einen bestimmten Grund, dass im URL-Parameter Tool die Einstellung “keine URLs crawlen” angeboten wird, diese aber vom Crawler nicht respektiert wird?

Antwort: Das ist eher eine Steuerung für die Optimierung auf unserer Seite, ist aber kein Befehl für uns. Da kommen unterschiedliche Signale von eurer oder unserer Seite zusammen und wir schauen dann, was wir machen. Gerade nutzerseitige Angaben kontrollieren wir aber immer mal wieder und crawlen die Seiten dann manchmal. Wenn das ein Problem ist, solltet ihr mit robots.txt arbeiten.


26.08.2016, 52:35

Frage: Wie kann ich testen, ob ich aus Versehen unter Sitelinks meine Domain demoted habe?

Antwort: Das steht in Search Console. Wenn es dort nicht steht, sollte alles ok sein.


25.08.2016, 27:32

Frage: In der Search Console tauchen bei uns unter den Content Keywords mehr englische Begriffe als deustche auf. Wir nutzen keine hreflang-Tags. Dennoch bieten wir unsere Seite auch in englischer Sprache an. Wie kann ich erreichen das nur deutsche Keywords angezeigt werden?

Antwort: Wahrscheinlich gar nicht. Wir finden die englischen Inhalte und versuchen dann, sie auch darzustellen. Ich finde diesen Report auch nicht so optimal, da er nur auf die Keyweords und deren Wiederholung eingeht. Das ist sehr technisch und spiegelt nicht wieder, was wirklich wichtig ist und womit ihr richtig rankt. Gibt es aber Begriffe, die gar nicht mit eurer Seite zu tun haben, dann solltet ihr mal prüfen, dass die Seite nicht gehackt wurde. Und ihr solltet testen, ob die deutsche und die englische Version jeweils eigenständige URLs haben.


25.08.2016, 24:43

Frage: In der SC unter “Blockierte Ressourcen“ zeigen sich 1500 Seiten assoziiert mit einem neuen User Retargeting Tool. Heißt dies, dass diese Anzahl der Seiten nicht indexiert werden, weil dieses Tool implementiert ist? Dies wäre negativ, richtig?

Antwort: Nicht unbedingt. Ist es ein Tool ohne sichtbare Veränderungen an der Seite, dann ist es für uns egal, ob das blockiert ist. Sorgt es für Änderungen, dann können wir diese nicht sehen. Bei euch hört es sich aber nach einem Targeting Tool an, das vielleicht nur Cookies setzt. Das hört sich dann nicht problematisch an. Wir informieren euch nur und überlassen euch die Entscheidung, ob das geändert werden muss.


25.08.2016, 19:04

Frage: Kannst du abschätzen wann der Index Status Report der GSC wieder funktioniert?

Antwort: Sollte eigentlich wieder funktionieren. Einige Daten kamen heute schon, der Rest wird mit der Zeit folgen.


23.08.2016, 39:35

Frage: Ich habe für 1 Mio Seiten Breadcrumbs eingebaut, aber der Structured Data Report ist bei 140.000 stecken geblieben. Mit Screaming Frog finde ich sie aber alle.

Antwort: Das müsste ich mir mal anschauen. Es kann aber sein, dass wir einfach normal weitercrawlen und indexieren. Bei großen Seiten kann das also etwas dauern. Der Index Status Report in Search Console ist momentan auch kaputt, das sollte bei euch aber keinen Einfluss haben.


12.08.2016, 16:07

Frage: Wird der Keyword Planner bald in Search Console aufgenommen? Was ist mit den Gerüchten, dass AdWords den Zugang beschränkt?

Antwort: Das ist ein AdWords Tool. Dazu kann ich nichts sagen. Bei Search Console weiß ich von keinen aktiven Plänen, das Ganze zu integrieren. Ich habe im Web einige Kommentare dazu gesehen und dem Team Bescheid gesagt. Aber es gibt noch keine Entscheidungen.


09.08.2016, 52:15

Frage: Ich sehe viele Crawl Errors in Search Console, aber die Seiten existieren gar nicht mehr.

Antwort: Da kannst und musst du nichts machen. Das kannst du einfach ignorieren. Google hat ein gutes Erinnerungsvermögen. Alle paar Monate schauen wir uns solche Seiten an, sehen, dass es nichts mehr gibt, und sagen euch das. Das machen wir, damit wir nichts verpassen. So sind unsere Systeme konzipiert. Mark as Fixed ändert auch nur eure Ansicht, aber nichts auf unserer Seite.


29.07.2016, 39:58

Frage: Wie oft wird der Sicherheitscheck durchgeführt – und wie gut ist er darin, Probleme zu finden?

Antwort: Ich denke, du meinst das Malware Review. Das hat nichts mit dem Crawlen zu tun, sondern passiert ohne genauen Zeitplan. Das kommt also auch immer auf die Seite an.


28.07.2016, 43:32

Frage: Ist absehbar, ob der Umfang der Daten der Suchanalyse API zunimmt und abgefragte Daten mit z.B. Dimensionen query&page mit den totalen Werten (im Web-Frontend) übereinstimmen, oder wird man nie “alle” Daten bekommen?

Antwort: Soweit ich weiß, haben wir vor einiger Zeit die Datenmenge für die API erhöhnt. Vielleicht hilft das. Ich wage aber zu bezweifeln, dass man da wirklich alle Suchdaten finden kann.


28.07.2016, 40:54

Frage: GSC meldet >40 “Crawling-Fehler. Ursprung ist vebidoo.de. Beispiel Fehler: http://www.rotary-muenchen.org/berufsberatung-biz.htmDr, verlinkt über http://www.vebidoo.de/saring+ulrich. Auf Mail reagiert Vebidoo nicht, Telefon gibt’s im Impressum nicht.

Antwort: Das könnt ihr ignorieren. Wir melden euch solche Fehler, weil wir versucht haben, das zu crawlen. Aber wenn ihr die Seiten wirklich nicht braucht, dann könnt ihr das ignorieren.


28.07.2016, 34:06

Frage: Laut SC ranken wir mit einer URL für ein Keyword (Brand) welches kein einziges mal im Content vorkommt. Dieses Keyword soll den meisten Traffic für die URL generieren. Ist das vielleicht ein Bug?

Antwort: Vielleicht, aber ich denke nicht. Es gibt viele Gründe, warum wir eure URL da vielleicht zeigen. Z.B. hatte vielleicht eine alte Version diese Begriffe, vielleicht gibt es auch entsprechende Links. Vielleicht ist die Seite auch per robots.txt blockiert und wir kennen sie gar nicht. Viel machen könnt ihr da aber nicht. Es gibt ja keine Negativkeywords oder so.


28.07.2016, 22:52

Frage: Wie werden die Positionen der Local-Ergebnisse in der Suchanalyse berechnet? Wir haben lokale Profile mit utm_source usw. getaggt und sehen diese URLs in GSC. Was ist Position 1, 2 usw.?

Antwort: Wir sind dran, ein Dokument zu erstellen, wo das alles genauer erläutert wird. Grundsätzlich zählen wir einzelne Ergebnisse mit einzelnen URLs als Positionen. Ausnahmen sind Blogs mit mehreren. Aber wenn eine URL dargestellt wird, dann sollte sie auch in Search Console sein.


28.07.2016, 21:34

Frage: Bei einem Blog wurde rel prev-next für Artikel – verteilt auf mehreren Seiten – verwendet. Die Seiten 2, 3, usw. sind jedoch trotzdem im Index und über die Search Console werden doppelte Titles angemerkt. Kann dies vernachlässigt werden?

Antwort: Wahrscheinlich. Wir indexieren die Seiten ja trotzdem und sehen einfach, dass sie als eine Reihe zählen. Das hilft uns ein wenig beim Ranking. Beim Canonical ist das anders, da sollten die einzelnen Seiten dann nicht mehr erscheinen.


26.07.2016, 52:41

Frage: Gibt es ein Problem mit dem Data Highlighter? Jedes mal, wenn wir das für mehrere Seiten nutzen, werden Fehler angezeigt. Es dauert dann ein paar Stunden, bis sich die Seite lädt und man den Fehler beheben kann. Das ist nun schon seit zwei oder drei Monaten so, und zwar täglich.

Antwort: Davon weiß ich nichts. Da gab es vor einiger Zeit ein paar Überarbeitungen, aber das hört sich nach einem technischen Problem an. Ich werde mal mit dem Team sprechen.


26.07.2016, 46:18

Frage: Gibt es Pläne, die Daten in der Suchanalyse auszuweiten? Zum Beispiel, die lokale Suche von der organischen, der Bildersuche und der Stimmsuche abzugrenzen oder Knowledge Graphs einzubinden?

Antwort: So etwas kann man im Voraus nicht sagen. Ich weiß nur, dass das Team an neuen Features arbeitet. Uns ist immer wichtig, dass die Daten Sinn machen und euch helfen, gute Inhalte zu erstellen. Wenn ihr seht, dass neue Daten euch helfen, das Web zu verbessern, dann sagt uns das und wir können daran arbeiten.


26.07.2016, 28:50

Frage: In Search Console sollen wir die Nische unserer Seite angeben. Bringt es Nachteile, wenn dort nichts oder das Falsche steht?

Antwort: Ich glaube nicht, dass wir das fragen. Das ist glaube ich bei Bing der Fall, bei uns ist mir das nicht bekannt. Wenn wir es aber täten, dann wäre es nur für die Statistik und nicht für das Ranking.


08.07.2016, 1:16:10

Frage: Was sind die häufigsten Fehler im Hinblick auf das Parameter Handling in Search Console?

Antwort:  Da müsste ich mir die Seite anschauen. Wir nutzen es, um zu sehen, welche Parameter wir nutzen müssen. Vielleicht lernen unsere Systeme es falsch, dann müsst ihr das dort angeben.


08.07.2016, 1:15:16

Frage: Mein Server leitet den Traffic verschiedener Varianten weiter. Soll ich für jede Variante eine Property in Search Console anlegen?

Antwort: Keine Ahnung, manchmal. Fügt sie zu Search Console hinzu, damit ihr über Fehler informiert werden. Die Infos werden aber immer für das Canonical gezeigt.


08.07.2016, 1:14:12

Frage: Warum stimmen die Werte für Klicks, Impressionen, CTR und Position bei Seiten und Suchanfragen nicht überein?

Antwort: Das hängt mit dem Query Filter zusammen, wo seltene Anfragen rausgefiltert werden, damit wir nicht alles anzeigen müssen.


08.07.2016, 52:14

Frage: Ich habe in den letzten Stunden 3 Benachrichtigungen für neue Owner unserer Seite erhalten, obwohl diese schon länger dabei sind.

Antwort: Wir hatten da technische Probleme mit der Verifizierung. Da haben wir dann alle neu verifizieren müssen.


08.07.2016, 38:39

Frage: Search Console zeigt doppelte Meta-Daten für zwei Seiten, daher habe ich sie per 301 verbunden. Jetzt ist nur eine im Index, wird aber nicht in den SERPs gezeigt.

Antwort: Das Feature aggregiert die Daten über einen längeren Zeitraum. Da kann es dazu führen, dass ihr etwas ändert und dann die Daten nicht mehr mit der Realität übereinstimmen. Das legt sich dann mit der Zeit.


30.06.2016, 44:14

Frage: Bin leider unterwegs daher hier meine Frage hier. Wenn es für eine Website zwei verschiedene Inhaber in der Search Console gibt, könnte theoretisch #2 eine Länder Einstellung machen und #1 würde das nicht sehen? Es ist oft so, dass Agentur eine eigene Console hat.

Antwort: Die Einstellungen sind pro Website, nicht pro Benutzer. Jeder kann das dann sehen, und bei zentralen Dingen wie Ländereinstellungen bekommen alle ein Nachricht, wenn sich etwas ändert. Viele geben Agenturen auch nur den Lesezugriff, damit solche Änderungen an den Einstellungen nicht vorgenommen werden können.


30.06.2016, 30:10

Frage: Wir hatten für http://goo.gl/v5iRI6 ab April einen hohen Anstieg indexierter Seiten (Siteabfrage), in GSC blieb die Indexierung normal, Fehler konnten wir nicht feststellen. Gab es Zusatz-Aktivitäten/Bug bei Google, so dass zu viele URL in den Index kamen?

Antwort: Die Siteabfrage ist nur eine grobe Schätzung, die wir nicht zur Diagnose empfehlen würden. Diese Zahl kann sehr unbeständig sein. Schaut lieber im Indexierungsstatus in Search Console, die Zahl ist eindeutiger, gibt aber keine Infos dazu, welche Seiten es genau sind. Hier seht ihr nur die Zahl. Am besten ist es, mit Sitemaps zu arbeiten. Macht eine Sitemap, in der alle wirklich wichtigen Seiten drin sind – dann habt ihr diese immer auf dem Schirm und seht in Search Console, wie viele von den wichtigen URLs im Index sind.


30.06.2016, 27:33

Frage: Was kann man tun, wenn die Console “Sicherheitsprobleme” meldet, aber keine Sample-URLs angibt? Bzw. wenn eine Subdomain tatsächlich ein Problem hat, andere Subdomains aber auch die Meldung bekommen. Müssen wir uns bei den falschen Subdomains Sorgen machen?

Antwort: Ich weiß nicht genau, was mit falschen Subdomains gemeint ist. Bei den Sample-URLs sind einige Teams dabei, das Ganze zu verbessern, damit wir dort vernünftige Dinge anzeigen können.


28.06.2016, 45:45

Frage: Wann können wir mit einem Redesign von Search Console im Material Design rechnen? Wird es dann auch neue Reports geben, mit denen man wirklich viele Daten exportieren kann?

Antwort: Solche Dinge kündigen wir vorher nicht an. Ich weiß, dass das Team an Search Console arbeitet. Aber das ist ein kontinuierlicher Prozess.


17.06.2016, 39:27

Frage: Wir haben einen markengeführten Bitly-Link für unsere Posts in sozialen Medien. Wir haben erfahren, dass diese Domain als „Malware“ gelistet ist. Könnte uns jemand helfen, dieses Problem zu beheben, weil wir UMT nicht benutzen können?

Antwort: Habt ihr einen Zugang zu den DNS Einstellungen, könnt ihr euch über Search Console mit DNS verifizieren. Andererseits könnt ihr „Stop Back“ kontaktieren. Das ist eine unparteiisch agierende Website, auf der ihr eure Domain einreichen könnt.


17.06.2016, 34:19

Frage: Wenn ich Google darum bitte, eine erneute Indexierung unter Verwendung der GSC zu starten. Bedeutet das automatisch, dass die Seite nach einer Panda Abstrafung schneller erneut geprüft wird?

Antwort: Du kannst nicht einfach die erneute Indexierung deiner Domain anfordern, indem du die Search Console benutzt. Du kannst individuelle URLs mit veränderten Inhalten einreichen und uns darum bitten, ein Update vorzunehmen. Diese Vorgehensweise ist allerdings nicht für die gesamte Domain, sondern nur eine begrenzte Anzahl an Homepages möglich.


16.06.2016, 53:25

Frage: Nochmals wegen den GSC Properties und 150 TSD Seiten. Wir wollen durch mehrere Properties mehr Daten aus der Suchanalyse gewinnen, um unsere Inhalte dem User Bedarf anzupassen. Ist es also egal, wie wir dies anlegen. Inhalt oder Verzeichnis?

Antwort: Ja es ist grundsätzlich egal. Aufgrund des hohen Arbeitsaufwandes würde ich euch nicht empfehlen, die Inhalte den Anforderungen der Search Console anzupassen. Gebt ihr die Daten in die Search Console ein, hat diese Anpassung keinen Einfluss auf die Suche.


16.06.2016, 48:00

Frage: Ich habe eine Webseite mit > 150TSD Dokumenten. Die Verzeichnisstruktur ist nicht gleich, wie die Seitenstruktur: beispiel.de/muster/ verfügt über Produkte & Kategorien etc. Um viele GSC Properties zu haben, sollte ich wie vorgehen? Nach URL oder nach Inhalt?

Antwort: Das hängt von eurem Konzept ab. Ausschlaggebend ist, ob das Konzept eher auf die Nutzung der gesamten Webseite oder auf die Suche in einzelnen Verzeichnissen ausgelegt ist. Search Console ist ein wichtiges Tool für Webseitenbetreiber, um die eigene Homepage besser zu verstehen.


16.06.2016, 35:53

Frage: Wenn man in der GSC mehrere Properties anlegt, für z. B. jedes Land oder für jede Kategorie, bekomme ich mehr Daten? Beispiel: xy.de/handy und xy.de/telefon. Oder macht es keinen Sinn, da die Daten nur gefiltert werden? Also nur xy.de anlegen und auswerten?

Antwort: Wir haben pro Property eine gewisse Begrenzung. Werden Unterverzeichnisse angelegt, sind automatisch mehr Daten vorhanden. Bei einer sehr umfangreichen Webseite ist es sinnvoll, mehrere Properties anzulegen.


16.06.2016, 29:24

Frage: Warum tauchen in der Suchanalyse der Search Console Keywords auf, die weder auf der Site noch in einem Linktext existieren? Zum Beispiel weit entfernte Orte.

Antwort: Mögliche Gründe bestehen in der Anwendung von Javascript oder Benutzerkommentaren. Generell sollte Search Console Keywords natürlich nicht „erfinden“. Bei Search Analytics kann es auftreten, dass Rankings für bestimmte Begriffe erstellt werden, die auf der jeweiligen URL keinen Sinn machen. Vielleicht hat eine andere Person die URL extern mit Anchour Links verbunden. Manchmal wird eine Website für einen Begriff unerklärlich gerankt. Allerdings wirkt sich diese Tatsache nicht auf andere Suchbegriffe aus.


16.06.2016, 27:48

Frage: Wir haben immer mehr URLs mit dem Anhang no_cache=1 im Index. Gibt es eine Möglichkeit, mit der Search Console herauszufinden, wo Googlebot das herbekommt?

Antwort: Manchmal ist vermutlich JavaScript auf den Seiten vorhanden. Eine andere Variante ist, auf interne Links zu schauen. Eine andere Möglichkeit besteht darin, diese URLs als ungültig anzuzeigen. Eine wichtige Unterstützung zur Indexierung von Webseiten ist der Canonical Tag.


16.06.2016, 18:03

Frage: Seit dem 02.06.2016 gibt es die Möglichkeit, in der GSC Property-Sätze zu erstellen. Bisher gab es keine Möglichkeit eine GSC Property mit einer GA Datensicht zu verknüpfen. Ist diese neue Funktion hierfür geeignet?

Antwort: Momentan beschränken sich Property-Sätze nur auf die Search-Analytics-Funktion in der Search-Control. Das heißt, dass sich an der Verbindung zu Analytics nichts ändert.


02.06.2016, 30:50

Frage: Existiert ein “rank budget” und ein “index budget” genau wie ein “crawl budget”? Wenn ja … warnt GSC wenn wir diese Quoten übersteigen?

Antwort: Nein. Für uns gibt es dort keine Beschränkungen.


02.06.2016, 27:16

Frage: Wir haben in der SC die Nachricht, dass 410 Seiten getestet wurden und alle Mob.fehler aufweisen. Nun waren wir aber schon sehr fleißig und es sollten keine Fehler mehr kommen. Geht diese Nachricht von allein weg, oder muss ich das manuell anstoßen?

Antwort: Die Nachricht bleibt wahrscheinlich dort, da alle Nachrichten gespeichert werden. Ihr könnt sie aber löschen. Die 410 Fehler in der Grafik sollten aber zurückgehen.


20.05.2016, 49:55

Frage: Welche Schritte habt ihr vorgenommen, um die Webmaster Tools zu Search Console zu migrieren.

Antwort: Die URL ist ja noch die gleiche. Und wenn wir sie ändern, werden wir uns an die Vorgaben aus dem Hilfecenter halten. Es gibt aber auch viele Situationen, wo wir als Google Dinge machen, die wir so eigentlich nicht empfehlen. Es kann trotzdem funktionieren, aber man muss auch die Taktiken von großen Seiten immer hinterfragen.


19.05.2016, 38:13

Frage: “Crawling Fehler” beruhen oftmals auch auf alten Daten. Daher lösche ich diese von Zeit zu Zeit gänzlich, damit der Überblick wieder klarer wird. Hat das einen Nachteil wie “Sandbox” oder anderes, wenn ich so wöchentlich vorgehe?

Antwort: Das ändert aus unserer Sicht überhaupt nichts. Die werden nur für euch angezeigt.


19.05.2016, 35:48

Frage: Wir verzeichnen einen erheblichen Drop in den Klicks in der Search Console auf www.mpg.de seit ca. Mitte März 2016. Vorher schwankend zwischen 1000 – 2000 Klicks, nach März dann mit einigen Ausnahmen runter auf 20 – 50 Klicks. Woran könnte es der Drop liegen?

Antwort: Schwer zu sagen. Auf Anhieb kann ich da nicht viel sagen, postet das mal in den Hilfeforen. Stellt aber sicher, dass auch https Version der Seite in Search Console verifiziert ist.


17.05.2016, 20:47

Frage: Meine mobile Seite ist auf einer Subdomain (m.). Muss ich die Sitemaps und demote Sitelinks auch in den mobilen Accounts von Search Console hochladen, obwohl sie schon in den Desktop Accounts zu finden sind?

Antwort: In solchen Fällen braucht es ein Canonical von der mobilen zur Dersktopseite. Wenn das richtig gemacht ist und von uns gesehen wird, dann nehmen wir alle Signale von der Desktop Version. Ihr braucht es also nicht, ich würde es aber trotzdem machen: Denn so erhaltet ihr Infos über Crawlingfehler, die es nur auf der mobilen Variante gibt.


17.05.2016, 16:19

Frage: Fungiert die URL Parameter Section in Search Console als Vorgabe oder als Tipp für den Googlebot? Wenn ich dort gewisse Parameter vom Crawling ausschließe, muss ich das trotzdem in robots.txt wiederholen?

Antwort: Sie sind mehr ein Hinweis. Für das Indexieren hilft uns die Parameter Section, um herauszufinden, welche Seiten vielleicht zusammengeklappt werden könnten. Robots.txt verbietet uns, diese überhaupt anzugucken. Also gerade bei doppelten Inhalten sollte es nicht blockiert werden, sondern uns durch das Parameter Tool Hinweise gegeben werden.


06.05.2016, 51:39

Frage: In den letzten fünf Monaten ist die Zahl der indexierten Seiten dramatisch gefallen. Wie kann ich eine vorher/ nachher Analyse der Keywords in Search Console machen?

Antwort: Die Suchanalysedaten sind auf drei Monate begrenzt. Da könnt ihr also nicht so weit zurückschauen. Ihr könntet mal in Analytics schauen oder die Server Logs nutzen. Dann könnt ihr die Landingpages herausfinden, wenn auch nicht die Keywords.


06.05.2016, 46:25

Frage: Gibt es ein Update hinsichtlich der Probleme mit mehreren Properties in Search Console – also dass man www und non-www ebenso einfügen muss wie die https Variationen?

Antwort: Wir arbeiten daran, dass man alles als eine Grupp tracken kann. Aber es gibt noch nichts anzukündigen. Wenn ihr wissen wollt, was bei Search Console passiert, dann könnt ihr uns als Tester unterstützen.


06.05.2016, 34:31

Frage: Gibt es ein Update hinsichtlich der Pläne für Infos über Featured Snippets?

Antwort: Ich habe hier kein Update. Aber die Teams sind da sehr aktiv.


06.05.2016, 23:13

Frage: Plant Google, die Trafficdaten der Sprachsuche in Zukunft in Search Console Reports aufzunehmen? Wie nah sind die Daten in Search Console an dem, was Google für das Ranking nutzt?

Antwort: Ich weiß nicht, was die genauen Pläne sind. Aber wir haben etwas in der Art schon besprochen. In etwa so, wie wir auch Desktop und mobil separat anzeigen. Das dürfte aber zum Teil sehr schwer umzusetzen sein. Denn Sprachsuchen sind meistens länger und richtige Sätze, solche werden entsprechend nicht so oft genutzt und werden vielleicht rausgefiltert. Wir schauen uns das aber an. Wenn ihr gute Beispiele habt, dann schickt uns eine Nachricht. Was ihr in Search Console seht, ist ziemlich nah an dem, was wir auch sehen (die Daten kommen aus derselben Quelle) – wir filtern aber ein paar Dinge heraus. Wir arbeiten auch daran, die Linkübersicht besser zu machen.


03.05.2016, 43:38

Frage: Wieso weist Search Console nicht auf Doorway Pages hin? Das könnte doch bei der Verbesserung helfen.

Antwort: Wir zeichnen sie nur aus, wenn sie vom Manual Actions Team gefunden wurden. Ihr könnt das dann im entsprechenden Report sehen.


15.04.2016, 56:05

Frage: Beachtet der Report bei doppelten Tags und Descriptions auch Dinge wie ein mögliches Canonical?

Antwort: Es ist schwer, weil wir müssen die Seite erst indexieren müssen, bevor wir den Canonical sehen können. Sie können also kurz indexiert werden und dann auch dort auftauchen. Seht das also mehr als Hinweis, wo ihr einmal nachschauen könntet.


07.04.2016, 35:06

Frage: Ich habe in der SC unsere SessID als “URL-Parameter” angegeben. Bei “crawling” steht “Stellvertretende URL”. Trotzdem zeigt “HTML-Verbesserungen” immer mehr Seiten mit doppelten Metas/Titles von Seiten mit und ohne diesem Parameter. Was kann ich tun?

Antwort: Die Verbesserungen zeigen das, was im Moment gecrawlt wurde. Da kann es sein, dass auch ältere Dinge noch erscheinen. Wenn die nie gecrawlt werden sollen, kann man mit der robots.txt arbeiten. Aber an sich muss man sich keine Sorgen machen, da wir das nur stichprobenartig anschauen.


07.04.2016, 18:29

Frage: AdWords erkennt ein korruptes Werbemittel. Es wird über eine externe Agentur geschaltet. Die Auslieferung erfolgt regelmäßig in Rotation, so dass wir mit dem Auffinden des schadhaften Links Schwierigkeiten haben. Kann ich einen Outlink in der Search Console blocken?

Antwort: Ich vermute, damit meist du einen Link auf Malware. In Search Console kann man das nicht direkt blockieren. Denn Nutzer sehen das ja nicht. Da müsst ihr mit der Agentur sprechen, damit so etwas von Anfang an blockiert wird.


05.04.2016, 13:33

Frage: Wir müssen herausfinden, warum Nutzer auf einmal viel länger auf unserer Download-Seite bleiben. Gibt es da eine Möglichkeit, um mehr Einzelheiten – wie Beispielseiten – zu erhalten?

Antwort: Nein, aber ihr könnt euch die Server Logs ansehen. Da könnte es mehr Infos geben, in Search Console ist das nicht möglich.


24.03.2016, 51:02

Frage: Wenn ich die Daten exportiere, dann stimmt die Gesamtzahl nicht mit denen im User Interface überein.

Antwort: Das ist eine häufige Frage. Unsere Systeme können addieren. Aber meistens filtern wir einige Anfragen heraus, zum Beispiel, wenn sie personalisiert sind. Die individuellen Items zählen diese dann nicht mehr. In Analytics werden diese, glaube ich, als Unlisted gewertet. Das ist dann vielleicht etwas einfacher zu verstehen.


24.03.2016, 49:51

Frage: In der Suchanalyse kann man die Suchanfragen filtern. Kann man auch verschiedene Versionen, beispielsweise einer Marke, zusammenfassen?

Antwort: Ihr könntet mit der API ein größeres File herunterladen und es dann filtern. Im User Interface geht das aber bislang nicht.


24.03.2016, 35:40

Frage: Wie schafft das Tool in Search Console es, dass die URL innerhalb weniger Minuten gerankt wird? Laufen alle 200 Algorithmen direkt rüber oder nur eine Auswahl? Ändert sich das Ranking später vielleicht stärker?

Antwort: Wenn ihr etwas schnell im Index braucht, nutzt dieses Tool. Ich weiß nicht, ob das in wenigen Minuten funktioniert. Welche Algorithmen laufen, hängt von der URL ab und hat vielleicht auch mit dem Rest der Website zu tun. Gleiches gilt für das erste Ranking. Das kann sich dann aber immer noch mal ändern.


10.03.2016, 45:16

Frage: In SC bekommen wir die Nachricht “Zunahme von Seiten mit dem Fehler “Nicht gefolgt” auf http://…”. Bemängelt wird die erhebliche Zunahme der Weiterleitungen. Wann wird eine solche Meldung ausgelöst?

Antwort: Normalerweise kommt das, wenn es Weiterleitungen sind, die wir nicht direkt verfolgen können – z.B. JavaScript oder Meta Refresh. Wir sehen sie dann, können sie aber nicht verfolgen und schauen sie irgendwann später noch einmal an. Aus unserer Sicht ist das ein Zeichen, dass wir eure Inhalte nicht immer optimal sehen können. Schaut euch dann mal eure internen Weiterleitungen an. Oft sind das aber auch nur einzelne Seiten, sodass man das ignorieren kann. Schaut es euch aber an und überlegt, wie ihr uns das Leben einfacher machen könnt.


10.03.2016, 17:46

Frage: Wird es demnächst eine App oder eine mobilfreundliche Version der Google Search Console geben?

Antwort: Gute Frage, das wäre nett. Normalerweise geben wir keine Versprechen heraus, aber hier haben wir keine konkreten Pläne. Es gibt aber eine API für Search Console – wer will, kann also Dinge selbst umsetzen. Wir konzentrieren und im Moment auf die Desktop Version, da hier noch der größte Bedarf ist. Wir wissen aber, dass das gegen unsere eigenen Empfehlungen zur Mobilfreundlichkeit geht.


26.02.2016, 18:48

Frage: In Search Console rankt unsere Website für die meisten Keywords auf Platz 1. Wir haben gemerkt, dass sich diese Daten auf die Karte über den organischen Ergebnissen beziehen. Wie können wir die organischen Daten sehen?

Antwort: Ich glaube, dass wir das in SC nicht unterscheiden. Wir schauen uns einfach die normalen Ergebnisse an. Wir zählen Rankings in Maps, Snippets etc. einfach dazu. Wir zeigen auch immer das durchschnittliche Ranking des besten Ergebnisses an.


26.02.2016, 02:19

Frage: Wäre es möglich, in Search Console mehr Daten zu zeigen. Bisher sind es 999 und da fallen immer welche durch das Raster.

Antwort: Manchmal gibt es auch 1000. Theoretisch sind mehr Daten möglich, wir müssen so etwas aber immer ausbalancieren. Vielleicht wären andere Features viel sinnvoller. Aber auf Twitter könnt ihr Zineb Ait Feedback darüber geben, was ihr mit mehr Daten machen würdet.


25.02.2016, 51:52

Frage: Wo ist eigentlich genau der Unterschied zwischen “An Index senden” und “Rendern anfordern” bei der Meldung neuer Seiten an Google via Search Console?

Antwort: Rendern zeigt, wie Googlebot die Seite sieht. Senden ist das Einreichen zur Weiterverarbeitung.


25.02.2016, 49:02

Frage: In Search Console werden unsere Google Display Anzeigen als Crawling-Fehler (nicht gefunden) dargestellt, ich lösche die jede Woche, aber die kommen immer wieder, ist das ein Problem für Google? Was können wir dagegen tun?

Antwort: Ich nehme an, dass das getaggte Werbe-URLs sind. Die finden wir wahrscheinlich auf anderen Seiten, wo sie nicht sauber eingebunden wurden. Wir versuchen dann, uns das erst einmal anzuschauen. Wenn die nichts zurückgeben, ist das aber kein Problem. Wir crawlen sie auch nur, wenn wir Kapazitäten frei haben – sie verdrängen also keine eurer wichtigen URLs. Das Löschen bezieht sich nur auf euren SC Account, das beeinflusst auf unserer Seite gar nichts.


12.02.2016, 34:41

Frage: Wie werden Impressionen gezählt? Zählt es auch, wenn eine Seite weit hinten, z. B. auf Position 301, rankt?

Antwort: Nein, nur die Suchergebnisse, die auch wirklich gezeigt werden. Wenn eine Website auf Seite zwei rankt, der Nutzer sich aber nur Seite eins anschaut, dann ist es keine Impression.


12.02.2016, 00:36

Frage: Viele meiner Kunden lieben die Daten, auch Search Analytics, aber ich kann die Daten nie replizieren.

Antwort: Es sind Daten, die wir sehen, wenn Nutzer eure Seite sehen. Sie hängen also auch vom Ort des Nutzers, seiner Personalisierung und vielen anderen Dingen ab. Außerdem zählen eure Bilder, die vielleicht in den universellen Ergebnissen ganz oben gezeigt werden, zu den Daten dazu.


11.02.2016, 42:09

Frage: Gibt es einen Schwellenwert, ab wann Keywords in den Webmastertools angezeigt werden, oder ist das für jede Website verschieden?

Antwort: Das haben wir, glaube ich, im Hilfecenter dokumentiert. In der Regel filtern wir die Suchen heraus, die kaum genutzt werden – sodass wir maximal 1000 anzeigen können. Es hängt also schon von der Größe der Seite ab, wie viel herausgefiltert wird.


29.01.2016, 28:25

Frage: Unser Kunde kann sich nicht zu Search Console hinzufügen, da er den Admin nicht finden kann.

Antwort: Da können wir auch nicht weiterhelfen. Aber ihr könnt die Seite für euch verifizieren, also einen neuen Nutzer hinzufügen.


28.01.2016, 37:50

Frage: Ich möchte für bestimmte Suchbegriffe (z.B. alle Artikel eines Shops) wissen, an welcher Position meine Websites bei einer Google Suche angezeigt werden und welche URL mit dem Ergebnis verlinkt ist. Um die Auswirkungen bestimmter SEO-Maßnahmen messen zu können, soll die Position für alle Begriffe in regelmäßigen Abständen (z.B. einmal im Monat) abgefragt werden. Welche programmgesteuerte Möglichkeit gibt es dafür? Ich habe es mit der Custom Search Api (CMA) versucht. Diese liefert aber andere Ergebnisse als die normale “manuelle” Google-Suche. Mit der CMA werden meine eigenen Sites gar nicht gefunden. Was muss ich bei den Einstellungen meiner CM Engine beachten

Antwort: Aus unserer Sicht sind solche automatischen Anfragen gegen unsere Terms and Services und sollten nicht gemacht werden. Nutzt lieber Search Console und die Suchanalyse. Überlegt nicht, was theoretische Rankings sind – sondern konzentriert euch auf echte Rankings. Denn Ergebnisse sind oft personalisiert und ändern sich daher – und dem wird in Search Console Rechnung getragen. Man kann SC Daten auch per API abfragen, um das Ganze etwas zu Automatisieren.


28.01.2016, 25:22

Frage: Gibt es demnächst neue Features in der Google Search Console für “normale Nutzer”. AMP ist ja doch schon ein Level höher.

Antwort: Wir versuchen, neue Funktionen nicht im Voraus bekannt zu geben. Aber für Beta-Tester gibt es immer neue Dinge zum ausprobieren.


28.01.2016, 24:25

Frage: Bilder liegen auf einer externer Domain (CDN). Diese Bilder werden in der Sitemap gelistet. Innerhalb der Search Console wird jedoch bei der Indexierung 0 angezeigt, da die Bilder ja auf einer anderen Domain liegen. Gibt es hierfür eine Lösung?

Antwort: Ich glaube, das ist bei Bildern allgemein so. Was man normalerweise machen kann, ist, dass man die andere Domain auch in SC verifiziert um die Infos auch dort zur Verfügung hat. Ich muss aber fragen, ob das auch bei Bildern funktioniert.


28.01.2016, 08:41

Frage: Die Grafik der Suchanalyse in der Search Console weist bei einigen Suchbegriffen große Lücken auf. Viele Tage haben keine Werte, offenbar war man in den SERPs nicht zu sehen. Warum? Ein zu schlechtes, nicht mehr erfasstes Ranking kann nicht die Ursache sein.

Antwort: Gerade diese Angaben beziehen sich auf das, was effektiv gezeigt wurde. Wenn eine Seite also nicht gefunden wurde, oder niemand nach dem entsprechenden Begriff gesucht hat, dann kann es eine Lücke geben, weil es keine Daten gibt. Wir schauen da ja nur, was bei wirklich stattfindenden Suchen passiert ist. Es kann aber auch sein, dass eine Seite nicht immer sichtbar ist, weil sie z.B. auf Seite 2 oder 3 gelistet ist. Schaut der Nutzer dann nur die erste Seite an, dann wird die Website nicht angezeigt und produziert keine Daten.


15.01.2016, 28:27

Frage: In der Suchanalyse gibt es nur das Länderlevel. Wird es für die lokale Suche auch irgendwann ein regionales Level oder ein Städtelevel geben?

Antwort: Ich habe von solchen Plänen nichts gehört, aber es hört sich sehr interessant an. Das werde ich dem Team mal vorschlagen!


14.01.2016, 21:59

Frage: Wird es in Search Console bald Statistiken für den “Install App” Button geben?

Antwort: Ich glaube, dass wir das in der letzten Woche eingeführt haben. Schaut doch einmal nach.


14.01.2016, 46:15

Frage: Frage zum Search Analytics Report in der Google Search Console: Über die API kann man auf bis zu 5000 Queries zugreifen. Nach welchen Kriterien werden die Queries ausgewählt, wenn es mehr als 5000 hat?

Antwort: Wir filtern solche, die ganz selten kommen, raus. Die Reihenfolge wird durch die Anzahl der Impressions erstellt. Aber ihr könnt die Filter weiter eingrenzen, z. B. nur auf mobile Anfragen oder auf Anfragen aus einem Land.


14.01.2016, 40:20

Frage: Die Suchergebnisse werden je nach Kontext des Suchenden (Ort, vergangenes Suchverhalten …) immer personalisierter. Wie genau können dann noch die Keyword Rankings in der Search Console dargestellt werden bzw. wie realistisch sind diese?

Antwort: Realistischer als ihr denkt. Das sind die Rankings, die effektiv gezeigt wurden, es ist nicht theoretisch. Wir zeigen genau, wie oft wir die Seite gezeigt haben und an welcher Position das im Schnitt passiert ist. Manche Suchen werden da aber aus Datenschutzgründen herausgefiltert. Und manche auch, weil sie extrem selten vorkommen.


14.01.2016, 36:11

Frage: Soll man den Wechsel der alten Domain zur neuen noch zusätzlich in der Seach Console melden?

Antwort: Das kann man bei 1:1 Wechseln machen. Bei neuen gTLDs kann es aber immer dauern, bis es diese Möglichkeit gibt.


14.01.2016, 23:31

Frage: Wieso wurde in Google Search Console die “Remove URLs” Funktion geändert? Wie kann man einen ganzen “URL-Folder” entfernen oder kann man nur URL für URL entfernen?

Antwort: Es wurde aufgrund von Feedback entfernt. Wir sind davon weggegangen, da es eher temporäre Entfernungen sind. Es hat sich nicht viel geändert, es wurde nur klarer gemacht. Man kann auch ganze Verzeichnisse oder Ordner entfernen, wenn man der verifizierte Webmaster ist. Öffentlich kann man nur einzelne URLs entfernen.


29.12.2015, 40:50

Frage: Gibt es einen Weg, um all die Daten aus der Suchanalyse herunterzuladen – und nicht nur die letzten drei Monate? Das wäre ein tolles Feature.

Antwort: Ich stimme zu, dass das ein tolles Feature wäre. Aber im Moment geht das nicht. Es gibt aber ein paar externe Tools, die diese Möglichkeit via API anbieten.


29.12.2015, 39:30

Frage: In Search Console haben wir nach dem Wechsel zu https fast alle URLs aus dem Indexierungsstatus verloren, in Analytics gab es aber keine solche Probleme. Was sollen wir tun?

Antwort: Das passiert oft. Wir fokussieren uns nur auf die Version, die ihr in Search Console angebt. Nach dem Wechsel geht also der Indexierungsstatus bei der einen Version runter, bei der anderen steigt er an. Ihr müsst also die https Version hinzufügen, dann seht ihr die URLs dort – und den Traffic auch.


29.12.2015, 31:17

Frage: Wir haben an zwei Tagen einen starken Abfall unserer CTR für Apps für all unsere Search Console Accounts – ohne dass wir die Search Appearance Filter genutzt hätten. Das war wenige Tage, nachdem die Filter eingeführt wurden, kann das daran liegen?

Antwort: Das weiß ich nicht, dazu müsste ich mir meinen Account mal genau ansehen. App Indexierung ist aber noch relativ neu, das heißt wir ändern viel und das kann zu starken Schwankungen in euren Daten führen. Das sollte sich aber auf lange Sicht beruhigen.


29.12.2015, 22:32

Frage: Für eine Website zeigt mir der robots Tester in Search Console an, das meine Seite durch die Regel “Disallow: *_lightbox.*” blockiert wird. Ist das ein Syntaxfehler?

Antwort: Ja, alle Allow- und Disallowlinien müssen mit einem / beginnen, dies müsste also zwischen dem : und dem * stehen, dann sollte es funktionieren.


17.12.2015, 40:38

Frage: Stimmt es, dass Google in der Search Console absichtlich nie ALLE Backlinks anzeigt, die bekannt sind? Bei Sites mit relativ wenigen Backlinks, z.B. 1000 von 100 Domains, könnte man ja theoretisch alle anzeigen.

Antwort: Systematisch ist es nicht so, dass wir alle Backlinks nehmen und dann immer nur einen Teil anzeigen. Wie versuchen, alle bzw. alle relevanten zu bringen. Aber es ist so, dass es bei vielen Seiten noch mehr Links gibt als die, die wir anzeigen. Man kann z.B. bei seitenweiten Links, wo vielleicht nur 5 von 1000 dargestellt werden. Das sind dann die, bei denen wir denken, dass sie am besten anzeigen, wie die Seiten verknüpft sind. Wir unterdrücken aber nichts mit Absicht, um SEOs in die Irre zu führen.


15.12.2015, 52:07

Frage: Ich frage mich, ob wir bei der Search Console API etwas falsch machen. Das Kontingent soll bei 2000 Requests die Sekunde liegen, aber wir bekommen nur 3 Requests pro Sekunde hin. Mit wem können wir uns in Verbindung setzen, um dieses Problem zu lösen?

Antwort: Ich glaube, das ist das normale Kontingent. Ich glaube, für die ganze API gibt es ein Kontingent von 10 QPS. Allerdings gilt das insgesamt für alle Features. Wenn ihr euch nur auf Search Analytics Daten fokussiert, dann liegt das Limit, so denke ich, bei 2 QPS.


03.12.2015, 19:00

Frage: Mir werden in Search Console unter Suchanfragen –> Nutzerfreundlichkeit auf mobilen Geräten fünf Fehler angezeigt. Wenn ich dann aber auf “Onlineversion prüfen” klicke, ist alles in Ordnung. Muss ich hier jetzt einfach abwarten, bis Google das aktualisiert?

Antwort: Ja, vielleicht. Es ist so, dass diese Fehler auf der Grundlage von dem berechnet werden, was wir beim letzten Crawlen gesehen haben. Wenn ihr in der Zwischenzeit etwas geändert habt, dann können wir das erst beim nächsten Crawlen herausfinden. Wir crawlen ja nicht die ganze Seite auf einmal, sondern immer mal wieder Teile davon. Also können wir solche Dinge nur schrittweise erkennen.


17.11.2015, 32:58

Frage: Wenn ich wichtige organische Suchterme in der Search Console und in Google Analytics aufrufen möchte, dann sind in Analytics bestimmte Terme mit “not provided” hinterlegt. Warum werden diese nur in Analytics markiert, in Search Console nicht?

Antwort: In Search Console werden diese Terme gar nicht erst angezeigt, daher können sie auch nicht mit “not provided” markiert werden. Die Daten an sich sind gleich, nur die Darstellung variiert.


17.11.2015, 00:29

Frage: Eine Website wurde von www.website.com auf website.com umgezogen. 301-Weiterleitungen wurden eingerichtet. Unser Kunde möchte die alte Version nun abschalten. Ich wollte den Umzug in der Search Console mit Hilfe des Change of Address Tools anzeigen. Es gibt aber für beide Versionen einen Search Console Account. Wie muss ich das Tool in diesem Falle nutzen?

Antwort: Beide Versionen der Website müssen in einem Account hinterlegt werden. Das ist für Google das Zeichen, dass ihr die Betreiber der beiden Sites seid. Danach könnt ihr dann das Change of Address Tool nutzen. Wenn es 301er gibt, dann ist das aber vermutlich gar nicht notwendig. Es mag eine Weile dauern, aber Google sieht diese Weiterleitungen und wird beginnen, die neue Version zu crawlen.


06.11.2015, 10:35

Frage: Search Console zeigt im Indexierungsstatus 2000 Seiten an. Wenn ich Google per site:domain.com durchsuche, sind es nur etwa 350. Das ist die korrekte Nummer an Kategorien, Seiten und Produkten. Warum passiert das?

Antwort: Dieser Unterschied kommt, weil beide Zahlen unterschiedlich generiert werden. Als Webmaster würde ich die Seitenabfrage nicht für so etwas nutzen. Der Indexierungsstatus beinhaltet alles, auch DC und andere Dinge. Wenn euch eine URL wirklich wichtig ist, dann packt sie in ein Sitemap File und ladet das bei Search Console hoch. Wir sagen euch dann jeden Tag, wie es um diese URLs bestellt ist.


05.11.2015, 19:21

Frage: Search Console zeigt viele Crawling Fehler mit aktuellem Datum. Der Broken-Link kann aber auf keiner der “Verlinkt über” Seiten gefunden werden. Könnte man nicht nur wirklich entdeckte 404er anzeigen? Wie wichtig ist der Report für’s Ranking?

Antwort: Für das Ranking ist das nicht wichtig, solange das keine URLs sind, die ihr in den SERPs sehen wollt. Wenn es einfach alte, kaputte URLs sind, dann ist das total normal. Aber andernfalls könnten sie aus dem Index fallen und ihr solltet das bereinigen.


27.10.2015, 07:20

Frage: Es gibt Berichte, das Search Console nun alte Nachrichten für neue verifizierte Benutzer anzeigt. Ist das neu? Kann ich jetzt alte Nachrichten sehen?

Antwort: Ich glaube nicht, dass das neu ist. Aber der schwierige Teil ist, dass es ganz auf die Nachricht ankommt. Manche werdet ihr als neue verifizierte Nutzer sehen, aber andere nicht. Ich weiß aber nicht, wie das aufgeteilt wird.


16.10.2015, 31:47

Frage: Beeinflussen interne Serverfehler (500) das Ranking? In Search Console werden mir viele solcher Fehler angezeigt, die von Seiten kommen, die ich per Noindex, Nofollow geblockt habe. Was kann ich tun?

Antwort: Ja, sie können das Ranking beeinflussen. Diese Fehler zeigen uns vielleicht, dass wir die Seite zu schnell crawlen, daher verlangsamen wir den Prozess dann. Vielleicht sehen wir sie auch als 404er und lassen sie aus dem Index fallen, wenn sie immer wieder auftreten. Wenn sie blockiert sind, dann werden wir das nicht sehen. Also versuche herauszufinden, wo die Fehler herkommen.


16.10.2015, 16:18

Frage: Was können uns die Crawl-Statistiken in Search Console aus SEO-Sicht sagen? Und sind zu viele interne Links vielleicht ein Problem?

Antwort: Ich glaube nicht, dass die meisten Seiten sich um interne Links kümmern sollten. Diese werden nur relevant, wenn wir die Seite nicht vernünftig crawlen können. Die Crawlstatistik: Die durchschnittliche Crawldauer einer Seite sollte nicht zu hoch sein, am besten unter einer Sekunde.


25.09.2015, 26:50

Frage: Sollen in Search Console künftig mehr Infos zu Penalties gegeben werden?

Antwort: Das wäre schön, momentan ist aber nichts dergleichen geplant.


24.09.2015, 50:38

Frage: Eine Adressänderung in der SC ist bei Protokolländerungen ja nicht möglich. Müssen wir außer den 301ern noch etwas beachten? Wir haben eine neue Property für die https:// Domain gemacht. Kann es hier zu Konflikten kommen?

Antwort: Das klingt gut, solange das Zertifikat korrekt funktioniert. Ansonsten muss man nicht mehr machen.


24.09.2015, 19:12

Frage: Warum werden URLs mit 410 von Google im Webmaster als Crawling Fehler ausgewiesen. Man sagt mit dem 410 doch, diese Seite gibt es nicht mehr. Das ist dann doch kein Fehler, oder?

Antwort: Aus unserer Sicht ist es ein Crawlingfehler, da wir die Inhalte nicht bekommen. Wir zeigen das an, falls es versehentlich passiert ist und der Webmaster dann Bescheid weiß – es ist kein Kriterium, dass eure Seite schlechter macht. Ihr müsst da nichts ändern.


11.09.2015, 31:51

Frage: Ein SC Crawlfehler zeigt 200 404er wegen wechselnder URL Struktur. Wir haben eine 301-Regel in htaccess geschrieben. Soll ich sie zum Index geben oder als Fixed markieren?

Antwort: Sie als erledigt zu markieren, bringt für uns gar nichts. Das ist nur für euch. Pack sie in die Sitemap oder gib sie in den Index, um den Prozess zu beschleunigen.


11.09.2015, 04:42

Frage: Wir haben eine Website, auf der man Werkzeuge ausleihen kann. In Search Console werden jede Menge Keywords angezeigt, u. a. “Werkzeug” und “leihen”. Trotzdem scheinen wir nicht damit zu ranken. Was ist da los?

Antwort: Was man dort in Search Console sieht, ist, welche Keywords Google auf den Seiten findet. Dieses Tool basiert auf dem Crawling. Es zeigt nicht an, was Google auf der Website als wichtig erachtet. Es ist im Prinzip eine Statistik, die zeigt wie oft der Googlebot bestimmte Keywords auf den Seiten gefunden hat. Ich würde das Tool nutzen, um zu prüfen, ob Google die richtigen Keywords auf den Seiten findet oder ob die Website vielleicht gehackt wurde (da würden dort unpassende Keywords gelistet werden).


10.09.2015, 50:36

Frage: Wir haben alle unsere 1.5Mio Seiten mittels schema.org (Produkte, Preise, etc.) bzw. data-vocabulary (breadcrumb) ausgezeichnet und validiert. Google zeigt in Search Console aber nur ca. 150.000 an, eher sogar mit fallender Tendenz. Was kann den hier falsch laufen?

Antwort: Ich denke, dass das einfach die Auswahl ist, die wir anzeigen. Wir zeigen eben nicht alle Seiten an, sondern nur die, die relevant sind. Das würde ich nicht als schlechtes Zeichen nehmen.


10.09.2015, 13:35

Frage: Ihr habt Ende 2014 die *Webmaster Tools Benutzer* nach Vorschlägen zu *Verbesserungen* befragt. Was wurde aus diesen Vorschlägen? Sieht man jene die umgesetzt werden? Gibt es hier nochmals Feedback? Wann startet die nächste Runde?

Antwort: Ich habe mir die Ergebnisse angesehen und festgestellt, dass Google einige Sachen noch nicht gemacht hat. Es sind aber viele Dinge dabei, die in nächster Zeit angegangen werden. Google versucht, diese Vorschläge zu priorisieren und dann umzusetzen, wobei es unabhängig von diesen Befragungen auch immer noch andere Dinge gibt, die gemacht werden müssen. Es gibt auch verschiedene Sachen, die aktuell eher nicht umgesetzt werden können.


08.09.2015, 43:17

Frage: Einer unserer Indexzähler in Search Console und den SERPs ist höher als unser eigener Crawlerzähler. Der Unterschied liegt bei über 15k + URLs, was fragwürdig ist.

Antwort: Das kann passieren, die Gründe können vielschichtig sein. Ich weiß auch nicht, warum ihr die Seiten selber zählt. Wenn ihr akkurate Daten haben wollt, solltet ihr die Site Query nicht nutzen – diese ist mehr für generelle Informationen gedacht. Zum Beispiel könnten Dinge wie Session IDs oder URL Parameter den Zähler hochjagen.


08.09.2015, 05:30

Frage: Am 23. August habe ich negative Trends in den verschiedenen Indexreports sehen können. Ich habe von deutschen Webmastern gehört, dass du in einem deutschen Hangout sagtest, dass es sich um reguläre Bewegungen handelt. Ich habe daraufhin ab dem 30. August wieder positive Trends ausmachen können und jetzt ist alles beim Alten. War das dieser Abfall, den du als regulär bezeichnet hast?

Antwort: Es handelte sich um einen normalen Datenfehler. Irgendetwas ist da schief gelaufen und es wurden daraufhin falsche Daten in der Search Console angezeigt. Das Problem hierbei war das Timing. Zur gleichen Zeit hat Google Veränderungen hinsichtlich der Darstellung in der Search Console vorgenommen.


28.08.2015, 01:32

Frage: Warum zeigt der “blockierte Ressourcen”-Report in Search Console eine Liste von blockierten Bildern, die gar nicht durch die Robots.txt blockiert werden?

Antwort: Das hört sich nach etwas an, wo ich mir ein konkretes Beispiel ansehen müsste. Generell beinhaltet der “Blockierte Ressourcen”-Report auch eingebetteten Content – d. h. wenn z. B. ein Bild in der Robots.txt blockiert wird, würde das im Report angezeigt werden.


14.08.2015, 58:34

Frage: Gibt es einen JavaScript Zugang zur Search Console? Und wenn es einen gibt, ist es möglich, Daten in mehr als einer Dimension zu ziehen? Ist es möglich, mehr als 1.000 Werte zu ziehen?

Antwort: Ja, das ist mithilfe der Search Analytics API möglich. Ich weiß nichts Spezielles über eine JavaScript API, aber ich denke, dass das mit dem regulären Framework möglich ist. Aktuell gibt es ein 5.000 Zeilen Limit.


14.08.2015, 25:55

Frage: Uns sind viele doppelte Titel in Search Console aufgefallen. Kann das zu Problemen führen?

Antwort: Wenn ihr viele Canonicals habt, die alle auf die Homepage verweisen, dann denken unsere Algorithmen, dass ihr sie falsch gesetzt habt. Dann werden wir sie vielleicht ignorieren, weil wir glauben, dass sie gar nicht da sein sollten. Die doppelten Titel in Search Console basieren auf dem, was wir crawlen. Nur weil etwas vielleicht Canonical oder Noindex hat, heißt das nicht, dass es nicht in Search Console auftaucht. Schaut es euch noch mal genauer an, aber ihr werdet wegen so etwas nicht herabgestuft – wir versuchen nur, euch viele Informationen zu geben.


14.08.2015, 25:28

Frage: Die ehemalige SEO-Firma meines Kunden hat versehentlich mehrere Parameter im Search Console Parameter Tool blockiert. Deshalb hat Google aufgehört, viele Seiten zu crawlen.

Antwort: Lösch diese Angaben einfach aus dem URL Parameter Tool und wir werden das beim nächsten Crawlen merken.


13.08.2015, 30:01

Frage: Wieso gibt es in Google Search Console keine Option, um einen Penguin oder Panda Algorithmus zu identifizieren ?

Antwort: Die Frage hören wir auch öfter, ich persönlich würde dort gern mehr Informationen über die Algorithmen bringen. Aber unsere Algorithmen sind für die Suche programmiert, nicht als Information für Webmaster. Es ist nicht so, dass wir keine Infos rausgeben möchten, aber die meisten dieser Infos sind nicht wirklich aussagekräftig und würden euch nicht immer helfen – gerade beim Panda geht es ja vor allem um Relevanz für ein Thema. Wir versuchen aber, euch, wo es geht, die Infos besser darzustellen und diskutieren das Thema immer wieder.


13.08.2015, 14:01

Frage: Nach der Umstellung einer Seite auf Https haben wir die neue Seite in der Search Console hinzugefügt. Soll die alte (http)-Version weiterhin in der Search Console liegen oder kann sie entfernt werden bzw. wann kann sie entfernt werden.

Antwort: Ich würde sie (http) eher noch in der Search Console belassen. Einfach aus dem Grunde, dass vielleicht irgendwelche Daten auftauchen, die für euch relevant sein könnten, für euch einsehbar sind. Das können z. B. Crawlingfehler sein, d. h. wenn z. B. die http-Version nicht sauber auf die Https-Version weiterleitet oder falls irgendetwas nicht mit dem Domainnamen stimmt – dann sieht man diese Sachen auf der http-Version in der Search Console. Auch kann es sein, dass Google Nachrichten verschickt und diese Nachrichten betreffen die http-Version (Beispiel: http wurde gehackt, Malware) – ist die http-Version nicht gelistet, erhält der Webmaster keine Nachricht. Aus der Sicht von Google ist es auch egal, ob man Hunderte von Domains im Search Console-Konto hat. Daher würde ich da nicht gezielt irgendetwas herauslöschen und nur noch die aktuellen drinnen behalten, sondern die verschiedenen Varianten drinnen lassen, sodass man all diese Informationen auch erhalten kann.


11.08.2015, 40:24

Frage: Haben Desktop/Mobile Serverfehler (5XX) Auswirkungen auf das Ranking? Mir ist aufgefallen, dass in der Search Console viele 5XX Fehler angezeigt werden, aber diese URLs sind größtenteils alle noindex. Aber warum werden diese von Google als Fehler ausgeben?

Antwort: Wir gehen davon aus, dass 5XX Fehler Serverfehler sind. Betroffene Pages werden nicht indexiert. Wenn eine Page einen Noindex-Tag hat, wird sie sowieso nicht indexiert. Die Fehler können Einfluss darauf haben, wie schnell Google crawlt. Wenn eine Website sehr viele 5XX Fehler ausgibt, dann kann es sein, dass Google zur Erkenntnis gelangt, dass die Website zu stark gecrawlt wird, was zu den vielen 5XX Fehlern führt. Google kann daraufhin unter Umständen die Crawlinggeschwindigkeit reduzieren.


11.08.2015, 35:56

Frage: Eine Website hat den Firmennamen und die Domain geändert. In den SERPs werden immer noch Ergebnisse mit der alten Domain angezeigt. 301-Weiterleitungen wurden eingerichtet. Muss ich das Adressänderungstool in der Search Console benutzen?

Antwort: Die Nutzung des Adressänderungstools in der Search Console ist definitiv eine gute Idee. Wir haben ein ganzes Set von Richtlinien in unserem Hilfecenter, die Webmaster mitteilen, was gemacht werden sollte, wenn eine Website von der einen Domain auf eine andere Domain umzieht. Ich würde diese Richtlinien durchgehen und prüfen, ob wirklich alles korrekt umgesetzt wurde. Was im Hinterkopf behalten werden sollte, ist, dass es eine ganze Weile dauert, bis die alten Resultate aus den Suchergebnissen verschwinden, wenn speziell nach der alten Domain gesucht wird. Das kann einige Monate oder auch ein Jahr dauern. Die gute Nachricht ist aber, dass, wenn jemand nach dem Firmennamen sucht, Google die neue Domain anzeigen wird.


11.08.2015, 17:13

Frage: Sind die Parameter in Search Console nur ein Anhaltspunkt für Google oder verbindlich? Sollte man sie mit robots.txt kombinieren, um Seiten vom Crawling auszuschließen?

Antwort: Grundsätzlich sind die Parameter in Search Console ein guter Weg, um uns zu zeigen, was im Index angezeigt oder gecrawlt werden soll – aber es ist keine komplette Blockierung. Wenn etwas wirklich blockiert werden soll, nutzt robots.txt als definitive Aussage.


31.07.2015, 55:45

Frage: Habt ihr darüber nachgedacht, die dreimonatigen Reportingintervalle zu verlängern?

Antwort: Darüber diskutieren wir die ganze Zeit. Aber wir müssen das mit unserem Ziel, immer wieder neue Features hinzuzufügen, ausbalancieren. Es ist außerdem nicht so einfach, den Speicherplatz so sehr zu erhöhen und dabei die Geschwindigkeit beizubehalten. Bei einigen Daten spielt auch die Angst vor Missbrauch eine Rolle – aber in den seltensten Fällen.


31.07.2015, 54:13

Frage: Search Console zeigt Links zwischen unseren beiden Seiten an (eine alte und eine neue), obwohl es keine gibt.

Antwort: Das sieht nach einem Darstellungsfehler in Search Console aus.


30.07.2015, 20:24

Frage: Gibt es eine Möglichkeit, den Verarbeitungszustand von Sitemaps etwas genauer einzusehen? Momentan sehe ich nur x-eingereicht / x-davon indexiert. Interessant wäre zu wissen, welche eben noch nicht indexiert sind.

Antwort: Im Moment kann man das nicht machen. Wir haben diese Bitte schon oft gehört und sind dabei, abzuklären, was man da besser machen kann. Es ist aber sehr schwierig, gerade bei großen Seiten. Man kann die Sammlung der Sitemaps aber so aufteilen, dass man logische Bereiche hat. Statt einer großen Sitemap für die ganze Seite also mehrere für verschiedene Kategorien – damit kann man sehen, welche Bereiche gut indexiert werden und welche nicht.


03.07.2015, 56:09

Frage: In der Search Console erhielt ich vor kurzem die Meldung “Property hinzufügen oder du erhältst keine Fehlermeldungen”, aber ich habe die Property bereits hinzugefügt und ich erhalte auch Meldungen. Ist die Nachricht eine Bekanntmachung oder gibt es Fehler meinerseits?

Antwort: Ja, es handelt sich nur um eine Bekanntmachung. Apps sollten immer auf diese Art und Weise verifiziert werden.


03.07.2015, 00:40

Frage: Search Console sagt uns, dass wir zu viele URLs haben. Wir haben eine E-Commerce-Seite mit vielen dynamischen Links. Die meisten der URLs haben wir via robots.txt blockiert, sie auf Noindex oder Nofollow gesetzt und Search Console so konfiguriert, dass sie blockiert werden. Aber jetzt haben wir die Nachricht wieder erhalten.

Antwort: Die Nachrichten werden gesendet, bevor wir die Seiten checken – sie sind nur technisch und haben keinen Einfluss auf die Algorithmen. Normalerweise sollten wir aber sehen, dass die Seiten in der robots.txt sind, schicke mir also mal bitte einen Link damit ich mir das anschauen kann. Du kannst auch ein Nofollow auf die Links selbst setzen.


02.07.2015, 27:57

Frage: In der Suchanalyse gibt es die Angabe Position = 0. Was bedeutet die 0? Beispiel: Vergleich der Positionen eines Keywords nach Mobile und Desktop zeigt bei Desktop Position 0. Rankings waren in dem Zeitraum jedoch vorhanden.

Antwort: Das klingt nach einem Bug in der Search Console. Das Team wird sich angucken, woher das kommt.


02.07.2015, 24:57

Frage: Letztes Jahr haben wir auf https umgestellt, alle http-Anfragen werden via 301-Weiterleitung auf https umgeleitet. Google sieht, dass es die neuen Seiten als https gibt. Seit drei Wochen sind Crawlingfehler in der Search Console zu finden, die die http-Version als Quelle haben. Ist das 301-Handling geändert?

Antwort: Wenn man sowas sieht, hat Google auf anderen Websites Links zur http-Version gefunden. Das ist aber kein Problem.


02.07.2015, 17:40

Frage: Die Search Console zeigt mir zigtausende Backlinks von einer Website an. Diese Backlinks gibt es aber gar nicht bzw. schon seit Monaten nicht mehr. Hat das einen negativen Einfluss auf mein Ranking. Was kann ich tun?

Antwort: Das sollte kein Problem sein. Es dauert immer etwas, bis das in der Search Console korrekt angezeigt wird.


30.06.2015, 37:34

Frage: Wir haben das Limit der anzeigbaren Webseiten in Search Console erreicht. An wen müssen wir uns wenden, um das Limit zu erhöhen?

Antwort: Es gibt ein Limit von 1000 Webseiten in Search Console. Wenn ihr das erreicht habt, braucht ihr einen weiteren Account. Oft macht es Sinn, einen Account als Archiv zu nutzen.


30.06.2015, 07:58

Frage: Wir haben mehrere Https Domains, die auf verschiedene Länder abzielen. Also müssen wir in Search Console je zwei Versionen für http und Https erstellen, oder?

Antwort: Das könnt ihr machen, wenn ihr wollt. Es macht vor allem Sinn, wenn ihr sicher gehen wollt, dass keine Daten fehlen. Aber normalerweise ist eine Version im Index, und das ist die, auf die ihr euch konzentrieren solltet.


19.06.2015, 49:15

Frage: Wird es innerhalb der Suchanalyse in der Google Search Console zukünftig die Möglichkeit geben, bestimmte Filter zu speichern? Aktuell muss man die Filter jedes Mal neu setzen, was ziemlich aufwendig ist.

Antwort: Ich bookmarke einfach die Page, wenn die Filter gesetzt sind. Da die Filter in der URL sind, kann man das Bookmark dann einfach beim nächsten Mal aufrufen und muss dann die Filter nicht neu setzen. Google arbeitet diesbezüglich aktuell an einer API.


17.06.2015, 15:20

Frage: Wir haben jetzt das neue Analytics, aber es zeigt nur 999 Keywords an. Da ich monatliche Reports für alle Keywords erstellen muss, möchte ich wissen, wie lange der Button „Zurück zu alten Search Queries“ aktiv bleiben wird.

Antwort: Wir wollen das irgendwann abschalten, ich weiß aber nicht wann genau. Ich denke in einigen Monaten. Wir werden bald immerhin von 999 auf 1000 Keywords hochgehen, aber wir planen nicht, alle Keywords anzuzeigen. Vielleicht solltest du dich in die API eintragen.


17.06.2015, 14:00

Frage: Wir haben immer wieder 500er Fehler und Google schickt uns Reports dazu mit einem Zeitstempel, der aber nur den Tag angibt. Ich bräuchte aber die Formate hh:mm:ss und tt:mm:jj um das Logfile richtig untersuchen zu können. Ist das möglich?

Antwort: In Search Console zeigen wir nur das Datum, ich glaube also, dass das nicht möglich ist. Aber du kannst es mal Hilfeforum posten, dann schaue ich, ob ich etwas spezifischeres finden kann. Vielleicht kannst du auch etwas in der Sitemap finden.


05.06.2015, 48:14

Frage: Nach meinem Redesign erkennt Search Console verbuggte Microformat-Markups: Auf jeder Seite fehlen dem Dateityp ‚hentry‘ die Attribute ‚Autor‘ und ‚Update‘. Ich habe keine Markups eingefügt, dies macht mein neues Theme automatisch. Soll ich die Meldung als falsch ignorieren?

Antwort: Wenn der Code falsch ist werden wir es ignorieren. Aber wenn dir solche Fehler angezeigt werden, solltest du sie trotzdem beheben, um Search Concole aufzuräumen.


04.06.2015

Frage: In den alten „Suchanfragen“ in Google Search Console war in der Ansicht eines Suchbegriffs eine Aufteilung der Impressionen nach den verschiedenen Positionen. In der neuen „Suchanalyse“ ist nur ein Durchschnittswert einsehbar, ist das korrekt?

Antwort: Das geht immer noch, wird aber separat dargestellt. Die gemischte Ansicht gibt es nicht mehr.


04.06.2015

Frage: Könnte eine Möglichkeit eingerichtet werden, eine Rückmeldung zu erhalten, wenn man Crawling Fehler in der Google Search Console „als korrigiert markiert“ hat? Auch die Option „Ja, das soll so“ wäre hilfreich. 404er sind ja nicht unbedingt schlecht.

Antwort: Aktuell ist diese Markiermöglichkeit nur eine Funktion für Webmaster in der Search Console. Für Google bzw. die Crawler von Google sind die Angaben, die dort gemacht werden nicht relevant. Längerfristig (nächstes Jahr) ist geplant, dass Webmastern die Funktion „Fehler ist mir bekannt – ist in Ordnung“ zur Verfügung gestellt wird.


02.06.2015, 34:32

Frage: Ich habe heute in die Search Console geschaut und war überrascht, dass einige Hundert URL-Entfernungsanfragen mit „expired“ markiert waren. Weniger als 1 Prozent hat den Status „entfernt“. Haben wir uns die ganze Arbeit völlig umsonst gemacht?

Antwort: Nein, das bedeutet eigentlich nur, dass die Algorithmen schon erkannt haben, dass die URLs aus dem Index sollen. Es dauert bis zu 90 Tage, bis die betroffenen URLs aus dem Index genommen werden.


02.06.2015, 16:40

Frage: Ich nutze die gdata-webmastertools-2.0 java library zur Keywordsuche. Der alte Login funktioniert nicht mehr, ich muss OAuth2 nutzen, aber das wird von der alten Bibliothek nicht unterstützt. Die neue API unterstützt keine Keyword-Daten. Gibt es einen anderen Weg?

Antwort: Ich kann dir Infos zur neuen API schicken, wenn du die alte nutzt, musst du die von uns vorgegebene APP-ID nutzen um das csv herunterzuladen.


02.06.2015, 15:00

Frage: Meine Firma ist beta-Tester für den neue Search Console API. Wir haben den NDA-Prozess durchlaufen und fragen uns, was die nächsten Schritte sind. Wo können wir mehr Details finden?

Antwort: Wir sind momentan noch dabei, Leute in die Teilnehmerlisten einzutragen, damit alle bereit sind, wenn wir es sind. Wir melden uns dann mit den nächsten Schritten.


02.06.2015, 14:40

Frage: Ändert ihr die URL für die Search Console, denn dort steht immer noch Webmaster Tools?

Antwort: Nein, damit wollen wir alle austricksen! Ernsthaft, wir haben viele Dinge auf unserer Liste, die wir noch ändern müssen. Und irgendwann werden wir vielleicht auch eure Hilfe anfordern, um alle Optimierungsfelder zu finden.

Inhaltsverzeichnis

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT