Deutsches Google Webmaster Hangout Transkript, 27.10.2015

von Michael Schöttler

Kategorie(n): Google Webmaster Hangouts Datum: 28. Oktober 2015

John Mueller ist zurzeit in Mountain View, daher hat er einen Hangout zu einer speziellen US-freundlichen Zeit abgehalten. Hier ist die Übersetzung, viel Spaß beim Lesen.

Thema: Rich Answers

Zeit: 00:28 Frage: Wir haben viel qualitativ hochwertigen Content, erscheinen aber nie in den Rich Answers. Woran fehlt es bei uns? Antwort: Das ist schwer zu sagen, ohne eure Seite zu kennen. Aber grundsätzlich ist es wichtig, dass wir die Inhalte erkennen. Vielleicht solltet ihr strukturierte Daten benutzen. Aber selbst dann zeigen wir es vielleicht nicht an - es gibt da keine Garantien. Ich glaube, für eure Seite zeigen wir manchmal das Snippet. Filtert die Search Query Informationen, dann könnt ihr das nachverfolgen. Aber wir zeigen auch nicht für alle Anfragen Rich Answers an. Es ist auch schwierig, weil manche Leute gar nicht wollen, dass ihre Seite in den Rich Answers angezeigt wird.  

Thema: Penalty

Zeit: 03:32 Frage: Ich habe mich grad mit einem Journalisten unterhalten. Er wollte etwas über einen Google Translate Penalty wissen - was sich für mich nach totalem Quatsch anhört. Kannst du dazu etwas sagen? Sind Leute vielleicht verwirrt, weil sie Autotranslate nutzen und dann an Duplicate Content denken? Antwort: Was soll das sein? Ich bin ziemlich sicher, dass wir keinen Translate Penalty haben. Aber wenn ihr Übersetzungsprogramme nutzt, dann sehen wir das vielleicht als autogenerierte Inhalte und dann kümmert sich das Webspam Team darum. Aber es ist nicht so, dass die Nutzung eines Übersetzers ein Problem darstellt - es ist nur der autogenerierte Content ohne Mehrwert.  

Thema: Analytics

Zeit: 05:58 Frage: Wie ist der Status beim not set für Google Analytics- und dem SEO Query Report? Antwort: Ich glaube nicht, dass es da einen Status gibt. Es ist einfach eine andere Betrachtungsweise. Wenn ihr euch die Anzahl der Anfragen anschaut, dann steht da vielleicht eine 100. In der Box darunter seht ihr aber vielleicht nur 70. Wir filtern die anderen heraus - das zeigen wir in Search Console nicht an, aber in Analytics wird das als not set angegeben. Es ist einfach die Differenz, die ihr selbst errechnen müsst, wenn ihr es euch nur in Search Console anschaut.  

Thema: Search Console

Zeit: 07:20 Frage: Es gibt Berichte, das Search Console nun alte Nachrichten für neue verifizierte Benutzer anzeigt. Ist das neu? Kann ich jetzt alte Nachrichten sehen? Antwort: Ich glaube nicht, dass das neu ist. Aber der schwierige Teil ist, dass es ganz auf die Nachricht ankommt. Manche werdet ihr als neue verifizierte Nutzer sehen, aber andere nicht. Ich weiß aber nicht, wie das aufgeteilt wird.  

Thema: Anzeigen

Zeit: 08:56 Frage: Wie können Verlage mehr Anleitungen im Hinblick auf mögliche Probleme bei Werbeanzeigen oder beim Sammeln von Nutzerdaten erhalten? Antwort: Ich glaube nicht, dass wir hier spezielle Anleitungen haben. Wir können nicht sagen, dass eine bestimmte Anzahl an Werbeanzeigen gut oder schlecht ist. Wir haben einmal über Anzeigen Above the Fold gesprochen, aber normalerweise ist das nicht statisch. Vielleicht könntet ihr ein paar clevere A/B Tests nutzen, um zu sehen, wo die Nutzer sich einbringen und wo sie abspringen. Wir nutzen das dann nicht direkt für die Suche, aber indirekt werdet ihr Ergebnisse davon sehen. Fokussiert euch nicht auf die Anzahl, wichtig ist die Präsentation und die Nutzererfahrung - so findet ihr die richtige Balance.  

Thema: Überoptimierung

Zeit: 12:22 Frage: Wir versuchen, unsere Seite auf das Wesentliche zu beschränken und weniger Inhalte anzubieten. Wir nehmen Dinge aus dem Index, die keinen Traffic haben. Aber wir haben noch viele keywordreiche Titles - sollen wir den Firmennamen in das Title Tag packen, damit es nicht so überoptimiert aussieht? Antwort: Dazu fällt mir spontan nicht viel ein. Es ist schwierig, wenn ihr viele überoptimierte Inhalte habt, die zwar für SEO toll sind, aber nicht für die Nutzer. Es ist schwer, da gute Hinweise zu geben - aber versucht, neue Inhalte natürlicher zu machen. Es ist schwer zu sagen, ob keywordreiche Inhalte mit vielen Nutzersignalen zu einem Panda Problem führen können. Das kommt auf eure Situation an.  

Thema: Seitenumzug

Zeit: 16:27 Frage: Wir ziehen unsere Seite auf eine neue Domain um. Sollen wir auch das Disavow File der Originalseite auf der neuen Seite hochladen? Antwort: Ja! Ich würde das Disavow und den Seitenumzug gleichzeitig machen.  

Thema: Seitenumzug

Zeit: 17:40 Frage: Wenn man die Domain nach der Umstellung auf HTTPS wechselt, nutzt man dann 301 oder 302? Wir lange dauert es, bis unsere Seite nach Änderungen am Inhalt in den SERPs aufsteigt? Antwort: Wenn ihr die Domain / URL langfristig ändert, dann nehmt immer 301. 302 führt zwar nicht zu Problemen, aber 301 ist für uns deutlicher. Änderungen werden meist fortlaufend gesehen, wann immer die Algorithmen eure Seite crawlen. Aber wenn sich viel ändert, dann kann es etwas dauern, bis das alles erkannt ist. Manchmal kann es sogar schneller gehen, wenn ihr eine neue Seite startet. Wie wenn ihr ein Geschäft mit einem schlechten Ruf habt und dann alles ändert - vom Besitzer bis hin zum Angebot - aber im gleichen Gebäude bleibt. Dann brauchen die Leute eine Weile, um zu sehen, dass ihr nun ein neues Geschäft mit anderen Werten seid.  

Thema: _Escaped_fragment_

Zeit: 22:10 Frage: Wird die Abschaffung von _escaped_fragment_ zu einem besseren Angular Crawling führen? Vor 6 Monaten wurde unsere Angulare Site im View as Google Tool richtig angezeigt - aber nicht richtig gecrawlt. Läuft das Crawlen jetzt besser? Wenn nicht, was sollen wir tun? Antwort: Ja, das Angular Crawling ist noch nicht fertig und wird verbessert. Wenn ihr viel JavaScript habt, dann geht sicher, dass wir es sehen können - vielleicht mittels Fetch as Google. Ich denke, dass wir _escaped_fragment_ noch eine Weile unterstützen werden, da es von vielen Seiten genutzt wird.  

Thema: Überschriften

Zeit: 24:08 Frage: Wir haben unsere Inhalte unter einer H2. Sollten wir die Unter-Überschriften im Text als H3 deklarieren? Wie sehr sind H2 bis H5 ein Ranking-Signal? Kann man Links als H-Tags darstellen? Antwort: Sie helfen uns dabei, die Struktur der Seite zu verstehen, geben euch aber keinen fantastischen Ranking-Boost. Und nutzt es nicht aus, indem ihr zum Beispiel alles unter H1 packt.  

Thema: SiteLinks

Zeit: 25:06 Frage: Wie können wir Google dazu bringen, SiteLinks für unsere Seite anzuzeigen? Antwort: Dies sind die kleinen Links, die wir manchmal unter den Suchergebnissen anzeigen. Es hilft uns, wenn ihr eine klare Struktur habt, damit wir die Zusammenhänge eurer Seiten erkennen können. Aber es gibt keine Garantie. Wir zeigen sie nur, wenn wir der Meinung sind, dass es Sinn macht. Wir werden sie beispielsweise nicht anzeigen, wenn eure Seite sehr klein ist oder die Nutzer eh immer nur zur Homepage gehen.  

Thema: Überschriften

Zeit: 26:04 Frage: Auf unserer E-Commerce Seite haben wir eine Kategorieseite, die als H3 Links zu unseren Produkten anzeigt. Ist das ok? Antwort: Das ist total ok. Ich würde nicht sagen, dass das zu Problemen führen kann. Wenn es für euch passt, dann macht es.  

Thema: Ranking

Zeit: 26:29 Frage: Meine Seite und die meines Konkurrenten sind Affiliates derselben Firma. Obwohl ich mehr einzigartige Inhalte, Links etc. habe, bekommt er 10 Mal so viel Traffic. Der einzige Unterschied ist, dass wir uns letztes Jahr von einem Penalty erholt haben. Wie kann das sein? Antwort: Das ist in solchen Fällen schwer zu sagen. Wir nutzen viele Signale für die Suche, und wenn zwei Seiten ähnlich sind, dann sagt uns das Team, dass es für den Nutzer egal ist, welche angezeigt wird. Dann versucht, Dinge zu finden, wo ihr klar besser seid als die Konkurrenz. Dann können wir das dem Team sagen und zeigen, dass etwas falsch läuft.  

Thema: Redirect

Zeit: 28:13 Frage: 301er zu einer URL können auch als 404er gewertet werden. Wenn wir die 301er neu ausrichten, seht ihr sie dann wieder als 301 und gebt den Linkjuice weiter? Antwort: Vielleicht... . Das ist schwer zu sagen, da ich die Zusammenhänge nicht kenne. Aber grundsätzlich sind viele Weiterleitungen zu einer Seite ein Zeichen, dass die Seite nicht mehr existiert. Dann zeigen wir sie in Search Console als 404er - diese sind grundsätzlich kein Problem. Wenn ihr die URL geändert oder die Inhalte verschoben habt, dann nutzt immer eine 301.  

Thema: Quellen

Zeit: 29:33 Frage: Wenn man viele Quellen einfügt, sollte man diese dann per Fetch as Google schneller in den Index bringen, oder würde euch das bei vielen Quellen Probleme verursachen? Antwort: Grundsätzlich fokussieren wir uns da nicht drauf. Wenn ihr Inhalte ändert, die schnell in den Index müssen, dann könnt ihr Search Console so nutzen. Aber nur, weil ihr Quellen einfügt, ändert das ja nicht eure ganze Seite (außer diese sind eure einzigen Inhalte). Das ist nichts, worüber ich mir Sorgen machen würde.  

Thema: Penguin, Phantom

Zeit: 30:25 Frage: Es wäre super, wenn es mehr Informationen zum Penguin (oder Phantom) Update geben würde. Ich habe gelesen, dass das Update besonders How-to Websites getroffen hat. Unsere Website (thecakegirls.com) ist eine Kombination aus eCommerce und Do-it-yourself. Antwort: Bei Pinguin handelt es sich um einen Webspam Algorithmus. Wenn eure Website Webspam Probleme hat, dann erkennt der Pinguin Algorithmus diese. Diese Probleme können gelöst werden, indem Links entfernt werden oder das Disavow Tool genutzt wird. Ich bin mir nicht sicher, was mit dem Phantom Update gemeint ist. Google ändert und passt seine Algorithmen ständig an. Keine Änderungen in Search zu sehen wäre unnatürlich.  

Thema: Panda

Zeit: 31:29 Frage: Viele How-to Publisher wurden negativ von Panda Updates und anderen Qualitätsupdates getroffen. Gibt es ein Problem mit How-to Inhalten? Gibt es einen Grund, warum How-to Publisher überproportional betroffen sind? Antwort: Es gibt kein spezifisches Problem mit How-to Inhalten. Was wir jedoch bemerkt haben, ist, dass es eine Menge Content von schlechter Qualität gab. Viele Webmaster haben gut aufgeräumt. Unsere Algorithmen suchen nicht nach speziellen Websites, um diese dann schlecht ranken zu lassen. Google versucht die Algorithmen so generisch wie möglich zu gestalten, um sicherzugehen, dass sie für das gesamte Web funktionieren.  

Thema: Websiteverbesserungen

Zeit: 32:44 Frage: Hast du einen Rat für How-to Websites, die durch die Algorithmen negativ getroffen wurden? Antwort: Das ist schwierig. Es kann schwer sein, die hochwertigen Inhalte auf How-to Websites zu erkennen, da es sehr viel User Generated Content um sie herum gibt. Es kann sinnvoll sein, zu schauen, wie Nutzer mit und auf der Website interagieren. Wie lange bleiben sie? Welche Teile der Website werden besucht? Es ist schwierig, aber ihr solltet herausfinden, welche Pages als Low Quality Content gesehen werden und verbessert werden sollten. Ebenso sollte ermittelt werden, welche Pages über hochwertigen Content verfügen und eventuell mehr Werbung benötigen könnten.  

Thema: Websiteverbesserungen

Zeit: 34:25 Frage: Hast du noch mehr Vorschläge betreffend der Verbesserung von How-to Websites? Antwort: Das ist schwer. Vieles ist abhängig davon, wie der Zustand der Website aktuell ist. Das Zusammenfassen von Inhalten und die Erstellung von hochwertigem Inhalt basierend auf den von Usern generierten Inhalten sind gute Arten, eine How-to Website zu verbessern.  

Thema: Websiteverbesserungen

Zeit: 35:39 Frage: Wir sehen es als Erfolg an, wenn jemand eine unserer How-to Pages besucht und z. B. lernt, wie man Schuhe schnürt. Wir messen Erfolg dahin gehend, dass die User die Website glücklich verlassen, nicht dahin gehend, ob sie sich weitere Pages anschauen. Ist das eine gute Art Erfolg zu messen oder sollten wir es als Erfolg ansehen, wenn ein Nutzer auf unsere Website zurückkehrt, um nach mehr How-tos zu suchen? Antwort: Das hängt von der Website ab. Für einige Websites kann es Sinn machen, wenn Nutzer mehr mit der Website interagieren. Für andere Websites kann es sinnvoller sein, wenn sich Nutzer an die gute Erfahrung erinnern und dann bei Google nach der Website und ihrem Problem suchen (z. B. how-to.de Schuhe binden). Es gibt keine Regel, die für alle Websites gilt. Man kann z. B. nicht sagen, dass die Nutzer eine bestimmte Zeit auf der Website verweilen sollten.  

Thema: Websiteverbesserungen

Zeit: 37:45 Frage: Ist das generelle Problem hier nicht, dass diese Websites gar nicht spezialisiert sind, sondern Generalisten sind - und das sie nicht für alles auf #1 ranken können? Antwort: Das ist ein guter Punkt. Ich denke, es wäre eine gute Idee zum Thema User Generated Content einen gesonderten Webmaster Hangout anzubieten.  

Thema: Strukturierte Daten

Zeit: 40:54 Frage: Wir fügen für jede Page strukturierte Daten ein. Kann man zu viele strukturierte Daten einfügen? Kann das zu einem Problem führen, welches wiederum dazu führt, dass Google die Website mit einem Penalty belegt, weil Google denkt, dass die Website spammy ist? Antwort: Ihr könnt nicht zu viele strukturierte Daten einbinden - jedenfalls nicht in dem Sinne, dass daraus negative Folgen (für das Ranking) entstehen. Das Einfügen von sehr vielen Daten kann aber dazu führen, dass die Website langsam ist. Die Websitepflege ist dann viel Arbeit. Versucht nur die Entities zu verwenden, die für die Website am wichtigsten sind. Alternativ könntet ihr euch auf die Elemente beschränken, die in den Rich Snippets auftauchen.  

Thema: Lokaler Content

Zeit: 42:21 Frage: Wenn wir via JavaScript lokalen Content bereitstellen (basierend auf der Location des Users) nachdem eine Page geladen wurde: Ist das Cloaking, da die Website diese Information normalerweise nicht beinhaltet? Antwort: Das ist kein Cloaking. Es könnte allerdings sein, dass Google den Content nicht separat indexieren kann.  

Thema: Disavow Datei

Zeit: 43:11  Frage: Wenn eine Domain oder ein Link aus der Disavow Datei entfernt wird - bedeutet dies, dass der Link automatisch wieder berücksichtigt wird, wenn Google die Website crawlt? Gibt es dafür einen bestimmten Zeitrahmen? Antwort: Der Link wird das nächste Mal berücksichtigt, wenn Google die linkende Website das nächste Mal crawlt.  

Thema: Indexierung

Zeit: 43:44 Frage: Kann das Versehen einer Page mit dem noindex Tag negative Auswirkungen auf die Seiten haben, die auf diese Seite zeigen? Werden diese ebenfalls aus dem Index entfernt? Antwort: Nein, das sollte keinen Effekt auf die Seiten haben, die auf die vom Index ausgeschlossene Seite zeigen.  

Thema: H-Tags

Zeit: 44:24 Frage: Hat es irgendeinen positiven SEO Effekt, wenn die H-Tags zu Beginn des Bodys im HTML-Code eingebunden werden? Antwort: Wir nutzen die H-Tags, um die Struktur eines Textes auf einer Page besser zu verstehen. Man erhält aber keinen magischen SEO Vorteil, wenn man sie nutzt. Google mag es jedoch, eine saubere Überschrift zu sehen. Man muss sie aber nicht auf absolut jeder Page haben, um in Search angezeigt zu werden.  

Thema: Interne Links

Zeit: 45:06 Frage: Wie wichtig ist der Ankertext bei internen Verlinkungen? Sollten sie reich an Keywords sein? Handelt es sich um eine Ranking Signal? Wie sieht Google das? Antwort: Wir nutzen die internen Links, um die Inhalte einer Website besser verstehen zu können. Die Ankertexte müssen nicht mit Keywords vollgestopft werden. Versucht natürlich zu verlinken!  

Thema: Google Maps

Zeit: 46:04 Frage: Wenn ich die Option "Fetch as Google" in der Search Console nutze, erhalte ich die Meldung, dass der Googlebot durch die robots.txt von Google Maps ausgeschlossen ist. Bedeutet dies, dass die Einbindung von Google Maps Ausschnitten auf meiner Website keine SEO Effekte hat, da Google dies blockiert? Antwort: Vielleicht. Wenn Google Maps aktuell durch robots.txt blockiert wird, dann kann der Inhalt, der in Google Maps dargestellt wird, nicht von Google für die Indexierung / für das Ranking genutzt werden. Wir verstehen den Rest der Seite meistens trotzdem - aufgrund der umgebenen Inhalte. Wenn die meisten Inhalte allerdings direkt auf der Karte bereitgestellt werden (z. B. die Markierung einzelner Filialen in Form von Pins auf der Karte) und Google Maps blockiert wird, dann wird es schwierig. In diesem Fall wäre es hilfreich, wenn die Informationen nicht nur auf der Google Maps Karte, sondern auf der Seite an sich bereitgestellt werden würden - z. B. in Form einer Auflistung der Filialen mit Links zu den Pins auf der Karte.  

Thema: Entfernung von Inhalt

Zeit: 48:10 Frage: Google sagt, dass es besser ist, Inhalt auf noindex zu setzen, statt Inhalte zu entfernen. Wenn viele Pages entfernt werden müssen - wäre es dann besser diese mit Pages zu ersetzen, die die Nachricht "Inhalt entfernt" zeigen - statt der 404 Fehlerseite? Antwort: Google präferiert, 404 Seiten zu sehen, da es den Googlebot davon abhält, diese Seiten ständig zu crawlen. Am Ende behandelt der Googlebot die noindex Pages vermutlich als Soft 404er. In Bezug auf das Crawling ist es besser, saubere 404er zu haben.  

Thema: Wettbewerb

Zeit: 48:51 Frage: Als kleines Business werden wir es nie schaffen, so starke Links wie die großen Websites zu erhalten. Abgesehen davon, großartigen Content zu produzieren, Social Media zu bedienen und eine gute Website zu haben - was können wir noch tun? Aktuell haben wir Probleme im Wettbewerb mitzuhalten. Antwort: Wir sehen oft, dass kleine Firmen, die gerade ins Geschäft einsteigen, versuchen, mit bereits etablierten, großen Marken mitzuhalten. Das ist vermutlich keine gute Strategie, da ihr nie die gleichen Ressourcen haben werdet wie die großen Marken. Wenn ihr etwas Individuelles zur Verfügung stellt, das die Großen nicht haben - versucht dies in den Vordergrund zu stellen.  

Thema: Invalides HTML

Zeit: 50:57 Frage: Wenn der Googlebot eine Seite crawlt - was passiert, wenn er auf eine HTML Fehler (invalides HTML) stößt? Kann dies zu einer Abwertung von Teilen der Seite führen? Kann dies indirekt die Rankings beeinflussen? Antwort: Im Idealfall ist das HTML immer valide. Es hilft Google dabei, eine Seite richtig zu verstehen. In der echten Welt haben die meisten Seiten Fragmente mit invalidem HTML. Der Googlebot ignoriert diese Seiten nicht vollständig - er versucht trotzdem, die Seite zu verstehen und zu ranken. Manchmal ist das einfach, manchmal ist das schwierig. Solange die Seite im Browser geladen werden kann, kann der Googlebot normalerweise damit klarkommen.  

Thema: JavaScript / HTML

Zeit: 52:43 Frage: Erhält eine Website einen Penalty für Cloaking, wenn Google das JavaScript anders interpretiert als die HTML Variante? Antwort: Nein, das führt nicht zu einem Penalty. Wir sehen manchmal, dass Websites das falsch machen und eine Version bereitstellen, die sehr reduziert ist. Das ist erst problematisch, wenn sie keine Navigation enthält, sondern nur den Text. Dann kann Google die Website nicht korrekt crawlen.  

Thema: RankBrain

Zeit: 53:50 Frage: Kannst du ein wenig ins Detail gehen, worum es bei RankBrain geht? Antwort: Ich kann nichts über RankBrain mitteilen, dass nicht schon in den Nachrichten berichtet wurde. RankBrain läuft bereits seit einiger Zeit und es dient dazu, bestimmt Anfragen besser zu verstehen.  

Thema: RankBrain

Zeit: 54:48 Frage: Glaubst du, dass Webmaster oder SEOs bald überflüssig sein werden? Antwort: Ich weiß es nicht. ;) Ich denke nicht, dass Webmaster, SEOs oder Search Ingenieure in Zukunft überflüssig sein werden. AI Algorithmen können uns helfen, alles einfacher zu machen.  

Thema: RankBrain

Zeit: 55:30 Frage: Kannst du RankBrain ein wenig erklären? Antwort: RankBrain versucht lange, einzigartige Suchanfragen besser zu verstehen. 15 % der Anfragen pro Tag fallen in diese Kategorie (aka Suchanfragen, die Google bisher noch nie gestellt wurden). Manchmal ist es für Google schwierig, zu ermitteln, welche Ergebnisse angezeigt werden sollten. Der RankBrain Algorithmus hilft Google, diese Anfragen besser zu interpretieren.  

Thema: Manuelle Abstrafungen

Zeit: 58:07 Frage: Einer meiner Kunden hat eine Domain gekauft und wir haben später rausgefunden, dass diese mit einer manuellen Abstrafung belegt war. Wir sind durch den ganzen Prozess mit Linkentfernungen und wollten dann einen Reconsideration Request einreichen. Vor einigen Tagen ist uns dann aufgefallen, dass die Nachricht über die manuelle Abstrafung nicht mehr in Search Console vorhanden ist. Hast du eine Ahnung, was da passiert ist? Antwort: Ich weiß es nicht. Vielleicht ist sie abgelaufen. Wenn eine manuelle Abstrafung abläuft, senden wir keine Nachricht an die Webmaster.  

Thema: Manuelle Abstrafungen

Zeit: 1:00:20 Frage: Wie führen wir einen Reconsideration Request durch, wenn es die Option nicht mehr gibt? (Grund: Nachricht über Abstrafung ist aus Search Console verschwunden.) Antwort: Ihr braucht keinen Reconsideration Request durchführen, wenn ihr keine manuelle Abstrafung mehr habt. Es ist aber immer eine gute Idee, (Links) aufzuräumen.  

Thema: JSON-LD

Zeit: 1:05:24 Frage: Ich habe JSON-LD in alle meine WordPress-Posts eingebunden und anschließend festgestellt, dass Bing dieses Format nicht unterstützt. Warum promotet Google einen Standard, der nicht in der ganzen Industrie gängig ist? Antwort: Einen Aspekt, den man im Hinterkopf behalten sollte, ist, dass JSON-LD noch ziemlich neu ist. Wählt aus, was für euch passt und nicht unbedingt, was am besten für die Suchmaschinen ist.  

Thema: HTTP/2

Zeit: 1:06:25 Frage: Gibt der Googlebot einen Geschwindigkeitsbonus, wenn HTTP/2 verwendet wird, weil es sehr viel schneller ist als HTTP? Antwort: Nein, es gibt keinen Geschwindigkeitsbonus dafür, der sich in den Rankings bemerkbar macht. Wenn Google die Seiten aber schneller crawlen kann, dann kann der Googlebot vermutlich mehr Seiten der Website crawlen und indexieren.   Den ganzen Hangout könnt ihr euch hier ansehen: