Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 10. Juli 2018:
PageRank
Zeit: 00:43
Frage: Wird PageRank auch in versteckten Links bei Mobile übertragen?
Antwort: Sicher. Wenn der Link im HTML ist, wird dieser mitgezählt. Wenn der Link jedoch nur in der Desktop-Version vorhanden ist, würde er durch das „Mobile First“-Indexing nicht gesehen werden.
Linkbuilding bei ähnlichen URLs
Zeit: 1:23
Frage: In Bezug auf ähnlich klingenden Domainnamen, die nur minimal variieren, hat das Auswirkungen auf die eigene Domain, besonders beim Linkbuilding?
Antwort: Nein, auch wenn Domainnamen ähnlich aussehen, sehen wir sie trotzdem als separate URLs an. Dort machen wir keine algorithmische Überlappung. Nur weil URLs ähnlich klingen, gehen wir nicht davon aus, dass sie gleich sind.
Search Console
Zeit: 03:04
Frage: Mir ist aufgefallen, dass in der Search Console im Crawl-Fehler-Bereich eine massive Spitze von 500er Fehlern von ein paar Hundert bis zu ein paar Tausend liegt. Diese Anomalie trat innerhalb eines Tages auf, bevor sie innerhalb weniger Tage in den typischen Bereich zurückging. In der neuen Search Console und den Leistungsberichten wird diese Spitze nicht angezeigt. Auf welche dieser Konsolenversionen sollte ich also vertrauen?
Antwort: Im Wesentlichen sind dies verschiedene Berichte. Wenn Ihr Euch also die Leistungsberichte in der neuen Version der Suchkonsole anseht, ist dies vergleichbar mit dem Abschnitt mit den Suchanalysen in der alten Suchkonsole, der Euch anzeigt, wie Eure Website in dieser Zeit performed. Die Crawler-Fehlermeldung zeigt an, was passiert, wenn wir während dieser Zeit versuchen, eure Website zu crawlen. Daher führen nicht alle Crawling-Fehler dazu, dass URLs aus den Suchergebnissen gelöscht werden, nicht alle Crawling-Fehler führen zu Änderungen im Ranking der Website oder einzelner Seiten. Oft nehmen wir ein paar dieser Crawling-Fehler in Betracht und sagen: „Nun, das sieht wie ein vorübergehendes Problem aus, wir werden es ein paar Tage später wiederholen.“ Und wenn wir es bis dahin wiederholen und es okay aussieht, dann passiert im Wesentlichen nichts im Index. Wir verpassen vielleicht ein paar Tage, um aktualisierte Inhalte von Eurer Website zu erhalten, aber es ist nicht so, dass wir eure alten URLs direkt rausschmeißen, wenn wir zum ersten Mal irgendein Problem sehen. Also insbesondere wenn wir 500er Fehler, auch teilweise 404-Fehler sehen und wir denken: „diese Seite war mal sehr wichtig, vielleicht ist sie es ja noch, wenn wir es nochmal versuchen“, dann behalten wir den alten Indexstatus. Wenn wir nach ein paar Tagen sehen, dass die Seite wieder gecrawlt werden kann, aktualisieren wir den Indexstatus erneut. Wenn wir sehen, dass diese Fehlerphase ein stetiger Zustand ist, der für immer bestehen bleibt, werden wir diese Seite aus unserem Index löschen und aus der Suche entfernen, da diese Seiten wahrscheinlich auch für Benutzer nicht funktionieren.
H2- und H3- Tags
Zeit: 5:41
Frage: Wird die Verwendung von H2- und H3-Tags zum Auflösen von Inhalten auf den Landing Pages die Rankings in irgendeiner Weise beeinflussen, anstatt nur den gesamten Inhalt unter einem H2-Tag zu haben?
Antwort: Ich denke es ist sinnvoll semantisches Markup zu verwenden, also verschiedene Überschriftenebenen, um Inhalte besser aufzulösen und ein wenig einfacher zu verstehen. Das hilft Suchmaschinen und Benutzern manchmal besser zu verstehen, welche Textstücke zusammengehören. Aus diesem Grund empfehle ich, diese Überschriften weiter zu verwenden. Bei Seiten mit verschiedenen Überschriften erwarte ich keine großen Veränderungen in den Rankings, aber es hilft uns die Dinge ein bisschen besser zu verstehen.
Verlinkung zu Landing Pages
Zeit: 07:02
Frage: Wir haben einige Filialseiten, die verschiedene Dienste anbieten. Aus diesem Grund haben wir für einige dieser Dienste eigene Landing Pages erstellt und verknüpfen diese mit der Filialseite. Ist das ausreichend oder sollten wir von der Landing Page zur Filialseite zurück verlinken, so dass der interne Link in beide Richtungen verläuft?
Antwort: Ich würde mich eher auf den Benutzer als auf den SEO-Standpunkt konzentrieren. Wenn wir diese Seiten crawlen können und sie in einer Weise verknüpft sind, dass sie uns Kontext geben, dann scheint das eine gute Sache zu sein. Es kommt darauf an, wie Eure Benutzer mit diesen Seiten interagieren. Dort würde ich einsteigen und darüber nachdenken, wohin der Nutzer von dieser Seite aus gehen möchte. „Werden sie am Ende direkt konvertiert?“ „Wünschen sie nur eine Telefonnummer, damit sie uns kontaktieren können?“ Bei all diesen Dingen handelt es sich im Wesentlichen um Mikrokonvertierungen, die Euch dabei helfen besser zu verstehen, wohin die Nutzer gehen, was sie gerade tun und wie ihr die Struktur Eurer Website so erstellt, dass die Benutzer dorthin gelangen, wo Ihr sie hingeleitet haben wollt.
Ranking von Landing Pages
Zeit: 8:16
Frage: Wir haben neue Landing Pages hinzugefügt. Wie lange dauert es, bis Google beginnt diese zu ranken?
Antwort: Sobald wir eine Seite indexiert haben, könne wir sie auch sofort ranken.
Im Laufe der Zeit, wenn wir mehr Signale über diese Seiten sammeln, die uns Ausschluss darüber geben, wo sie in den Kontext Eurer Website und des restlichen Webs gehören, können wir sie besser in den Suchergebnissen der richtigen Benutzergruppe anzeigen. Aber im Wesentlichen können wir eine Seite in den Suchergebnissen anzeigen, sobald wir diese indexiert haben.
RankBrain
Zeit: 9:56
Frage: Was ist RankBrain?
Antwort: RankBrain ist hauptsächlich ein Weg, die Anfrage eines Benutzers zu verstehen. Wir bekommen täglich Anfragen, die wir zum ersten Mal sehen, es sind ca. 15 % aller Anfragen, die das erste Mal auftauchen und für uns ist es wichtig zu verstehen, was der Benutzer versucht zu finden. Daher benutzen wir „Machine Learning“ (maschinelles Lernen), um herauszufinden, welcher Inhalt für den Benutzer relevant sein kann und was wir ihm am Ende dann in den Suchergebnissen anzeigen.
URL-Migration
Zeit: 11:18
Frage: Was wären die Auswirkungen, wenn der A/B-Test läuft, während eine groß angelegte URL-Migration gestartet wird? Alle alten URLs werden korrekt mit 301 zu den neuen URLs umgeleitet, aber der Googlebot wird manchmal zu Test-URLs umgeleitet, während die Migration aktiv wird, auch wenn diese Test-URLs ordnungsgemäß kanonisch zu den Kern-URLs sind. Könnte sich dies auf die Art und Weise auswirken, wie Signale weitergeleitet werden und möglicherweise die Zeit verlängern, in der die Volatilität auf der Seite liegt?
Antwort: Ich weiß nicht, ob dies zu größeren Problemen im großen Ganzen führen würde, da es sich bei einer A/B-Prüfung normalerweise um eine kleine Gruppe von URLs innerhalb einer Website handelt. Es ist nicht so, dass alle URLs auf eurer Website diese A/B-Tests durchführen, manchmal sehen wir eine URL und manchmal werden wir auf eine andere umgeleitet. Für kleine Gruppen von URLs sehe ich dort kein Problem, für größere Reihen von A/B-Tests würde ich versuchen, dies so weit wie möglich zu minimieren.
Vor allem für Site-Migrationen, wenn ihr zu einer anderen Domain wechselt, wenn Ihr innerhalb derselben Domain wechselt, wenn ihr zu HTTPS wechselt, all diese Dinge versuchen wir zu verstehen, wie das allgemeine Bild der Website aussieht. Zieht die Website von einer Domain zu einer anderen? Zieht sie komplett zu HTTPS um? Je klarer wir uns ein Bild davon machen können, was hier tatsächlich passiert, desto klarer können wir einen Algorithmus anwenden, um alle Signale, die wir von dieser Website haben, auf die neue Version dieser Website zu übertragen. Wenn ihr also während einer Website-Migration A/B-Tests durchführt und wir Umleitungen in eine Richtung sehen oder auch die Umleitungen der Website-Migration sehen, kann uns dies sicherlich in den Hintergrund drängen und den gesamten Umzug von einer Version zur anderen verzögern.
Hinzufügen mehrerer Seiten
Zeit: 16:56
Frage: Ich habe beobachtet, dass nach dem Hinzufügen von mehr als tausend Seiten zu meiner Website der Wert des vorhandenen Inhalts verwässert wurde. Wie viele neue Seiten braucht man, um diesen Effekt zu erzeugen und wie beschleunigt man einen "noindex" für diese neuen Seiten?
Antwort: Generell sollte das Hinzufügen neuer Seiten kein Problem darstellen, da man an sich einfach nur unterschiedliche Arten von Inhalt hinzufügt. Wenn Ihr jedoch alle diese Seiten hinzufügt und diese im Wesentlichen auf die gleichen Keywords abzielen, bedeutet dies natürlich, dass Ihr mit Euch selbst konkurriert und es für uns viel schwieriger ist den Kontext Eurer Seiten im gesamten Web zu verstehen. Das sollte man dabei nicht vergessen.
Die Anzahl der Seiten, die ihr in einem bestimmten Zeitraum hinzufügen könnt, ist unbegrenzt.
In Bezug auf die Verarbeitung von "noindex" für diese 1000 Seiten macht eine Sitemap-Datei Sinn, vorausgesetzt ihr könnt uns ein sauberes Datum der letzten Änderung an diesen URLs geben, um uns mitzuteilen, dass sich diese Seiten seit der letzten Bearbeitung geändert haben. Es ist so wie bei den Migrationen: Je klarer Ihr uns signalisiert, dass diese Seiten sich geändert haben, je wahrscheinlicher können wir dies auch umsetzten.
Meta-Robots-Tag
Zeit: 19:43
Frage: Wird Google ein Meta-Robots-Tag korrekt interpretieren, das über JavaScript implementiert wurde? In diesem Fall möchte ich den Großteil unserer nicht mehr lieferbaren Produktseiten einen "noindex" -Tag hinzufügen.
Antwort: Ja, wir können einen Robot-Noindex-Tag aufnehmen, das über JavaScript hinzugefügt wurde.
Wenn wir diese Seiten zum ersten Mal crawlen, wird das JavaScript natürlich nicht verarbeitet, daher haben wir dann dort kein noindex-Tag. Es kann also sein, dass wir diese Seite für eine Weile indexieren. Wenn wir das JavaScript dann verarbeiten und den noindex-Tag dort sehen, können wir diese Seite aus unserem Index löschen.
Linkjuice
Zeit: 21:34
Frage: Hat die Verwendung von Google UTM-Tracking-Links in URLs Auswirkungen auf den SEO-Linkjuice?
Antwort: Normalerweise ignorieren wir die UTM-Tracking-Links und konzentrieren und auf die primären URLs. Wenn wir direkte Links zu URLs mit UTM-Tracking-Links sehen, behandeln wir diese als normale Links und versuchen diese URLs mit diesen Parametern zu crawlen.
Ihr könnt dies mit dem Parameter-Handling-Tool in der Search Console steuern oder es hilft auch zum Beispiel eine URL zu verwenden, die auf einer Seite kanonisch ist. Im Allgemeinen bemerken wir diese Art von Dingen ziemlich schnell und wir nehmen einfach die URLs zusammen und behandeln sie als eins. Wenn Personen auf Eurer Website auf die UTM-Version einer URL verlinken, geht in der Regel nichts verloren. Ich würde mir deswegen nicht zu viele Sorgen machen. Wenn Ihr dies als aufwendig anseht, würde ich es einfach in das Parameter-Handling-Tool einfügen und sagen: „Google kann diesen spezifischen Parameter ignorieren und stattdessen nur die Haupt-URLs crawlen.“
Disavow-Datei
Zeit: 22:50
Frage: Welchen Einfluss hätte es, eine Disavow-Datei während einer Domain-Namensänderung nicht korrekt hochzuladen?
Antwort: Wenn wir die externen Seiten, die mit Eurer Seite verlinkt sind, neu crawlen und aufbereiten würden, würden wir diese in unseren Systemen als Links wieder zu den Signalen hinzufügen, die wir für Eure Website haben. Es würde wahrscheinlich passieren, dass wir eure Disavow-Datei nicht schrittweise verwenden würden, während wir die externen Seiten, die wir mit eurer Website verknüpfen, erneut verarbeiten. Und wenn Ihr die Disavow-Datei erneut hinzufügt, werden diese Links nach und nach auch von unserem Link-Graph gelöscht.
Bezogen auf „Mobile first“-Indexing: Wenn ihr eine m-dot-Domain habt, die der Desktop-Version entsprechen soll, solltet Ihr auch für die mobile Version die Disavow-Datei hochladen. Wenn ihr ein responsives Design verwendet, dann gibt es natürlich nichts Weiteres zu beachten. Wenn Ihr jedoch separate mobile URLs verwendet, muss die Disavow-Datei auch für den Fall vorhanden sein, wenn wir fürs „Mobile first“-Indexing auf die mobile Version wechseln.
Noindex
Zeit: 30:42
Frage: Was passiert mit meiner Website, wenn ich ein „noindex“ auf Produktseiten installiert habe?
Antwort: Wenn wir dieser Seiten erneut verarbeiten und den „noindex“ sehen, werden wir diese Seiten aus unseren Suchergebnissen löschen.
Big Players vs. kleine Websites
Zeit: 32:27
Frage: Unsere Website war über die letzten 5 Jahre führender Spezialist in einem bestimmten Sektor. Im letzten Monat sind unsere Rankings gefallen und wir vermuten dies geschah aufgrund anderer größerer Websites. Wir wissen, dass wir unsere Inhalte um das 10-fache erweitern müssen, aber einige dieser Websites bieten auch eine wirklich schlechte Anleitung zu wichtigen Themen für die Nutzer. Welche Maßnahmen unternimmt Google, die Spezialisten davor schützt, von großen Marken dominiert zu werden, wenn Qualitätsinhalte im Interesse kommerzieller Vorteile gefährdet sein könnten? Wie können wir zurückschlagen?
Antwort: Es ist immer schwierig, wenn man sich auf eine kleine Nische konzentriert und plötzlich Big Player dazukommen und diese Nische ebenfalls abdecken möchten.
Hierzu gibt es an sich keinen generellen Leitfaden, außer eben mit seinen eigenen Stärken zu spielen und zu zeigen in welchen Dingen Ihr besser seid, als einer der Big Players, also differenziert euch dementsprechend. Bezogen auf Suche: Wir gehen nicht einfach blind davon aus, dass größere Websites besser sind als kleinere. Wir müssen sicherstellen, dass wir eine Vielfalt von Inhalten in unseren Suchergebnissen anzeigen und das kann eine Vielfalt von großen und kleinen Websites sein. Das ist nicht unbedingt eine Situation, in der man aufgeben sollte und sich anders orientieren müsste. Aber man sollte fokussiert dranbleiben.
Listings
Zeit: 37:35
Frage: Sollten Listings Websites, wie z. B. Apartmentlistings oder Hotels die Anzahl der lokalisierten Seiten auf der Website erweitern, um Googles Verständnis ihrer Architektur und der Relevanz der Website für Near-Me-Anfragen besser zu vermitteln? Oder reicht es eine Seite zu haben, die die Ergebnisse für jeden Ort liefern kann?
Antwort: Vielleicht verstehe ich die Frage nicht richtig, aber ich denke nicht, dass es sinnvoll wäre separate Hotelseiten für Orte zu erstellen, an denen das Hotel nicht wirklich liegt. Ich denke das würde die Benutzer mehr verwirren, als es tatsächlich einer Website helfen würde. Auch unabhängig von SEO-Aspekten.
RSS
Zeit: 39:48
Frage: Zieht Google beim Indexieren von Nachrichten den RSS-Feed über die Google-Sitemap vor?
Antwort: Ich weiß nicht, wie Google News-Sitemaps derzeit mit den Änderungen auf der Google-Newssite bearbeitet werden, aber im Allgemeinen funktionieren beide. Mit RSS könnt ihr „Web Pub“ einrichten, mit dem ihr die Änderungen eurer Feeds so schnell wie möglich an Google senden könnt. Das könnte also eine Option sein. Und für beide habt Ihr normalerweise nur inkrementelle Seiten in diesen Feeds. Ihr habt also keine umfassende Liste aller URLs auf Eurer Website, sondern nur die, die kürzlich geändert wurden. Ich glaube die Google News-Sitemap hat ein Limit von 1.000 Seiten, während ein RSS-Feed nicht wirklich limitiert ist.
Content
Zeit: 41:52
Frage: Welche Reihe von Fragen würde Google überprüfen, um festzustellen, ob es sich um doppelte Inhalte handelt? Für den Kontext: informative Blog-Seiten, die unterschiedliche Blickwinkel auf Hauptthemen, wie beispielsweise das Waschen von Kleidung, bedienen.
Antwort: Wenn Ihr verschiedene Seiten mit unterschiedlichen Blickwinkeln betrachtet, handelt es sich nicht um doppelte Inhalte. Es ist im Wesentlichen separater Inhalt. Duplizierter Inhalt ist aus unserer Sicht normalerweise, wenn das Ganze eins zu eins kopiert wird. Wenn Ihr verschiedene Variationen eines Themas schreiben möchtet, ist das völlig in Ordnung. Es kommt mir so vor, als würdet Ihr viele verschiedene Inhalte mit denselben Keywords erstellen und möglicherweise qualitativ minderwertigere Inhalte erstellen, die für Nutzer nicht sehr brauchbar sind, wenn sich Artikel auf unterschiedliche Weise um dasselbe primäre Thema drehen. Also anstatt darüber nachzudenken, ob es doppelter Inhalt ist oder nicht, denkt lieber darüber nach, in wieweit dieses insgesamt einen Mehrwert im Netz bietet. Habt Ihr wirklich etwas Einzigartiges über die Art Kleider zu waschen zu sagen? Oder habt Ihr vielleicht 100 Variationen Kleider zu waschen? Vielleicht habt ihr ja als Waschmittelhersteller wahrhaftig einzigartige Informationen zu dem Thema? Oder als Bekleidungshersteller habt Ihr vielleicht etwas Einzigartiges über verschiedene Materialtypen oder verschiedene Schnitte oder was auch immer zu berichten? Es ist wichtig, dass der Inhalt einzigartig ist.
AMP vs. PWA
Zeit: 43:57
Frage: Um die Optimierung der Website für mobile Nutzer besser zu priorisieren, was empfehlt Ihr? A: eine AMP-Version der Site zu erstellen oder B: Erstellen einer PWA-kompatiblen Site?
Antwort: Ich weiß nicht, welche dieser Kinder ich als mein Lieblingskind wählen sollte. Dies sind im Wesentlichen zwei verschiedene Ansätze, durch welche ihr Websites für mobile Benutzer besser machen könnt. Eine AMP-Version können wir direkt in den Suchergebnissen anzeigen. Normalerweise ist das ziemlich einfach zu machen. Besonders wenn Ihr ein modernes CMS habt, könnt ihr einfach das WordPress-Plugin aktivieren, es einschalten, die Benutzeroberfläche ein wenig optimieren, so dass ihr gute AMP-Seiten habt. Die AMP-Version ist einfach einzurichten und zu starten. PWA hingegen ist normalerweise eine wirklich große Investition. Hier könnt ihr nicht einfach einen Plugin aktivieren, der die Website in PWA verwandelt. Das ist in der Regel eine ziemlich große Entwicklungsinvestition, bei der Ihr Eure Website tatsächlich neu gestalten und sie so neu erstellen müsst, dass sie im PWA-Stil funktioniert. Außerdem sind die meisten PWAs auf JavaScript-Frameworks aufgebaut, was bedeutet, dass Ihr die zusätzliche Komplexität einer JavaScript-basierten Website mit all diesen zusätzlichen Schwierigkeiten beim Crawlen, Rendern und Indexen habt. Beides hilft dabei die mobile Erfahrung zu verbessern, aber die Umstände dort hin zu kommen sind signifikant unterschiedlich.
Es kommt also drauf an, wieviel Zeit man für die Entwicklung hat. Es gibt sogar die Option PWA auf einer AMP Version zu kreieren, oder man entscheidet sich einfach für eine responsive Version der Website, statt AMP oder PWA. Er gibt also keine einzelne Antwort auf diese Frage. Man muss die verschiedenen Faktoren mit einbeziehen, die bei jedem individuell eine Rolle spielen.
Landing Pages
Zeit: 48:30
Frage: Eine E-Commerce-Website, eine Apotheke, verkauft verschiedene Stärken des gleichen Medikaments. Ist es besser die Medikamente auf getrennten Seiten oder auf einer Seite zu haben? Wie zum Beispiel das Medikament mit 20 Milligramm auf einer Seite und das mit 40 Milligramm auf einer anderen Seite?
Antwort: Falls die Leute nach dem Produkt speziell in den unterschiedlichen Variationen suchen, macht es Sinn auch unterschiedliche Seiten dafür zu machen. Wenn dies nur eine Art Attribut des Hauptprodukts ist, das Ihr bereits verkauft, würde ich diese Seiten kombinieren. Im Allgemeinen hat man mit weniger Seiten stärkere Seiten, was es für uns einfacher macht, diese in den Suchergebnissen zu ranken. Wenn Ihr also nicht wisst, ob es besser ist, eine Seite oder mehrerer Seiten zu machen, würde ich nicht scheuen eine stärkere Seite zu machen, anstatt mehrere Landing Pages für verschiedene Variationen zu haben. Vielleicht als Drop-Down, ähnliche wie wenn man ein T-Shirt kaufen will und die unterschiedlichen Farben auf der Seite des einen T-Shirts zu finden sind.
Ranking-Faktoren
Zeit: 50:19
Frage: Variiert der Ranking-Faktor basierend auf Anfragen oder auf der Basis von Seiten, oder beiden?
Antwort: Wir verwenden viele verschiedene Rankingfaktoren. Und sie ändern sich mit der Zeit. Sie ändern sich basierend auf Anfragen, Benutzern, Personalisierung, also vielen verschiedenen Dingen. Es ist nicht der Fall, dass ihr eine Gruppe von Rankingfaktoren erstellen könnt, die für eine bestimmte URL gültig sind oder die für eine Anfrage gültig sind, und davon ausgehen könnt, dass sich diese Rankingfaktoren nicht ändern. Diese Dinge ändern sich ständig.
Google Search Console
Zeit: 53:47
Frage: In der neuen Google Search Console gibt es einen Abschnitt namens "Indexabdeckung". In diesem gibt es einen Abschnitt namens „Ausgeschlossen“. Sagt Google hier, dass diese URLs von ihrer Suchmaschine ausgeschlossen sind?
Antwort: Normalerweise listen wir dort die einzelnen Gründe auf, warum einzelne URLs ausgeschlossen sind, was daran liegen könnte, dass es dort vielleicht einen noindex-Tag gibt. Vielleicht gibt es Crawling-Probleme oder andere Probleme mit diesen Seiten. Ich würde mir die einzelnen Abschnitte dort anschauen. Ich glaube wir haben auch eine Liste von einigen davon im Help-Center. Es ist nicht der Fall, dass jemand eure URLs manuell anschaut und sagt: "Diese ja, diese nein". Es gibt wirklich von unserer Seite aus Gründe dafür, wo wir sagen, einige davon wollen wir indexieren, einige wollen wir nicht indexieren und einige davon können wir nicht indexieren.
[su_youtube url="https://www.youtube.com/watch?v=asmUDAzWKdI"]
Constanze Bettendorf und Jochen Moschko