Google Webmaster Hangout Transkript, 15.06.2018

Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 15. Juni 2018:

Structured Data

1:01

Frage: Was ist die richtige Methode für ein dienstleistungsbasiertes Unternehmen, um Structured Data so einzusetzen, dass Bewertungen für ihre einzelnen Serviceseiten angezeigt werden?

Antwort: Im Wesentlichen sollte sich die Bewertung auf das Hauptthema der Seite beziehen. Wenn Ihr zum Beispiel ein Autohändler seid und Ihr habt ein bestimmtes Automodell auf Eurer Website und die Seite handelt über dieses Automodell, dann sollte die Bewertung über eben dieses Automodell sein und für jeden sollte es auch möglich sein, an dieser Stelle Bewertungen abzugeben.

 

Qualität von Inhalten

3:30

Frage: Auf unserer Tech-News-Website haben wir einige neue Artikel veröffentlicht, doch wir beobachten seit einer Weile, dass die Seite in der Suche immer weiter abfällt. Was können wir gegen dieses Problem unternehmen?

Antwort: Ich habe mir die Seite im Allgemeinen mal angeschaut und an sich macht Ihr keine Fehler, die man konkret definieren könnte. Die Änderungen in der Suche basieren in erster Linie darauf, in wie fern Eure Website aus unserer Sicht in den Suchergebnissen relevant sein könnte, das beinhaltet Dinge, wie die Qualität der Website insgesamt oder wie Ihr Eure Website präsentiert.

Das Phänomen trifft oft gerade bei solchen Tech-News-Websites auf, da dort die Tendenz besteht, dass Inhalte, die man schon oft auf vielen anderen Websites findet, wiederholt werden. Dabei entsteht auch viel Inhalt mit geringerer Qualität, welchen unser Algorithmus höchst wahrscheinlich im Laufe der Zeit aufnimmt und als kritisch ansieht.

Die Lösung ist, hier Inhalte auf Ihre Qualität zu prüfen und Feedback von allgemeinen Usern zu generieren und dieses in die Website zu implementieren. Auch sollte der Inhalt individuell sein und sich von anderen Inhalten absetzen.

 

Q&A-Websites

10:27

Frage: Warum verlieren wir Traffic? Wir machen kein Cloaking, kein Link-Bulding oder machen irgend etwas anderes, was als schlecht angesehen werden könnte. Es ist uns gelungen, die Sitzungsdauer, die Geschwindigkeit der Conversion-Rate-Seiten und andere Kennzahlen für das „Engagement“ zu verbessern. Die Website fällt jedoch regelmäßig ab. Ich habe mich gefragt, ob etwas kaputt ist oder irgendein grundsätzliches Problem besteht.

Antwort: Ich habe mir auch diese Seite angeschaut und auch hier finde ich keinen offensichtlichen technischen Fehler. Das einzige, was mich ein wenig beunruhigen würde, ist der klare Fokus auf nutzergenerierte Inhalte, bei denen man nicht unbedingt sicher ist, was konkret für einige der dort vorgetragenen Fragen angezeigt wird. Mit einem solch starken Fokus auf nutzergenerierte Inhalte ist es schwer, die Website qualitativ so hochwertig zu halten, wie man es sich gerne wünschen würde.

Außerdem scheinen viele Inhalte ziemlich einfache Inhalte zu sein. Hier besorgt mich, dass im Wesentlichen die Informationen, die Ihr auf Eurer Website bereitstellst, von jedem anderen Anbieter ebenfalls bereitgestellt werden können. Zum Beispiel eine der Spitzenseiten, die für Eure Website rankt, besteht aus Fragen wie z. B. „wie konvertiere ich vier Unzen in eine andere Einheit“, hier ist eine einfache Nummer die Antwort. Das ist natürlich ein toller Inhalt, aber es wird nicht dazu führen, dass die Leute öfter auf Eure Website kommen. Hier sehen wir auch keinen Grund, warum diese Seite besser gerankt werden sollte, als viele andere Seiten, die diese Frage ebenfalls beantworten. Um dieses Problem zu beheben, könnte man darüber nachdenken, mehr „long-form“ und tiefer gehende Inhalte anzubieten, damit die Leute gerne auf diese Website zurückkehren. Auch sollten Betreiber von Q&A-Websites ggfs. darüber nachdenken, eine Extra-Seite für Experten-Antworten zu erstellen und diese von den „Jedermann Antworten“ zu trennen, eine Art „Evergreen“-Content Page.

 

Abfall von Websites in Google Search

17:27

Frage: Diese Frage bezieht sich auf einen Abfall unserer Website Tourist Visa online in der Google-Suche. Hier haben wir rund 240 Länder, die URLs generieren wir automatisch basierend auf unsere Datenbank. Ist das ein Problem?

Antwort: Hier ist das Problem sehr ähnlich wie das in der Frage zuvor. Der ganze Inhalt ähnelt sich im Wesentlichen für die 240 verschiedenen Länder. Unsere Systeme sehen sich das an und „denken“, dass alle diese Seiten ziemlich gleich sind, vielleicht können wir sie sogar zu einer Seite zusammenfassen und nur das in den Suchergebnissen zeigen. Daher ist mein Vorschlag, sich von diesen massiven Inhalten zu entfernen, und etwas schaffen, das spezifischer ist, das einzigartig für sich alleine stehen kann und die Anzahl der URLs zu verringern. Zum Beispiel nur eine einzelne Seite zur Verfügung stellen, die alle Länder auflistet oder wenn es beispielsweise verschiedene Arten von Visa gibt, individuellen Länderpaare zusammenstellen.

 

Web Light

21:47

Frage: Wie werden Seiten, die „Web Light“ nutzen, in der Google-Suche angezeigt und werden Seiten automatisch von Google erkannt, die diese Funktion verwenden?

Antwort: Ich weiß nicht, ob wir das anders zeigen würden. Web Light ist etwas, das wir seit vier oder fünf Jahren benutzen. Es ist etwas, das im Wesentlichen die Seite transcodiert und eine wirklich schnelle Version des Dienstes von unseren Servern bereitstellt, so dass Benutzer mit Geräten mit einer sehr niedrigen Verbindungsgeschwindigkeit schneller zu diesen Inhalten gelangen. Das scheint wirklich gut zu funktionieren, besonders in Regionen, in denen Menschen mit schlechten Verbindungen zu kämpfen haben. Eigentlich machen wir das auch mit unserer eigenen Website, Google-Search, wenn wir erkennen, dass Leute mit einer sehr langsamen Verbindung daherkommen, stellen wir sie auf eine leichtere Version der Suche um, diese hat zwar weniger Funktionalitäten, ist aber wesentlich schneller.

Frage: Muss der Website-Ersteller die Funktion „Web Light“ selbst einstellen, andere Codierung oder ähnliches, oder muss er einfach darauf warten, dass jemand eine schlechte Verbindung hat und es stellt sich automatisch ein?

Antwort: Das ist etwas, das wir verwenden würden, wenn wir es für sinnvoll erachten. Ich denke, es ist ein HTTP-Header, den du einfach zu deiner Serverantwort hinzufügst, damit wir verstehen, dass Sie das nicht möchten. Bei dynamischen Websites mit vielen interaktiven Elementen würden wir das jedoch eh nicht machen.
Das Ranking einer Seite bei Google Search bleibt mit oder ohne Web Light gleich.

 

URL Removal Tool

26:01

Frage: Wenn man seine Seite für ca. 6 Monate pausieren lassen möchte, ohne weitere Aktivitäten bzw. Aktualisierungen auf dieser Seite, sollte man dafür das „URL Removal Tool“ benutzen oder gibt es bessere Wege? Hat es Einfluss auf das Ranking, wenn man die Seite später wieder aktiviert?

Antwort: Wenn du das URL Removal Tool über die Suchkonsole verwendest, kannst du die gesamte Website entfernen, wenn du ein Tool zum Entfernen öffentlicher URLs benutzt, das nur auf einer reinen URL-Basis funktioniert. Solange die Webseite noch existiert und weiterhin mit normalen Inhalten dient, können die Leute immer noch direkt auf deine Website gehen, man wird sie jedoch in den Suchergebnissen nicht sehen. Mit dem URL Removal Tool wird die Seite weithin durchsucht (gecrowlt) und geindext, sie ist nur zeitweise in den Suchergebnissen nicht mehr sichtbar. Nach einer Deaktivierung des URL Removal Tools wird die Website wieder im Ranking angezeigt, vielleicht nicht mehr exakt so wie vorher, aber im Wesentlichen sind alle Signale, die sonst mit der Website verbunden sind, weithin vorhanden. Sie wird von uns nicht als eine komplett neue Website gesehen. Sehr wahrscheinlich läuft das Tool automatisch nach 90 Tagen ab. Um dieses zu umgehen schlage ich vor, eine Erinnerung im Kalender anzulegen, damit du das Ablaufdatum nach 90 Tage nicht verpasst. Füge eine weitere Anforderung zum Entfernen von Websites hinzu. Diese Anfragen können jederzeit abgebrochen oder neu aktiviert werden. In der Regel benötigen wir für die Abwicklung und die Stornierung weniger als einen Tag.

 

Traffic

29:31

Frage: Wie lange dauert es normalerweise, bis eine neue Website organischen Traffic von Google erhält? Ich bin nur neugierig, was ein neuer Blogger erwarten sollte.

Antwort: Mit Verwendung unseres URL- Einrichtungs-Tools können wir generell die URL innerhalb eines Tages von deiner Website abrufen und sie sofort in unseren Suchergebnissen anzeigen. Wenn es jedoch um eine Nische mit viel Wettbewerb geht wird es schwieriger, da wir eine Website vor uns haben, die wir noch nie zuvor gesehen haben und diese gegen Websites antritt, die es schon sehr lange gibt und die schon jede Menge starker Signale gesammelt haben. Dann wird es wahrscheinlich eine Weile dauern bis deine Website als eine der besseren Websites bekannt wird. In der Regel schlage ich den Leuten vor, die ein ganz neue Website erstellen, eine Nische zu finden und in dieser Experte in seinem Gebiet zu werden. So tritt man nicht gegen diese Giganten an, die es schon seit zig Jahren gibt. Finde was Einzigartiges, was die Leute interessiert, damit du in diesem kleineren Bereich bestmögliche Suchergebnisse erzielst. Baue die Seite von dort aus auf und lass sie wachsen, anstatt zu versuchen alles direkt am Anfang zu schaffe und immer auf Seite 10 oder 20 in den Suchresultaten stecken zu bleiben.

 

Landing Pages/ Canonical Tags

35:13

Frage: Was ist, wenn das gleiche Produkt auf verschieden Landing Pages zu finden ist, sollte man alle Produkte auf eine Seite stellen oder kann man Filter Pages für unterschiedliche Anfragen machen?

Antwort: Die Situation, dass ein gleiches Produkt auf verschiedenen Landing Pages zu finden ist, tritt meistens dann auf, wenn es ein Produkt mit mehreren Kategorien ist. Man kann zum Beispiel nach der Kategorie „Farbe“ oder nach der Marke suchen.
Hier empfehlen wir, das Produkt als primären Gegenstand zu nehmen und eine Seite des Produktes mit Setzen des Canonical-Tags als „Canonical Page“ zu bestimmen, diese wird dann als eigentliche Produktseite in den Suchergebnissen angezeigt. In der Website selber gibt es vielleicht mehrere Möglichkeiten, beispielsweise via Breadcrumbs, oder ähnliches um zu diesem Produkt zu gelangen, aber für eine bessere Indexierung sollte man sich für eine Version entscheiden. Das hilft uns, eine stärkere Seite zu bekommen, indem sich alle Signale nur auf diese konzentrieren, anstatt durch andere Seiten abgelenkt zu werden, die im wesentlichen nur Variationen des Pfades sind, um auf die eigentliche Seite zu gelangen.

 

Suchvolumen

42:02

Frage: Die Page Impressions für meine Website liegen bei 140 für die letzten 28 Tage, aber das durchschnittliche monatliche Suchvolumen einer Suchanfrage beträgt 10 zu 100. Warum?

Antwort: Meine Vermutung ist, dass, besonders wenn man sich das durchschnittliche monatliche Suchvolumen anschaut, es etwas davon abhängt, wie sich das Ergebnis zusammensetzt. Vor allem wenn man sich kleinere Zahlen anschaut, kann das von dem abweichen, was eigentlich gesucht wird. Bei 10 zu 100 muss man nicht davon ausgehen, dass 100 die Spitze ist. Es brauchen sich nur eine Hand voll Leute mehr die Seite anschauen und das Volumen kann sich schon um 10-20 % verändern. Bei diesen niedrigen Zahlen sollte man das monatliche Suchvolumen eher mit Vorsicht genießen. Einige Tools können das eigentliche Suchvolumen nicht richtig anzeigen. Ich kann aber versichern, dass die Seite 140 Mal in dieser Zeitspanne von uns in der Google-Suche angezeigt wurde.

 

Umleitung von Websites

44:21

Frage: In einem Szenario gibt es Links, die intern und extern auf URLs verweisen, die via 301 auf Seite A und dann auf Seite B umleiten, dort befindet sich „NoIndex“. Wirkt sich diese Vorgehensweise auf den PageRank aus?

Antwort: So wie ich es versanden habe gibt es hier zwei verschiebende Szenarien.
Wenn Ihr eine Seite auf eine andere umleitet, ist es leicht für uns alle Signale, die an die alte URL gebunden sind an die Neue weiterzuleiten. Hier wird die alte URL einfach durch eine neue URL ersetzt.

Im dem Falle, wenn eine Seite mit einer anderen Seite lediglich nur verlinkt wird, sieht die Sache etwas anders aus, da einige der Signale weiterhin mit der alten Seite verknüpft sind, aber manche Signale wiederum auch an die neue Seite weitergeleitet werden. Setzt Ihr die alte Seite nun auf „NoIndex“ zeigen wir sie nicht mehr in der Google-Suche an und einiges wird an die neue Seite geleitet, welche wir in der Google-Suche anzeigen können. Bleibet die alte Seite für eine lange Zeit auf „NoIndex“ gehen wir nach einiger Zeit davon aus, dass sie eher ein „weiches“ 404 ist und nicht mehr existiert und wir diese eher nicht mehr indexieren sollten und gar ignorieren. Wenn das passiert werden offensichtlich alle Links auf dieser Seite abfallen. Die Signale gehen im Wesentlichen auf eine 404-Seite und die neue Seite würde nur von den Signalen leben, die sie selbst sammelt.

Mein Vorschlag hier ist, wenn Ihr von einer Seite zu einer anderen Seite wechseln wollt, ist es richtig eine Umleitung von der alten Seite auf die Neue einzurichten. Wenn die alte Seite bestehen bleiben soll, sie aber nicht mehr in den Suchergebnissen angezeigt werden soll, ist ein „NoIndex“ an dieser Stelle natürlich richtig. Aber denkt daran, dass ein „NoIndex“ uns auch sagt, dass Ihr diese Seite nicht in unserem Index haben wollt und wenn sie dann komplett von unserem Index verschwindet, verschwinden auch alle Signale und alles was auf der Seite war.

 

Crawling-Rate

49:03

Frage: Wenn ich einen Parameter oder einen Absatz ändere, sieht es Google als aktualisierten Inhalt an?

Antwort: Nicht unbedingt. Ein neuer Inhalt trägt nicht unbedingt dazu bei, dass wir die Seite besser behandeln. Solch eine kleine Änderung hilft uns nur zu verstehen, wie schnell wir die Seite im Laufe der Zeit recrawlen müssen.

Wenn sich der Inhalt auf einer Seite regelmäßig ändert und wir erkennen, dass bei jedem Crawlen ein bedeutender neuer Inhalt dazu gekommen ist, dann versuchen wir wahrscheinlich die Crawling-Rate so hoch zu halten, dass wir keine Änderungen verpassen und wir können die Seite mit dem neuen Inhalt in den Suchergebnissen anzeigen.

 

Google-Search Bewertungsrichtlinien

50:00

Frage: Können wir Konzepte wie AMYL oder EAT aus den Google-Search-Bewertungsrichtlinien verwenden, um Entscheidungsträger dazu zu bewegen in großartige Inhalte zu investieren?

Antwort: Klar. Ihr könnt das definitiv machen.

 

Country-Targeting

50:30

Frage: Würdet Ihr die Einrichtung einer Sprache im primären Verzeichnis empfehlen, zum Beispiel domain.ch in Deutsch und dann domain.ch/fr in Französisch oder empfehlt Ihr eher domain.ch/de und domain.CH/fr zu verwenden?

Antwort: Beides würde gehen. Wenn es um Sprachinhalte geht, betrachten wir diese auf einer reinen URL-Basis, so dass wir nicht nach URL-Mustern unterscheiden, was bedeutet, dass Ihr den Sprachinhalt verwenden könnt, wo immer Ihr möchtet. Wenn Ihr den URL-Pfad in einer Sprache und ein Unterverzeichnis in einer anderen Sprache haben möchtet, ist das völlig in Ordnung. Wenn es um Länder-Targeting geht, möchten wir es etwas allgemeiner. Wir wollen also Dinge wie Unterverzeichnisse oder Subdomains sehen, oder sogar getrennte Domains mit allen Inhalten, die für das jeweilige Land bestimmt sind. Wir erlauben auch Dinge wie die allgemeine Ausrichtung der Website auf ein Land und ein Unterverzeichnis gezielt für ein anderes Land. Aber in diesem Fall, wenn es nur über unterschiedlichen Sprachinhalt geht, kann jedes gewünschte URL-Format verwendet werden und wir können das so übernehmen.

Constanze Bettendorf und Jochen Moschko

Hinterlasse eine Antwort