Werbung

Gestern fand der erste Google Webmaster Sprechstunden Hangout des Jahres 2016 statt. Wie immer hatte John Mueller einige interessante Antworten parat – aber lest selbst.

 

Thema: A/B Tests

Zeit: 00:52

Frage: Wir folgen den Webmaster Guidelines hinsichtlich der Vorschläge zu A/B Tests, der Verwendung von Canonical Tags, usw. Ich habe jetzt mit einem Szenario zu tun, das in den Webmaster Richtlinien nicht behandelt wird: Wir exkludieren 10 % der Website von jeglichen Tests für ein ganzes Jahr, um unverfälschte Anstiege (Daten) zu sehen. Beispiel: example.com/holdout – Für 10 % des Traffics (der Besucher) ist dies dann die Homepage. Wie sollte man mit example.com/holdout umgehen, wenn man weiß, dass es im Grunde eine Kopie der Homepage (example.com) ist?

Antwort: Wenn es eine Kopie der Homepage ist, kann man dort ein Canonical Tag platzieren, selbst wenn es für eine längere Zeitspanne ist. So wird sichergegangen, dass Google – sollte der Bot auf diese URL stoßen – auf die Homepage (example.com) weiterleiten kann.

 

Thema: Google Updates

Zeit: 02:47

Frage: Es gab dieses Wochenende ein Update des Core Algorithmus, richtig? Google hat vor einiger Zeit ebenso gesagt, dass Panda bald ein Teil des Core Algorithmus sein wird, stimmt das? Kannst du mir ungefähr sagen, ab wann das Fall sein wird?

Antwort: Ja, es gab am vergangenen Wochenende ein Update des Core Algorithmus. Bezüglich Panda als Teil des Core Algorithmus weiß ich kein genaues Datum. Ich sag Bescheid, wenn ich etwas weiß.

 

Thema: Google Updates

Zeit: 04:02

Frage: Auf Twitter herrscht aktuell Verwirrung, was den Core Algorithmus angeht. Ist es korrekt, dass der Core Algorithmus manuell geupdatet/angestoßen wird? Er läuft nicht permanent in Echtzeit, oder? Kannst du dazu etwas sagen, dass die Dinge etwas klarer werden lässt?

Antwort: Es handelt sich um einen normalen Teil unserer Updates. Wenn ich unser Team frage, dann sagen die immer, dass es einige “normale” Updates gab. Die SEO Tools tracken solche Sachen anders als Google es macht, daher werden da manchmal Veränderungen gesehen, die wir so gar nicht sehen.

 

Thema: Indexierung

Zeit: 05:25

Frage: Wir haben eine Warnung von Google bezüglich einer hohen Anzahl von URLs erhalten. Wir wollen wissen, ob Google Probleme hat unsere Website zu crawlen und zu indexieren.

Antwort: Ja, wenn ihr diese Nachricht erhalten habt, dann ist davon auszugehen. Diese Warnung wird normalerweise herausgegeben, wenn wir auf eine hohe Anzahl neuer URLs stoßen – dies geschieht, bevor Google diese Seiten wirklich crawlt. Wenn auf diesen Seiten ein “noindex” ist, dann werden die Seiten zwar nicht indexiert, aber Google muss sie dennoch crawlen, um das “noindex” überhaupt zu sehen. Das kann zu dieser Meldung führen.

 

Thema: Interne Verlinkung

Zeit: 07:21

Frage: Am Ende eines Blogposts werden bei uns über ein Plugin vier ähnliche Blogposts angezeigt. Wir haben das auf “nofollow” eingestellt, sodass kein automatisch generierter Content entsteht. Sollten wir dies auf “dofollow” umstellen, da wir auf unsere eigenen Blogposts verlinken?

Antwort: Ja, sicher, die Umstellung auf “dofollow” ist absolut kein Problem. Das hilft uns im Prinzip eure Website zu crawlen und zu verstehen, wie die verschiedenen Teile eurer Website zusammengehören. Wenn es um externe Verlinkungen gehen würde, wäre ich vorsichtig.

 

Thema: Link Juice

Zeit: 08:22

Frage: Kann ich eine Subdomain meiner Website A zur Website B duplizieren und dann den Canonical Tag einfügen, um den Link Juice von Website B zu Website A zu schicken? Einige unserer Wettbewerber machen das und die ranken sehr gut. Ist das ein Verstoß gegen die Google Richtlinien?

Antwort: Mit dem Canonical Tag sagt man im Wesentlichen, dass diesen beiden Seiten zusammen gefolgt werden soll. Was bedeutet, dass Google versucht, beide Seiten wie eine zu behandeln. Es ist nicht so, dass man dadurch irgendwelchen zusätzlichen Wert hat oder irgendwas weitergegeben wird.

 

Thema: Ranking

Zeit: 08:56

Frage: Nach einer Umstrukturierung unserer Website wurde Content auf eine Subpage verschoben und diese Seite sollte nun ranken. Wir verlinken auf diese neue Seite intern mit relevanten Keywords, aber es gibt immer noch viele externe Links, die auf die Homepage verweisen, aber es tut sich nichts. Sollten wir versuchen, dass die externen Links geändert werden?

Antwort: Vielleicht, schwierig zu sagen. Generell ist es so, wenn Content von der Homepage auf eine andere (tiefer liegende) Seite verschoben wird, dass Google eine Weile braucht, bis verstanden wird, was da passiert ist und was das soll. Ich würde da keine schnellen Veränderungen erwarten, besonders weil nicht von der Homepage auf die neue Seite weitergeleitet werden kann. Es handelt sich nicht um einen normalen Umzug von URL A zu URL B – ihr habt den Content verschoben und hofft nun im Prinzip, dass der Content genauso rankt wie zuvor auf der Homepage. Obwohl die Homepage ja noch existiert.

 

Thema: AMP Pages

Zeit: 10:08

Frage: Gibt es ein Tool, um AMP Pages zu testen? Wir haben eine Seiten entwickelt und möchten sie testen. Wie können wir sicherstellen, dass diese an den Start gehen können?

Antwort: Google hat aktuell einen Beta-Test hinsichtlich AMP Seiten am laufen, dafür könnt ihr euch unter g.co/searchconsoletester anmelden. Das dürfte euch sicherlich schon mal weiterhelfen. Ihr könnt auch /development-1 an eure URL anfügen und dann einen Blick auf die JavaScript Console des Browsers werfen. Dort könnt ihr einen Test laufen lassen, der euch sagt, ob eure AMP Page valide ist oder nicht. Ihr könnt auch das Structured Data Test Tool benutzen, um zu schauen, ob die richtigen Mark Ups verwendet werden.

 

Thema: Cache

Zeit: 11:15

Frage: Interessiert sich Google für das Browser Cache? Wenn eine Website das Browser Cache nutzt, sieht Google auch die aktuelle Version des Caches? Können da Probleme auftreten, z. B. wenn eine CSS Datei geändert wird?

Antwort: Google nutzt das Cache, um die JavaScript Dateien zu sehen. In der Theorie gibt es eine Zeitspanne zwischen einer Änderung und dem Zeitpunkt, wo wir das auf anderen Seiten sehen. Generell ist Google aber ziemlich gut darin, euren Cache Richtlinien zu folgen, die auf eurer Website festgelegt werden und wir versuchen eine neue Version aufzunehmen/zu erkennen, wann immer wir können.

 

Thema: Multilinguale Websites

Zeit: 12:00

Frage: Ich habe eine multilinguale Website und jeder Kunde kann die Sprache über ein Drop Down Menü ändern, welches entsprechende Links enthält. Ich habe gelesen, dass das gefährlich sein kann. Wir haben einen “Alternate Tag” im Head und das funktioniert gut.

Antwort: Generell ist das etwas, über das ich mir keine Sorgen machen würde. Besonders, wenn es separate URLs gibt, die dafür sorgen, dass die Website in der entsprechenden Sprache geladen wird. Wenn allerdings multilinguale URLs genutzt werden, um Cookies zu setzen, um dann die Sprache auf der aktuellen URL zu wechseln – dann wäre das etwas, wo Google unter Umständen gar nicht die Sprachänderung erkennen würde. Wenn aber alles mit dem “Hreflang Tag” reibungslos funktioniert, dann würde ich mir keine Sorgen machen, denn es hört sich so an, als ob ihr alles richtig macht.

 

Thema: Datum in SERPs

Zeit: 13:01

Frage: Wenn man in WordPress einen Artikel updatet, was ist da die richtige Vorgehensweise, damit Google in den Suchergebnissen das letzte Update-Datum anzeigt? Ich schreibe im Post meistens “Update: Datum” und dann den Post. Das funktioniert für Google offensichtlich nicht so gut.

Antwort: Das sollte eigentlich ganz gut funktionieren. Das Problem ist wohl, dass wir manchmal das Original-Datum des Posts zeigen und manchmal das Datum der geupdateten Version. Man sieht nicht immer das Datum der Aktualisierung in den Suchergebnissen. Ich bin mir nicht ganz sicher, aber ich glaube, das Datum kann auch mit Hilfe des Structured Data Mark Ups festgelegt werden.

 

Thema: Referrals

Zeit: 14:05

Frage: Ein Teil einer Website ist nur in Abhängigkeit eines bestimmten Referrals und der Eingabe der direkten URL erreichbar. Wie geht Google mit solchen Seiten aus SEO-Sicht um? Können wir einen Penalty für den Hauptteil unserer Website bekommen? Sollten wir “noindex” verwenden?

Antwort: Schwierige Frage. Einerseits crawlt Googlebot ohne Referral. Wenn diese Seiten ohne Referral erreichbar sind, sollten wir fähig sein, diese zu crawlen und anschließend zu indexieren. Andererseits, wenn Nutzer auf ein Suchergebnis klicken, nutzen sie ein Referral und das wird weitergegeben. Wenn Nutzer in Abhängigkeit des Referrals blockiert werden, dann würde ich dazu tendieren, ein “noindex” auf diesen Seiten unterzubringen, um klarer zu machen, dass diese Seiten nicht indexiert werden sollen. Wenn ihr noch einen Schritt weitergehen möchtet, da sich dort z. B. vertraulicher Content befindet, dann würde ich über serverseitige Identifikation gehen.

 

Thema: Interstitial-Anzeigen

Zeit: 15:43

Frage: Sind Interstitial-Anzeigen für mobile Nutzer in Bezug auf Google’s Richtlinien in Ordnung?

Antwort: Ich glaube, dass das aktuell in Ordnung ist. Google würde dagegen nicht vorgehen. Aus persönlicher Sicht finde ich diese Anzeigen – besonders mobil – total nervig. Manchmal ist es total schwer, an ihnen vorbei auf die Website zu kommen. Wenn die Website mobil sowieso schon langsam lädt und dann den Nutzern gewissermaßen noch durch die Interstitial-Anzeige der Zutritt verwehrt wird, weil sie die Anzeige nicht wegbekommen, dann ist das echt nervig und ich weiß nicht, ob sich das viele Leute antun, um auf eine Website zu kommen. Aus persönlicher Sicht würde ich also eher davon abraten. Hinsichtlich der aktuellen Google Richtlinien gibt es da aktuell aber kein Problem.

 

Thema: Popups

Zeit: 16:50

Frage: Ich manage eine Film-Website und die gängige Praxis ist, dass ein YouTube Popup, wenn der Nutzer die Website das erste Mal aufruft. Um den Hauptinhalt zu erreichen, muss das Popup geschlossen werden. Was ist deine Meinung dazu?

Antwort: Es ist möglich, dass der Googlebot dieses Popup sieht und versucht, als Teil des Contents zu indexieren. Das ist vermutlich nicht etwas, was von euch erreicht werden soll. Diese Popups sind wieder etwas, womit ihr die Nutzer vermutlich nervt. Sie dürften der Website auf lange Sicht sicherlich nicht förderlich sein. In Bezug auf die Webmaster Richtlinien von Google dürfte diese Verwendung der Popups nicht problematisch sein, aber in Bezug auf die Benutzererfahrung usw. ist es etwas, was ich nicht unbedingt machen würde.

 

Thema: Personalisierte SERPs

Zeit: 18:55

Frage: In welchem Maße spielt die Suchhistorie des Nutzers und der Browserverlauf beim Ausspielen der Suchergebnisse eine Rolle? Hängt das auch vom Gerät ab, welches sie nutzen?

Antwort: Es gibt eine gewisse Personalisierung der Suchergebnisse. Ich kann aber nicht sagen, zu welchem Prozentsatz gewisse Dinge da eine Rolle spielen. Die Personalisierung lässt sich gut erkennen, wenn man erst regulär sucht und dann eine Suche im Inkognitomodus durchführt – die Ergebnisse werden unterschiedlich sein. Die Suchhistorie spielt bei der Personalisierung der Suchergebnisse eine Rolle. Hinsichtlich der Geräte, die die Nutzer verwenden, spielt bei der mobilen Abfrage eine Rolle, ob Websites mobil abrufbar sind oder nicht – daher sieht man dort unter Umständen andere Ergebnisse als bei der Abfrage mit einem Desktop-PC.

 

Thema: Personalisierte SERPs

Zeit: 20:08

Frage: Wenn ich meinen Browser (Desktop-PC) eingeloggt nutze – hat das Einfluss auf die Suchergebnisse, wenn ich auf meinem Smartphone mit dem gleichen Account eingeloggt bin?

Antwort: Wenn die Webhistorie eingeschaltet ist, dann denke ich, dass das Einfluss nehmen würde. Ich bin mir nicht 100 Prozent sicher, aber ich vermute es.

 

Thema: Algorithmen

Zeit: 20:55

Frage: Gibt es Unterschiede zwischen den Algorithmen für .tw und .com, z. B. hinsichtlich Panda und Pinguin?

Antwort: Der größte Teil unserer Suchalgorithmen ist unabhängig von Ländern oder Sprachen. Kleine Teile unserer Algorithmen sind für bestimmte Sprachen oder Länder modifiziert.

 

Thema: Hosting

Zeit: 22:20

Frage: Sollten wir uns Sorgen machen, wenn wir schlechte Domains als Hosting Nachbarn haben?

Antwort: Da würde ich mir keine Sorgen drum machen. Das größere Problem ist vermutlich, wenn man 100.000 Spamwebsites hostet und eine gute Website dazwischen hat. Da kann es schon sein, dass die Algorithmen denken, dass der Server insgesamt sehr spammig ist.

 

Thema: Duplicate Content

Zeit: 24:03

Frage: Wenn zwei CMS Anbieter ähnliche Seiten verkaufen, kann dies zu DC führen?

Antwort: Wenn ihr die Inhalte kopiert, dann ja. Aber es gibt keinen Penalty für so etwas. Wir versuchen, immer die passenden für die entsprechenden Suchanfragen zu zeigen. Das kann zum Beispiel vom Ort des Suchenden abhängen, da wir immer das für ihn relevanteste zeigen möchten.

 

Thema: Canonical

Zeit: 25:20

Frage: Werden die Search Appearance, HTML Improvements, Duplicate Titles and Descriptions in Search Console das Canonical beachten? Wir haben verschiedene Beschwerden für entsprechende Seiten erhalten.

Antwort: Wahrscheinlich ist es so, dass wir hier die Seiten mit dem Canonical so indexieren, wie wir sie zuerst finden. Und dann sehen wir das Canonical, folgen ihm und indexieren das. Es ist also vielleicht so, dass es deshalb als Duplicate auftaucht. Das sollte sich aber bald von selbst erledigt haben und dann solltet ihr nur noch die Canonical-Version sehen.

 

Thema: Panda

Zeit: 26:26

Frage: Was bedeutet es, dass Panda nun Teil des Core Algorithmus ist?

Antwort: Soweit ich weiß ist es eher ein rollendes Update. Es findet also periodisch statt, sodass nach einiger zeit Dinge neu berechnet und dann wieder angesehen werden. Es ist also nicht in Echtzeit. Der Rollout ist dann immer langsam und Schritt für Schritt. Wir versuchen aber auch immer, die Teams dazu zu bringen, mehr Infos in Search Console zu bringen. Manchmal kann das bei der Verbesserung der Seiten helfen – oft aber auch nicht. Bei gehackten Seiten zeigen wir euch zum Beispiel unter Manual Actions an, was passiert ist. Das ist also wie ein Mix.  Viele Teile der Algorithmen sind dafür aber nicht gemacht – sie sind dazu da, uns zu zeigen, welche Seiten relevant sind. Deswegen sind viele dieser Diskussionen auch sehr theoretisch.

Zum Penguin habe ich noch keine weiteren Infos. Wir geben keine genauen Daten, da wir lieber testen, bis alles gut funktioniert.

Thema: Backlinks

Zeit: 43:43

Frage: Ich mache SEO für einen Gebrauchtwagenhändler. Wenn ich einen Link von einer Seite bekomme, die mehr Traffic hat, wird das meine SEO Rankings verbessern?

Antwort: Grundsätzlich verbessert ein Link nicht unbedingt die Qualität oder Relevanz einer Seite. Wenn man Werbung kauft, dann kriegst du vielleicht viel Traffic, aber das muss für das Ranking nichts bedeuten. Stell daher sicher, dass die Seite so gut ist, dass Nutzer wiederkommen, das finden, was sie suchen und es auch weiterempfehlen.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT