Google Webmaster Hangout Transkript, 18.09.2018

Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 18. September 2018:

Cloaking

Zeit: 2:17
Frage: Ich kämpfe seit ca. 20 Tagen mit Hijackern. Es sieht so aus, als seien sie damit erfolgreich, mit unseren Projekten unter ihren Domains zu ranken. Ich habe aber eine Lösung gefunden: Es geht um die Implementierung von JavaScript in der Fußzeile, die besagt, dass wenn diese Inhalte in einem Domainnamen dargestellt werden, der nicht mein Domainname ist, sondern der Domainname des Hijackers, das Meta-Tag als NoIndex, NoFollow geliefert wird. Eigentlich ist das eine Art von „White Hat Cloaking“. Es verhindert, dass jemand unseren Inhalt dort anzeigt. Im Google-Cache sieht man den Domainnamen, also wenn man den Cache des Hijackers kontrolliert, sieht man unseren Domainnamen, dies ist ebenfalls der Fall bei 20 weiteren Websites.

Würde eine Art Cloaking wie dieses funktionieren? Ich habe andere ähnliche Ansätze gesehen. Wenn man beispielsweise feststellt, dass sich jemand als Googlebot darstellt und die IP des Googlebot passt nicht zu den Servern, bedeutet dies, dass es sich um den gefälschten Googlebot handelt und wahrscheinlich zum Scraping etc. verwendet wird? Dann können wir ein „NoIndex“ verwenden, wenn wir diese Art von IP sehen. Ist diese Art von White Hat Cloaking ein guter Ansatz oder eher nicht?

Antwort: Ja, das kann man so machen. Wenn Ihr andere Clients habt, die Ihr nicht bedienen wollt, dann könnt Ihr ihnen jeden anderen Inhalt anbieten. Die JavaScript-Lösung ist ebenfalls ein interessanter Ansatz, ich glaube das könnte helfen, besonders seitdem wir JavaScript verarbeiten. Aus meiner Sicht ist das kein Cloaking, weil Ihr ja nur den Inhalt anbietet, der zu Eurer URL passt. Also habt Ihr auf Eurer URL den kompletten Inhalt und auf der anderen URL mit dem JavaScript dreht Ihr es zu einem „NoIndex“, aus meiner Sicht ist das vollkommen ok. Ich weiß nicht, ob es für diese Sites funktionieren würde, weil manchmal von den Proxy-Sites ein Teil des Inhalts von den Seiten entfernt wird, aber wenn das für diese Proxy-Sites funktioniert, dann los!

Core-Update

Zeit: 10:05
Frage: Bezogen auf das letzte große Core-Update: Wie bald können wir umfangreiche Änderungen sehen, nachdem wir alle Inhalte korrigiert haben, die die Absicht nicht erfüllt haben? Dauert es drei Monate oder mehr?

Antwort: Im Allgemeinen sind diese größeren Updates, wie das Core-Update, keine Aktionen, wo wir Seiten als gut oder schlecht beurteilen oder sagen, was behoben werden muss, sondern eher um zu sagen, was nicht mehr so relevant ist, wie es mal war. Als Webmaster kann man natürlich hingehen und Dinge ändern, um sie relevant zu machen, aber von unserer Seite können wir nicht sagen: „Hey, Ihr müsst diese fünf Dinge verbessern und dann klappt´s.“ Ihr müsst zeigen, dass Ihr für die Anfragen wichtig seid und diese Art von Änderungen brauchen lange, bis sie unsere Algorithmen herausfinden. Einmal im Allgemeinen die Relevanz der ganzen Website zu verstehen, aber auch die Relevanz von den einzelnen Seiten. All das dauert seine Zeit und es gibt keine feste Zeitspanne dafür. Es ist im Wesentlichen ein fortlaufender Prozess, bei dem wir die Seiten überprüfen und sie erneut verarbeiten, sie indexieren, die Signale, die wir dort haben neu zuweisen, u.s.w. Dieser Prozess ist stets fortlaufend und es gibt kein genaues Datum, an dem wir sagen können, dass jetzt alles abgeschlossen ist.

NoFollow

Zeit: 13:13
Frage: Ich bin ein Nachrichtenverleger. Auf meiner Seite habe ich eine Nachrichtenseite hinzugefügt, die mit internen Links verlinkt, die auf zivile Transparenzbereiche verweisen. Diese Links haben die entsprechende Markierung und sind auf jeder Nachrichtenseite, also habe ich ihnen ein “NoFollow” zugewiesen. Jetzt bin ich besorgt, dass das rel „NoFollow“ verhindert, dass Google diese Seiten versteht.

Antwort: Im Wesentlichen ist das kein Problem und Ihr könnt das so machen, aber in den meisten Fällen ist es nicht notwendig. Im Allgemeinen sind wir ziemlich gut darin zu erkennen, welche Art von Seiten welchen Kontext innerhalb einer Website haben. Servicebedingungen oder Eure Kontaktseite, all diese detaillierten Seiten, die im Wesentlichen über die gesamte Website verlinkt sind, sind Dinge, die wir ziemlich gut erkennen können, was die natürliche Struktur der Website ist und wie sie dort hinein gehören. Also muss man nicht unbedingt ein „NoFollow“ bei jedem Link benutzen, der zu einer Standardseite geht. Ich denke, dass der Effekt von „NoFollow“ in diesem Falle eher gering bis unsichtbar ist und daher eher Verschwendung von Energie ist. Persönlich würde ich empfehlen, diesen Teil einfach zu überspringen und zu verstehen, dass es normalen Links innerhalb einer Website sind, natürliche Links, die für die einzelnen Seiten der Website relevant sind. Daher verlinkt sie einfach normal.  Haltet es lieber einfach. Das ist der beste Weg um sicherzustellen, dass Suchmaschinen eine Chance haben Eure Seiten zu verstehen und wie sie zusammenarbeiten.

Soft-404

Zeit: 15:51
Frage: Ich habe Bilddateien im neuen Index Coverage Report gesehen, die als „weiche“ 404 gezeigt werden. Warum ist das so?

Antwort: Das ist normal. Wir zeigen diese als „weiche“ 404s, weil sie für die Websuche nicht als Landingpage geeignet sind. So wollen wir insbesondere für die Websuche HTML-Seiten haben, mit denen wir verlinken können. Für die Bildsuche müssen wir eine Kombination aus Bild und Landingpage haben, aber für die Websuche brauchen wir eine HTLM-Landingpage.  Wenn Ihr also eine URL habt, die eigentlich ein Bild ist, wir dieses auch bemerken und wir das für die Websuche crawlen sollen, dann würden wir sagen, dass es eine 200 wieder gibt, aber eigentlich sollten wir es nicht indexieren und daher können wir es nur „Soft-404″ nennen. In den meisten Fällen können wir erkennen, dass etwas ein Bild ist, indem wir die Erweiterung der URL betrachten, aber es gibt viele Fälle in denen Seiten nicht-standardisierte URLs für Bilddateien verwenden. Wir könnten diese dann irgendwo als Link auffassen und versuche sie als Webseite zu crawlen und dann werden wir sie markieren und bemerken, dass es eigentlich keine Webseiten sind. In dem Falle muss man dann auch nicht Besonderes machen. Wenn es keine Webseiten sind, müsst Ihr sie auch in der Websuche nicht indexiert bekommen.

W3C Web Accessibility Docs

Zeit: 18:14
Frage: In Euren Bilder-Richtlinien heißt es, dass ein „No Alt“-Attribut schlecht ist, im W3C Web Accessibility Doc heißt es hingegen, dass ein „No Value“ ok sei. 

Antwort: Ich habe die W3C Web Accessibility Docs nicht geprüft, ich weiß nicht was die Verbindung da ist.  Aus unserer Sicht verwenden wir den Alt-Text als sehr starkes Signal für die Bildsuche. Das hilft uns besser zu verstehen, worum es bei diesen Bildern geht und wie wir sie in den Ergebnissen der Bildersuche zeigen sollten. Wenn also Bilder indexiert werden sollen, würde ich alle diese Signale nutzen und sicherstellen, dass dort Inhalte bereitgestellt werden, die sowohl für die Bildsuche als auch für Benutzer nützlich sind, für die möglicherweise keine Bilder aktiviert sind oder welche die den Screen Reader nutzen. Wenn Ihr Bilder habt, die offensichtlich eher Dekoration sind, eher als eine Art von Platzhaltern dienen und die Bilder wirklich nicht zum Indexieren gedacht sind, dann muss man dort kein Alt-Text setzen. Das sind offensichtlich Bilder, die nicht dazu gedacht sind in Google-Bildern zu ranken, hier müsst ihr euch nicht drum sorgen, was Ihr dort bereitstellen könnt.

KML-Sitemap

Zeit: 26:17
Frage: Beeinflusst eine KML-Sitemap das Google Business Ranking? Antwort: Also erstmal weiß ich nicht wie Google My Business-Listen gerankt werden, also kann ich das nicht sagen. Aber wir haben keine KML-Sitemaps mehr, diese wurden soweit ich weiß, vor ca. acht bis neun Jahren abgestellt. KML-Dateien im Allgemeinen, so wie Ihr sie für Maps oder Google Earth verwendet, werden auf die Google-Suche bezogen nicht mehr verwendet. 

Hreflang

Zeit: 27:42
Frage: Was ist Euer Rat zu syndizierten Inhalten und Hreflang? Ich habe ein Netzwerk von Seiten, eine US-Version und eine UK-Version, unter der gleichen Marke, und außerdem habe ich noch eine andere US-Version einer anderen Marke. Ich will Seite C zu Seite B syndizieren und habe ein Hreflang für UK im US-Markt. 

Antwort: Das könnt Ihr so machen. Ihr müsst darauf achten, dass Ihr für jede einzelne Länderversion ein klares Canonical setzt. Wenn also alles englischer Inhalt ist und einer für die UK und einer für die USA, dann stellt sicher, dass all Eure US-Versionen die richtige Canonical-Ausrichtung auf Eure bevorzugte US-Version haben und alle UK-Versionen das rel-canonical auf die bevorzugte UK-Version ausgerichtet sind. Aber achtet drauf, dass Ihr keine Canonicals zwischen den unterschiedlichen Länderversionen habt, also zwischen der US-Seite und der UK-Seite, sonst behalten wir nur eine der beiden Versionen. Ein kniffliger Aspekt, der hier ins Spiel kommen könnte ist, dass wir diese Seiten grundsätzlich immer noch als identisch betrachten. Daher werden wir das Hreflang-Attribut verwenden, um zu sagen, dass diese für verschiedene Märkte sind und wir sie somit anders zeigen. Wenn die Seiten jedoch im Wesentlichen identisch sind, ist es nicht sinnvoll sie separat zu indexieren und wir werden sie als eine Version indexieren. Das Hreflang-Attribut hilft uns dabei die richtige URL in der Suche anzuzeigen, indexiert wird jedoch nur eine Version.

Google Local Business

Zeit: 31:12
Frage: Hat „Google Local Business“ irgendwelche Auswirkungen auf das lokale SEO-Ranking in den Suchergebnissen? 

Antwort: Soweit ich weiß ist das komplett getrennt. Wir haben eine Karte, die wir zeigen, wenn jemand ein lokales Geschäft sucht und wir können einige Informationen dazu zeigen. Aber die normalen organischen Ergebnisse sind im Grunde normale organische Ergebnisse.

Hreflang

Zeit: 32:13
Frage: Ist es schlecht, wenn das Canonical zu einer anderen URL oder Domain verweist als das selbstverweisende Hreflang, z. B. das Canonical einer .at-URL (Österreich) zeigt auf eine .de-URL (Deutschland), wegen doppelten Inhaltes, aber das Hreflang für die .de/.at-Version zeigt zu der .at-URL. 

Antwort: Ihr habt also im Wesentlichen zwei Kopien von der gleichen Seite und Ihr wollt eine Version indexiert haben und Hreflang benutzen, um uns über die zwei Versionen aufzuklären.

Wahrscheinlich werden wir die Canonical-Version indexieren. Es besteht die Möglichkeit, dass wir die Hreflang-Version benutzen, aber das ist nicht garantiert. In diesem Fall werden wir definitiv nur die Canonical-Version indexieren und die URL könnten wir separat austauschen. Der sichtbare Effekt wäre hier: wenn Euer Seitentitel zum Beispiel „Bester Laufschuh in Österreich“ lauten würde und wir die deutsche Version dieser Seite indexieren, dann könnte der Titel lauten: „Bester Laufschuh in Deutschland“ und in den Suchergebnissen in Österreich zeigen wir ggfs. „Bester Laufschuh in Deutschland“ und zeigen die .at-URL zu der österreichischen Seite. Das könnte ein bisschen verwirrend sein. Auf der anderen Seite, wenn Ihr Euch dieser Situation bewusst seid, könnt ihr einfach Euren Titel ändern zu beispielsweise: “Der beste Laufschuh” und auf diese Weise ist es egal, welche Art von Länderversion wir in den Suchergebnissen zeigen. Im Allgemeinen sind solche Situationen mit duplizierten Inhalten, die für mehrere Länder verfügbar sind, von unserer Seite aus sehr schwierig zu handhaben. Wir arbeiten wirklich hart daran, die Schwierigkeit Eurerseits in Bezug auf das Crawlen und Indexieren zu verringern, sowie die Dinge auf unserer Seite zu vereinfachen. Wenn wir also erkennen können, dass die Dinge ein Duplikat sind, werden wir versuchen, sie zusammenzufassen und wir werden versuchen den Hreflang zu verwenden, um diese wieder auseinander zu ziehen, aber das ist wirklich schwierig, nachdem wir die Seite zusammengefasst haben. Wenn Ihr also wirklich sicherstellen möchtet, dass die Seiten für einzelne Länder separat indexiert werden, solltet Ihr darauf achten, dass es tatsächlich sehr eindeutige Inhalte auf diesen Seiten gibt, sodass wir nicht in diese Situation geraten.

Verlinkungen von Autoren

Zeit: 36:49
Frage: In WordPress setzt der Autor normalerweise Portfolio-Links. In den letzten Crawls fanden wir viele eingehende Links für Blogs mit wenigen aktiven Autoren. Sollten wir diese URLs entfernen? 

Antwort: Ich weiß nicht genau, was Ihr hier meint. Im Allgemeinen, wenn Ihr angemessene Links zu Eurer Seite seht, würde ich mir nicht zu viel Sorgen dazu machen, auch wenn Ihr denkt, dass die Qualität der verlinkenden Website nicht so gut ist. Ich würde sie einfach stehen lassen und nicht darüber nachdenken, ob man sie als ungültig erklärt, also in eine Disavow-Datei einreicht oder ähnliches.

Tabs in der Search Console

Zeit: 38:41
Frage: Was ist der Unterschied zwischen den letzten Links in der Search Console und den Sample Links? Warum zeigt Google unterschiedliche Tabs?

Antwort: Ich weiß nicht, wie das in der neuen Search Console behandelt wird, aber in Bezug auf die alte Search Console besteht der Hauptunterschied darin, dass wenn Ihr viele Links zu Eurer Website habt, dann sind die „Sample Links“ eine Stichprobe aller Links, während die neuesten Links in erster Linie die neuesten Links sind, die wir gefunden haben. Wenn nicht genügend Links in der Search Console angezeigt werden, stimmen die Stichproben sehr wahrscheinlich mit den neusten Links überein. Das ist bei vielen Seiten so, die eine starke Überlappung haben. 

Werbeanzeigen

Zeit: 41:17
Frage: Wenn sich Anzeigen nicht klar vom Hauptinhalt unterscheiden, wirkt sich das direkt auf das Ranking aus, wenn eine Textanzeige zum Beispiel die gleiche Farbe wie der Hauptinhalt hat oder eben keine andere Farbe. Ist das negativ für das Ranking oder nicht? 

Antwort: Nicht unbedingt. Was passieren könnte ist, dass wir die Anzeige als einen Teil des Inhaltes sehen. Einige Websites schalten die Anzeigen direkt in einer Zeile, sodass wir sie als Teil des Inhalts auswählen, aber das bedeutet auch, dass Eure Seite möglicherweise nach einem Inhalt der Anzeige gerankt wird. Je nachdem wie Ihr mit Anzeigen umgeht ist es jedoch kein Problem, denn normalerweise passen Anzeigen ziemlich gut zu dem, was Ihr auf Euren Seiten anbietet, ansonsten wäre es ziemlich komisch, wenn Eure Seite plötzlich zu einem ganz anderen Thema rankt, weil die Anzeige was ganz anderes beinhaltet. In diesem Falle würde ich empfehlen, solche Anzeigen mindestens für das Seitenranking zu blockieren. Also stellt sicher, dass jegliche Links in diesen Anzeigen ein „NoFollow“ haben oder Ihr benutzt JavaScript und blockiert diese über die Robots.txt-Datei, um zu verhindern, dass sie gegenüber dem Googlebot überhaupt erscheinen.

Soft-404

Zeit: 47:08
Frage: Warum könnte eine Seite als Soft-404 betrachtet werden? 

Antwort: In den meisten Fällen versuchen wir eine weiche 404 zu erkennen, wenn eine Seite einen „200 OK“ als Antwortcode wiedergibt, aber der Inhalt im Grunde zeigt, dass es die Seite nicht mehr gibt. Manchmal ist das wirklich schwierig zu diagnostizieren, weil es manchmal einfach vorübergehende Probleme auf dem Server sind, wenn der Server z. B. wegen Überlastung nicht antworten kann o. ä. und er gibt eine 200 zurück und wir sagen, es ist eine Art Soft-404. Und beim nächsten Mal, wenn man auf die Seite kommt, gibt es plötzlich einen ganzen Inhalt und es ist eine ganz normale Seite. So passiert diese Art von Fluktuation. Aus diesem Grunde schaue ich nochmal über die Beispiele, die Ihr uns zugesendet habt, um zu sehen, ob unsererseits etwas Verwirrendes stattfindet oder Ihr eventuell etwas anders machen könnt.

.edu-Domains

Zeit: 50:02
Frage: Du hast mal erwähnt, dass viele .edu-Links ignoriert werden bzw. ihnen nicht so viel Gewichtung gegeben wird. Gibt es dazu noch andere Theorien? 

Antwort: Es wäre etwas übertrieben zu sagen, dass wir .edu-Links ignorieren, wir behandeln sie nicht anders als andere Links von anderen Seiten. Viele SEOs denken, dass Links von .edu-Domains super sind, sie aus dem Spam fallen usw. Einige Seitenbetreiber versuchen Links von dort zu bekommen oder sie versuchen hinterhältige Dinge mit Sponsoring oder auf andere Wege, um an Links von .edu-Seiten zu kommen. Aber aus unserer Sicht sind es normale Domains, es gibt nichts Besonderes bei Links von .edu-, .gov- oder .org-Domains.

Umgang mit Verlinkungen

Zeit: 51:11
Frage: Ich werde für das Schreiben von Artikeln für unterschiedliche Seiten bezahlt. Einige verlinken zu meiner Website und einige nicht. Die, die nicht zu meiner Seite linken, linken zu meinem Google+-Profil. Würde dies dazu beitragen, die Autorität meiner Website zu erhöhen oder ist es notwendig, dass, wenn die Leute über eine Marke sprechen, sie auch auf die jeweilige Website verlinken müssen? 

Antwort: Vorerst würde ich sicherstellen, dass Ihr nicht Gastbeiträge auf den Seiten anderer Leute veröffentlicht, nur um einen Link zu deiner Seite zu bekommen. Auf sowas achtet das Webspam-Team, also auf Links die im Wesentlichen Links sind, die Ihr selbst platziert. Wenn Ihr Links selber platziert sind es nicht wirklich natürliche Links. Ich würde fast empfehlen, “NoFollow”-Links für viele dieser Fälle zu verwenden, in denen Ihr Gastbeiträge auf den Seiten anderer Leute veröffentlicht. Ihr könnt trotzdem Traffic auf Eurer Seite bekommen und Leute können immer noch auf Eure Seite kommen und sie als positiv empfinden und sie gerne weiterempfehlen wollen. Das ist das, was man anstreben sollte: Leute entdecken Euren Inhalt und möchten diesen auf einer natürlichen Art und Weise weiterempfehlen.

Mobile First Indexing

Zeit: 52:55
Frage: Es gibt verschiedene Ansichten zum Verstecken von Inhalten hinter Tabs und Accordions etc. Kannst Du bestätigen, dass wenn man Inhalt hinter einem Tab oder ähnlichem versteckt, dass es von Google genau so gesehen wird wie nicht versteckter Inhalt?

Antwort: Wir verstehen, dass auf mobilen Seiten nur begrenzter Platz zur Verfügung steht. Das heißt, wir behandeln Inhalte, die sich hinter einem Tab befinden oder die standardmäßig unsichtbar sind, als normalen Inhalt. Man kann Unterschiede dabei erkennen, wie wir ein Snippet anzeigen, aber aus der Rankingsicht ist es äquivalent zu sichtbaren Inhalt. Aus Benutzersicht würde ich trotzdem darauf achten, dass man dem Nutzer Einblick zu den Inhalten gibt, die er auch sucht. Besonders wenn es ein primärer Teil des Inhaltes ist. Sonst kommen Nutzer aus der Suche auf Eure Seite und wenn sie dann die gesuchten Informationen nicht finden, verlassen sie die Seite schnell wieder und suchen woanders weiter. Aus Nutzersicht empfehle ich also, dass alles was für Eure Seite wichtig ist, auch sichtbar ist. Es scheint irgendwie offensichtlich, aber viele Designer mögen es, Seiten schlank und clean zu gestalten, so dass die Informationen am Ende leider verborgen werden, die für den Nutzer eigentlich interessant sind.

Constanze Bettendorf und Jochen Moschko

Hinterlasse eine Antwort