Neues aus dem Webmaster-Hangout

von Jochen Moschko

Kategorie(n): News Datum: 4. Mai 2018
John Müller hat in seinem deutschsprachigen Webmaster-Hangout vom 03.05. gleich drei Fragen unseres SEO-Experten Klaus Wockenfoth beantwortet, die er vorab über Google Plus eingereicht hatte.

hreflang

Die erste Frage (Position 43:53) drehte sich um das Thema „hreflang“. Mit einem „hreflang“-Tag kann man festlegen, welche Version einer Seite auf welche Sprache und/ oder Region ausgerichtet werden soll. Die Frage von Klaus lautete, ob es problematisch sei, wenn mehrere Varianten – beispielsweise „de“ und „de-de“ auf dieselbe URL zeigen, wenn diese gleichzeitig innerhalb eines Dokuments vorkommen. Laut John Müller ist das unproblematisch.

Mehrere H1-Überschriften

In der zweiten Frage (Position 44:25) ging es um Seiten, die mehrere H1-Überschriften enthalten und darum, ob dann eine dieser H1-Überschriften von Google priorisiert wird. Laut John Müller kommt es auf den Kontext an. Google bewertet ein Element nicht danach, ob es im Quellcode besonders weit vorne steht, da man mit CSS bekanntlich die Sichtbarkeit und Position des Elements steuern kann. Es kommt daher auf den Kontext an, also worauf sich die jeweilige Überschrift bezieht.

Robots

Bei der dritten Frage (Position 45:24) ging es um die Indexierung blockierter Seiten. Wenn eine Seite beispielsweise im Pfad „/Kategorie/Dokumentenname“ liegt und der gesamte Ordner „/Kategorie/“ in der Robots.txt-Datei für Suchmaschinen gesperrt ist, im Dokument („Dokumentenname“) die Meta-Angabe „Robots“ jedoch auf „Index“ gesetzt ist, handelt es sich um widersprüchliche Signale. Wie verhält sich Google hier? Laut John Müller crawlt der Googlebot das besagte Dokument erst gar nicht, da der Ordner, in welchem es liegt, über die Robots.txt-Datei gesperrt ist. Aus diesem Grund werden die Meta-Tags des Dokuments erst gar nicht erfasst. Aber: Gerade erst diese Tage hatten wir den Fall, dass bei einer Website einzelne Seiten von Google indexiert wurden, obwohl sie über Anweisungen in der Robots.txt-Datei blockiert waren. Selbst in der Search Console wurden wir darauf hingewiesen: Wir stellen fest, dass es zufälligerweise genau dieses Szenario betraf: Die Seiten waren über die Robots.txt-Datei blockiert, in der „Meta-Robots“-Angabe stand jedoch „Index, Follow“. Eine Site-Abfrage brachte zu Tage, dass die URLs dieser blockierten Dateien zwar im Google-Index zu finden waren, ihr Inhalt aber nicht indexiert wurde.