Werbung

Gestern startete John Mueller den ersten Google Webmaster Hangout des Monats. Hier könnt ihr nachlesen, was er zu sagen hatte.

Thema: Hreflang

Zeit: 00:47

Frage: Wie wichtig sind die Hreflang Return to Tag Pfeile in Search Console?

Antwort: Ohne sie ignorieren wir die entsprechenden Hreflangs, da sie nicht von der anderen Seite bestätigt werden.

 

Thema: Canonical

Zeit: 01:38

Frage: Ist es immer noch okay, ein Canonical auf jede Seite zu packen?

Antwort: Das ist egal. Aber es muss sauber sein und es macht keinen Sinn, wenn alle zur Homepage verweisen.

 

Thema: Affiliate Links

Zeit: 02:34

Frage: Gibt es Probleme, wenn man einen gekürzten Affiliate Link im Body einer Seite hat? Können große Anzahlen davon stören, da sie verschleiernd aussehen oder nicht getrackt werden können?

Antwort: Es gibt bessere Wege, um Klicks zu tracken, also versucht die Links direkt zu setzen. Aber wenn das nicht geht, ist es kein Problem für uns.

 

Thema: Forum

Zeit: 04:53

Frage: Ein Freund hat ein Forum und seit 2012 nimmt sein Traffic rapide ab. Ich glaube, das hat mit Panda zu tun. Wie kann ein Webmaster wie er für den User Generated Content verantwortlich sein?

Antwort: Es ist immer so, dass ein Webmaster für seine Seite verantwortlich ist. Wenn du ein Forum mit schlechten nutzergenerierten Inhalten hast, dann sind das deine schlechten Inhalte. Wie andere Webmaster auch musst du dich dann um sie kümmern – selbst wenn das bei einem großen Forum schwer ist. Vielleicht kann auch vieles auf Noindex gestellt werden?

 

Thema: Strukturierte Daten

Zeit: 08:00

Frage: Wir glauben, dass wir in Search Console alles richtig gemacht haben, aber wie finden wir heraus, ob alles richtig im Index gelandet ist?

Antwort: Der beste Ort dafür ist das Strukturierte Daten Dashboard. Dort kannst du sehen, was wir sehen und verstehen konnten. Der zweite Ort ist die Indexierungsstatus Information in Search Console, welche die Gesamtanzahl der Seiten anzeigt. In der Suche geht es um drei Hauptpunkte, wenn wir überlegen, ein Snippet anzuzeigen. Ersten: Sind die Daten richtig eingebunden? Zweitens: Sind die Daten an der richtigen Stelle eingebunden (also z.B. ein Rezeptmarkup für eine Seite mit Rezepten)? Drittens: Hat die Seite genug Qualität, damit wir dem Markup vertrauen können? Die ersten beiden könnt ihr einfach kontrollieren, denn wenn wir bei der site:query ein Snippet anzeigen, dann ist es technisch korrekt. Aber wenn wir inn den normalen SERPs keine anzeigen, dann ist es wahrscheinlich eine Qualitätsfrage. Das ist immer schwer herauszufinden, fragt vielleicht mal in den Hilfeforen nach.

 

Thema: Google News

Zeit: 12:46

Frage: Seit drei Jahren können wir einfach nicht mehr die erste Position erreichen. Liegt vielleicht ein Penalty vor?

Antwort: Bei einer manuellen Abstrafung seht ihr das in Search Console. Ansonsten hat es mit den Algorithmen zu tun. Nutze den Google News Team Kontaktlink im Hilfecenter. Vielleicht können sie dir weiterhelfen.

 

Thema: Search Console

Zeit: 15:01

Frage: Google indexiert meine Seite nicht. Es gibt keine Content Keywords und man erkennt keine strukturierten Daten. Bei der Site Query Abfrage erscheinen aber die meisten Seiten.

Antwort: Ich habe mir das angesehen und du hast einen Umlaut in der URL. oft passiert es dann, das eine zweite Seite ohne Umlaut existiert. Bei dir sind auch manche Inhalte in der Version mit Umlaut indexiert, andere in der Version ohne. Suche dir eine davon aus und mach diese zur Canonical Version der Seite.

 

Thema: Seitenstruktur

Zeit: 17:42

Frage: Gibt es eine Best Practice zum Aufsetzen eines Blogs, um die Qualität der ganzen Website zu erhöhen?

Antwort: Das kannst du machen, wie du willst. Inhalte sind Inhalte, wenn wir die Links sehen versuchen wir es zu verarbeiten. Ein Blog ist da keine Ausnahme.

 

Thema: Große Seiten

Zeit: 18:34

Frage: Sind große Seiten mit mehr als 50.000 einzigartigen URLs besser mit Ordnerstruktur und Taxonomie zu handhaben? Hilft das dem Googlebot?

Antwort: Wir schauen uns die Taxonomie nicht an, wenn wir crawlen. Wir wollen nur sehen, dass eine einzigartige URL zu einzigartigen Inhalten verlinkt. In der URL brauchst du aber keine semantische Struktur.

 

Thema: URL Struktur

Zeit: 19:34

Frage: Wir haben fehlende Level in der URL Struktur, kann das unseren Rankings schaden (zum Beispiel haben wir “/clothing/shirts/” und “/clothing/shirts/color/blue/”, aber “/clothing/shirts/color/” gibt es nicht)?

Antwort: Aus unserer Sicht ist das für das Crawlen und Indexieren egal.

 

Thema: Autorität

Zeit: 20:27

Frage: Ist es möglich, dass meine internen Seiten eine höhere Autorität haben als meine Homepage?

Antwort: Sicher, andere Seiten können mehr Autorität haben als die Homepage. Das passiert zum Beispiel bei Produktseiten ziemlich oft und ist kein Problem.

 

Thema: Autorität

Zeit: 21:18

Frage: Was können wir tun, damit Google glaubt, wir seien eine Autorität zu einem Thema? Zum Beispiel im Inhalt Links zu den Quellen angeben?

Antwort: Ich würde einen Schritt zurückgehen und versuchen, eine Autorität für die Nutzer zu werden. Dann sehen wir, wie diese mit euch interagieren – und das ist auch das, was ihr beeinflussen könnt. Links setzen sorgt nicht unbedingt für starke Inhalte, sondern kann auch spammig wirken. Bei Pressemitteilungen sollte man in solchen Fällen Nofollow nutzen. Diese machen auch nur Sinn, wenn sie wirklich jemand liest.

 

Thema: Syndicated Content

Zeit: 25:25

Frage: Kann eine Seite mit mehr als 500.000 hochwertigen Stücken an Syndicated Content ein Panda Problem bekommen?

Antwort: Syndicated Content ist nicht immer ein Problem, aber es muss dem Nutzer einen wirklichen Wert bieten. Ich glaube, ihr solltet testen, ob ihr alles umschreiben müsst – in vielen Fällen macht es auch Sinn, etwas zu dem Bestehenden hinzuzufügen. Testet, wie eure Nutzer reagieren und orientiert euch daran.

 

Thema: Doorway Pages

Zeit: 29:07

Frage: Unsere Firma hat Filialseiten für die Depots. Müssen wir diese verlinken oder kann Google die Verbindung selbst herausfinden?

Antwort: Grundsätzlich folgen wir beim Crawlen den Links. Wenn es keine gibt, wird es schwer für uns. Also macht es uns einfach. Ihr müsst auch darauf achten, dass die Filialseiten nicht zu Doorway Pages mutieren.

 

Thema: Interne Links

Zeit: 29:13

Frage: Unsere Firma hat individuelle Filialseiten für die Depots, aber was müssen wir tun, damit die Dienstleistungen unserer unterschiedlichen Filialen ranken: Müssen wir diese untereinander (intern) verlinken oder ist Google schlau genug, um dies selbst zu erkennen?

Antwort: Generell crawlt Google eine Website, indem auf die internen Links geschaut wird. Es ist schwierig für Google individuelle Seiten zu crawlen, wenn diese intern nicht verlinkt sind. Es macht es darüber hinaus auch schwierig zu ermitteln, in welchem Website-Context die Seiten stehen. Stellt sicher, dass seitenintern gecrawlt werden kann. Bezüglich der in der Frage beschriebenen Situation: Ihr müsst vorsichtig sein, dass ihr euch nicht in Richtung Doorway Pages bewegt. Für Hunderte oder Tausende Filialen Seiten zu erstellen könnte Google als spammig einstufen.

 

Thema: Crawling

Zeit: 30:49

Frage: Haben Impressionen oder Traffic Einfluss auf die Crawlfrequenz? Werden Pages mit hohem Traffic häufiger gecrawlt als Seiten mit wenig Traffic?

Antwort: Das ist eher eine Korrelation/Ursachen Situation, wo wir gar nicht sehen wie viele Besucher auf diese Pages gehen. Wenn wir aber das Gefühl haben, dass es sich um eine wichtige Seite der Website handelt, dann werden wir sie regelmäßiger crawlen. Das geschieht zum Beispiel, wenn Google feststellt, dass auf einer bestimmten Seite immer Newsartikel gepostet werden. In diesem Fall erkennt Google, dass auf dieser Seite regelmäßig Änderungen stattfinden und sie damit für Nutzer interessant ist – Google versucht diese Seite häufiger zu crawlen.

 

Thema: Links

Zeit: 31:49

Frage: Würdest du sagen, dass in diesem Fall Links eine Rolle spielen?

Antwort: Ja, ich würde sagen, dass Links in Bezug auf das Crawling wichtig sind. Google muss diese Seiten erst finden, also spielen Links zumindest hier eine Rolle. Es geht dabei nicht so sehr um den Aufbau externer Links, sondern mehr um interne Links. Interne Links helfen Google dabei, eine Website zu verstehen und zu ermitteln, welche Seiten die wichtigsten Seiten einer Website sind. Beachtet aber bitte, dass, nur weil etwas häufiger gecrawlt wird, es nicht unbedingt wichtiger für die Suche. Google versucht das Crawlen vom Part der Indexierung und dem Ranking zu separieren. Google crawlt Seiten häufiger, die sich häufig verändern, aber das bedeutet nicht, dass diese Seiten höher ranken.

 

Thema: Robots.txt

Zeit: 33:07

Frage: Ist es möglich, eine Robots.txt Zeile zu haben, die die Mitte einer Anfrage annulliert und nicht nur den Anfang (die gesamte Subdirectory)?

Antwort: Sicher.

 

Thema: Noindex

Zeit: 33:40

Frage: Wenn eine Website 2/3 des eigenen Contents auf noindex stellt – würde das irgendeine Art von Problem oder Penalty auslösen?

Antwort: Nein, das ist in Ordnung.

 

Thema: Robots.txt

Zeit: 33:58

Frage: Wir haben das Limit bei der Größe unserer Robots.txt Datei erreicht, deswegen suchen wir nun nach alternativen Möglichkeiten unsere Crawling Bandbreite zu erhalten, ohne dass Tausende von Variationen unserer Suchergebnisse indexiert werden. Ist es sinnvoll, noindex-nofollow auf Seitenebene zu verwenden?

Antwort: Sicher, ihr könnt noindex-nofollow auf Seitenebene verwenden. Es hilft Google dabei, die oben genannten Seiten nicht zu crawlen. Der schwierig Part ist, dass wir diese Seiten crawlen müssen, die ein noindex-nofollow haben, damit wir diese markieren können. Das größere Problem, das ich bei dieser Frage sehe, ist, dass, wenn ihr das Limit bei der Größe der Robots.txt Datei erreicht habt, die Robots.txt Datei vermutlich zu kompliziert ist. Es dürfte auf lange Sicht schwierig sein, diese Datei zu pflegen. Ich würde Zeit dafür aufbringen, die Robots.txt Datei zu reduzieren, um die Pflege der Datei einfacher zu machen und um zu sehen, welche Teile der Website blockiert werden.

 

Thema: Noindex-nofollow

Zeit: 35:37

Frage: Wenn man noindex-nofollow nutzt – dann muss Google die Seite so oder so indexieren, um das noindex zu sehen – braucht dies das Crawlbudget auf?

Antwort: Das hat sicherlich Auswirkungen, aber wenn von der Seite auf Tausende von Suchanfragen verlinkt wird, dann folgt Google diesen Links wenigstens nicht.

 

Thema: Site Move

Zeit: 36:29

Frage: Hi John, vor über 18 Monaten haben wir 301-Weiterleitungen von einer .info auf eine .uk Domain eingerichtet und den Umzug via Search Console angezeigt. Wir haben den Site Move Request und die Weiterleitungen vor drei Wochen entfernt. Es scheint aber weiterhin so, als ob Google dies immer noch als Site Move wahrnimmt.

Antwort: Generell kannst du vermutlich noch alte URLs finden, nach denen du mit dem Site Query speziell suchst. Das ist vermutlich auch bei euch der Fall. Die Anfrage zu einem Site Move zu entfernen dauert vermutlich eine Weile, bis das dann auch wirklich Wirkung zeigt.

 

Thema: Canonical Tag

Zeit: 37:33

Frage: Wenn wir einen Teil einer größeren Website auf eine neue Domain verschieben wollen: Wäre es okay, eine Kopie dieses Teils für alte Kunden auf der Original-Website zu behalten, die Seite aber auf die neue Domain zu kanonisieren? Und kann das zurückgesetzt werden, wenn es nicht wie gewünscht funktioniert?

Antwort: Sicher, das könnt ihr machen. Was passieren wird, ist, dass wir über den Canonical als Signal kommen werden (Canonicals sind im Gegensatz zu z. B. 301-Weiterleitungen keine Anweisung) und Google dann die meisten Seiten auf der neuen Domain aufnehmen wird, aber unter Umständen noch einige auf der alten Domain indexieren wird. Wenn das für euch kein Problem ist, dann ist das in Ordnung. Für Google ist das kein signifikantes Problem.

 

Thema: Links

Zeit: 39:28

Frage: Einige Verzeichnisse bauen eine Menge Links auf unsere Website auf. Sie wollen 7 $ dafür haben, dass diese Links entfernt werden. Wir geben alle dieser Links in die Disavow Datei, aber sie bauen immer neue Links auf. Kann Google sich diese Websites ansehen und entfernen?

Antwort: Ich habe mir das mal angesehen und wir kennen die meisten dieser Verzeichnisse. Was ihr machen könnt, ist, dass ihr die ganze Domain in der Disavow Datei auflistet und euch nicht weiter darum kümmert.

 

Thema: Disavow Tool 

Zeit: 40:21

Frage: Es gibt eine Menge Kritik und es wird gesagt, dass es nicht funktioniert diese Links ins Disavow Tool zu geben.

Antwort: Auf unsere Seite funktioniert es. 😉 Was du im Prinzip sagst, ist, dass die Leute nicht glauben, was Google über die Disavow Datei sagt. Das Disavow Tool funktioniert aus unserer Sicht.

 

Thema: Bilder Indexierung

Zeit: 41:03

Frage: Wir hatten Probleme mit Fotoseiten, die über Fotogallerien mit etwa 40 Fotos verfügen. Ursprünglich waren alle diese Fotos auf separaten Pages. Wir glauben, dass dies einige Probleme verursacht hat, daher haben wir sie in den Gallerien gesammelt. Jetzt haben wir aber das Problem, dass nichts, was langsam lädt (Lazy Loading), mehr rankt. Kannst du uns eine bessere Art und Weise empfehlen, damit umzugehen?

Antwort: Generell sollte es kein Problem darstellen, die Bilder auf separaten Seiten zu veröffentlichen. Ich werde mir das ansehen und euch eine Rückmeldung geben.

 

Thema: Website Karma

Zeit: 43:13

Frage: Sind Websites nach der Erholung von einem Penalty in irgendeiner Art und Weise belastet? Gibt es eine Situation in der es einfacher wäre zu ranken, indem man auf eine neue Domain umzieht?

Antwort: Aus unserer Sicht verfügen Websites nicht über etwas wie schlechtes Karma, wenn sie in der Vergangenheit für Spamtaktiken genutzt wurden. Es gibt eine Ausnahme: Wenn Google sieht, dass eine Website regelmäßig manuelle Abstrafungen erhält, aufräumt, erneut eine manuelle Abstrafung erhält, wieder aufräumt, usw. Außerdem schauen sich die Google Algorithmen auch Spamtechniken an und versuchen, solche zu markieren. Wenn eine Website so markiert wird, kann es sein, dass es dauert, bis sich diese davon wieder erholt, besonders in Bezug auf die Qualitätsalgorithmen.

 

Thema: Links

Zeit: 45:27

Frage: Wir haben heute einen Link von der Zeitung Daily Telegraph erhalten, in welchem wir aufgrund unserer Firmentätigkeit genannt werden. Es handelt sich um einen Geschenkeguide für Weihnachten. Normalerweise wäre ein Link vom Daily Telegraph eine gute Sache, da Google das wohl als Authority Source werten würde. Aber ich habe mir den Artikel angesehen und alle Links bis auf einen sind nofollow. Das deutet darauf hin, dass es sich um einen Sponsored Post handelt, der aber nicht als solcher markiert wurde. Wie geht Google mit solchen ziemlich offensichtlichen Linkplatzierungen in nicht markierten Sponsored Posts um?

Antwort: Ich weiß nicht. Das ist vermutlich eine Sache, die Google nicht immer erkennen wird. Vermutlich erkennen wir dies, wenn es regelmäßig geschieht.

 

Thema: Spam

Zeit: 48:41

Frage: Ich habe eine E-Mail geschrieben, weil hier ähnliche Dinge passieren. Eine Menge Spamsites ranken in den Suchergebnissen ganz oben. Ist dies eine dieser Situationen in der wir auf ein neues Penguin Update warten müssen?

Antwort: Das ist so eine Sache, die wir an das Search Quality Team und das Webspam Team weiterleiten, um eine Überprüfung vorzunehmen. Es ist aber nicht so, dass Google diese Meldungen nimmt und alle dort genannten Websites mit manuellen Abstrafungen belegt. Aber besonders wenn Google ein größeres Muster erkennt, welches bisher übersehen wurde (egal ob manuell oder algorithmisch), unternimmt Google, was notwendig ist, um die Suchergebnisse zu verbessern.

 

Thema: Navigation

Zeit: 51:22

Frage: Wir haben eine Umfrage durchgeführt, aus der sich ergeben hat, dass wir eine sehr kleine Navigation hatten. Wir haben die Navigation daraufhin erweitert. Diese Änderung scheint sich negativ auf die Suche auszuwirken. Kannst du dazu einen Kommentar abgeben?

Antwort: Google ist normalerweise ziemlich gut darin, welcher Teil des Contents der Hauptcontent ist. Wenn innerhalb des Templates etwas Signifikantes geändert wird, dann dauert es offensichtlich eine Weile, bis sich alles wieder einpendelt. Sobald dies geschehen ist, sollte Google fähig sein, dass richtig aufzunehmen und zu nutzen. Manchmal wenn die Navigation umfangreich ausgebaut wird, sorgt das für eine Menge Text, was es für Google schwerer macht, den Hauptcontent zu identifizieren.

 

Thema: Google Penguin

Zeit: 52:56

Frage: Ist Penguin immer noch im Zeitplan und ein Launch am Ende dieses Jahres der Fall?

Antwort: Soweit ich weiß: Ja.

 

Thema: Produktseiten

Zeit: 56:04

Frage: Was ist, wenn eine Website viele Seiten mit ähnlichen Produkten hat? Und Content? Hat das Einfluss auf die Rankings der gesamten Website? Z. B. Produkte für verschiedene Modelle und Produktionsjahre.

Antwort: Das hört sich in Ordnung an. Es ist nichts, was ich artifiziell unterdrücken würde. Es könnte Sinn ergeben, eine Seite zu erstellen, auf der die verschiedenen Variationen des Produktes gelistet werden.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT