Werbung

Gestern hielt John Mueller einen weiteren englischen Google Webmaster Hangout ab. Das Thema war diesmal: Crawlen und Indexieren.

Thema: Inhalte

Zeit: 01:01

Frage: Wir haben eine große Website und verkaufen Dinge aus dem Automobilsektor. Aber seit einigen Monaten haben wir auch Kategorien mit Produkten, die nichts mit diesem Thema zu tun haben. Und vor Kurzem ist nun unser Traffic zu Automobil-Keywords gesunken. Haben unsere neuen Themen die Seite verwässert? Sollten wir eine Subdomain oder eine neue Domain dafür anlegen?

Antwort: Meistens ist es nicht so einfach. Also ist es nicht so, dass ihr eure Seite verwässert oder für die Automobilbranche uninteressant macht. Euer Problem sollte woanders liegen. Eine neue Domain hätte einen Einfluss, aber ich weiß nicht, ob es ein guter Einfluss wäre. Mir ist es immer lieber, eine richtig starke Seite zu haben – aber geht sicher, dass ihr nur eine Zielgruppe ansprecht.

 

Thema: App Indexierung

Zeit: 10:04

Frage: Search Console zeigt mir keine passenden Daten für meine App an (zeigt ein paar Folien). Manchmal scheint das Fetch as Google ok, manchmal nicht. Woran kann das liegen?

Antwort: Du hast in Fetch as Google einen Doppelpunkt hinter dem HTTPS, und der sollte nicht da sein. Das Team sagt, dass die wenigen Impressionen daran liegen, dass nur wenige Leute die App installiert haben. Das Streamen von App-Inhalten ist nämlich nur ein sehr begrenzter Test.

 

Thema: Autoren-Markup

Zeit: 14:14

Frage: Ist es neu, dass das Markup für Artikel den Namen des Autoren voraussetzt?

Antwort: Das sollte ziemlich neu sein.

 

Thema: Noindex

Zeit: 14:55

Frage: Eine Seite ist in robots.txt blockiert, aber immer noch da. Wie stellen wir sicher, dass sie nicht mehr im Index auftaucht?

Antwort: Nutzt das URL Removal Tool. Hier müsst ihr immer das exakte Ziel eingeben. Das hilft dann für einen begrenzten Zeitraum, nach dem ihr das noch einmal prüfen könnt. Viele Seiten werden dann, da wir sie nicht sehen können, aus dem Index fallen (oder sehr schlecht ranken, wenn es sich nicht um ein site-query handelt). Und wenn sie nach dem ersten Zeitraum noch da sind, versucht es einfach noch einmal. Ein Noindex in der robots.txt kann funktionieren, aber das ist keine offizielle Richtlinie. Daher solltet ihr euch darauf nicht langfristig verlassen. Wenn es also wichtig ist, dann arbeitet nicht auf diese Weise.

 

Thema: Indexierung

Zeit: 22:02

Frage: Was ist der schnellste Weg, um unsere Inhalte in den Index zu bekommen?

Antwort: Wenn ihr eine kleine Seite habt, nutzt Abruf durch Google, an den Index schicken. Für eine größere Seite nutzt eine Sitemap.

 

Thema: Location Based Search

Zeit: 22:33

Frage: Ohne die Location Based Search Option bin ich aufgeschmissen.

Antwort: Die meisten der Funktionen in der Suche sind für die Nutzer. Wir fanden daher, dass dieses Feature nicht wichtig ist – sondern Nutzer eher verwirrt hat. Nutze vielleicht die URL Parameter, das sollte noch funktionieren.

 

Thema: Metadaten

Zeit: 25:11

Frage: Sind der Title und die Metadaten Ranking-Faktoren? Ist es ok, sie automatisch zu generieren oder hat das einen schlechten Einfluss auf die SERPs?

Antwort: Soweit ich weiß wird der Title für das Ranking genutzt, die Description aber nicht (sondern nur für Snippets). Beide sollten aber nützlich sein. Wenn ihr das mit einem automatischen System hinbekommt, dann macht das so.

 

Thema: Empfehlungen

Zeit: 26:05

Frage: Hast du ein paar SEO-Tipps für 2016?

Antwort: Ich habe keine magischen SEO-Tipps. Aber ich denke, dass ihr viel über AMP und Mobil hören werdet. Es wird auch viel zu JavaScript basierten Seiten geben. Inhalte mit hoher Qualität sind auch etwas, worauf ich achten würde – und Gleiches gilt für die Nutzerintention. Wir versuchen, Inhalte zu den Leuten zu bringen, die ihnen auch etwas nützen.

 

Thema: Algorithmus

Zeit: 27:59

Frage: Behandelt der Google-Algorithmus alle Branchen gleich oder haben manche einen Vorteil gegenüber anderen?

Antwort: Grundsätzlich versuchen wir, alles gleich zu behandeln. Die Algorithmen sollen im ganzen Web funktionieren, für alle Sprachen, Länder und Branchen.

 

Thema: Interne Links

Zeit: 29:43

Frage: Hat ein doppelter interner Link (also hin und zurück) mehr Gewicht und verdeutlicht die Beziehung zwischen zwei Seiten besser als ein einfacher Link? Kann das beim Ranken helfen?

Antwort: Grundsätzlich hilft uns das, die Zusammenhänge besser zu verstehen und damit besser crawlen zu können. Aber ich bezweifle, dass man davon jemals einen Ranking-Boost sehen wird. Also spielt nicht mit künstlichen internen Links herum, das wäre nur eine Zeitverschwendung. Wenn das natürlich passiert, ist es aber kein Problem – es wäre sogar künstlicher, wenn ihr es zwanghaft vermeidet. Verlinkt einfach so, dass es natürlich ist und Sinn macht.

 

Thema: Local

Zeit: 31:52

Frage: Wir haben einige Serviceseiten zu unseren Filialseiten hinzugefügt und zeigen dort die verschiedenen Dienstleistungen, die wir in der jeweiligen Stadt anbieten. Diese Seiten verfügen über einzigartigen, nützlichen Content und unsere Rankings sind stark gestiegen. Bedeutet dieser positive Effekt, dass Google dies nicht als Doorway Pages einstuft?

Antwort: Nicht unbedingt. Wenn es sich lediglich um eine Handvoll Seiten handelt, die sich mit bestimmten Aspekten eurer Dienstleistungen auseinandersetzen – dann sind das im Grunde genommen Produktseiten. Das ist etwas Nützliches und nichts, auf das Google negativ reagieren würde. Auf der anderen Seite, wenn ihr Tausende von Seiten mit Hunderten von Varianten produziert – dann ist das vermutlich etwas, was wir als Low Quality Content oder sogar als Doorway Pages einstufen. Eventuell wird auch ein Mitglied des Webspam Teams tätig, um sich das Ganze manuell anzusehen und unter Umständen eine manuelle Abstrafung zu vergeben. Nur weil ihr aktuell eine bestimmte Reaktion seht, heißt das nicht, dass ihr es richtig macht. Ich würde Mal Abstand nehmen und mir das ganze Bild ansehen, vielleicht auch Feedback von anderen Webmastern einholen, die in einer ähnlichen Situation sind, um herauszufinden, ob ihr die Linie schon übertreten habt oder euch der Linie annähert – oder ob ihr alles richtig macht, es für den Nutzer Sinn macht und total in Ordnung ist.

Thema: Manuelle Abstrafungen

Zeit: 33:22

Frage: Lässt Google Keyword (Phrasen) unberücksichtigt, wenn man sich von einer manuellen Abstrafung erholt hat? Also werden die Keywords ignoriert, für die man zuvor den Penalty erhalten hat? Oder hält einen anschließend nichts mehr zurück?

Antwort: Das ist schwierig zu sagen. Generell ist es so, dass, wenn eine manuelle Abstrafung mit einem Reconsideration Request abgebaut wird, diese Abstrafung völlig aus Google’s System verschwindet. Es ist nicht so, dass die Google Algorithmen einen Groll gegen die Website haben. In Bezug auf bestimmte Arten manueller Abstrafungen ist es jedoch so, dass einige Algorithmen die Probleme ebenso erkennen. Daher kann es eine Weile dauern, bis diese den neuen Status widerspiegeln. Bei einer Abstrafung wegen unnatürlicher Backlinks beispielsweise – da kann eine Abstrafung ausgesprochen und via Reconsideration Request bereinigt werden. Aber die Algorithmen können die Website vor einiger Zeit gecrawlt haben und somit die schlechten Backlinks noch im System haben – es könnte eine Weile dauern, bis sie den neuen Status erkennen. Wenn es um Content Penalties geht, dann hegen die Algorithmen keinen Groll gegen die betroffene Website.

Thema: Überschriften

Zeit: 34:32

Frage: Wenn ich Seiteninhalt unter einer H2-Überschrift platziert habe und dieser Content hat Unter-Überschriften: Sollte ich H3-Tags innerhalb des Contents nutzen oder einfach alles unter dem H2-Tag belassen? Gibt es den einen richtigen Weg?

Antwort: Diese H-Tags helfen Google dabei, den Kontext des Contents besser zu verstehen, aber es handelt sich um keine Wunderwaffe. Wenn die H-Tags falsch verwendet werden, ist das nichts, was unsere Algorithmen dazu bringen würde, die Website schlechter zu ranken. Diese Überschriften helfen Google dabei, die Struktur zu verstehen, aber es kein absolut kritisches Element. Wenn du der Meinung bist, die H3er unterhalb der H2er zu benutzen und es aus semantischer Sicht Sinn macht – nur zu!

Thema: Überschriften

Zeit: 35:33

Frage: Hat es irgendeinen Einfluss, wenn ich mehrere H1-Überschriften auf einer Seite verwende?

Antwort: Nicht wirklich. Was in solch einem Fall passiert, ist, dass Google erkennt, dass es mehrere (H1-)Überschriften gibt und kann kann dann nicht einordnen, welche die Hauptüberschrift ist. Es erzeugt ein gewisses Trugbild, aber es ist nichts, wo Google denken würde, dass ihr irgendwas total falsch macht.

Thema: Rich Snippets

Zeit: 36:12

Frage: Hey John, bezüglich Rich Snippets: Wäre es okay, die gleichen Bewertungen auf diversen (ähnlichen) Kategorieseiten zu verwenden oder besteht die Gefahr, dass man die Bewertungssterne komplett verliert, wenn man das so macht und gewissermaßen keine einzigartigen Bewertungen auf jeder einzelnen Seite bereitstellt?

Antwort: Generell sollten die Bewertungssterne sich auf die Produkte beziehen, die ihr auf der jeweiligen Seite anbietet. Wenn es eine Bewertung für ein spezielles Produkt gibt und dieses Produkt wird auf verschiedenen Seiten der Website angeboten, dann macht es sicherlich Sinn, die gleichen Bewertungen zu verwenden. Auf der anderen Seite würde es komisch aussehen, wenn ihr die gleichen Bewertungen auf der ganzen Website für alle Artikel benutzt, die ihr im Sortiment habt. Google wüsste dann nicht, was mit den Bewertungen angefangen werden soll.

Thema: Indexierung

Zeit: 37:07

Frage: Gibt es eine Möglichkeit herauszufinden, welche Seiten nicht indexiert wurden – abseits der Nutzung von kleinen Sitemaps? Hast du noch irgendwelche Tipps hinsichtlich der Frage, warum Seiten nicht indexiert werden könnten?

Antwort: Sitemaps sind auf jeden Fall eine Möglichkeit, das herauszufinden. Eine andere Sache, die ihr machen könntet, ist, einen Blick in die Server Logs zu werfen, um zu ermitteln, welche Seiten durch die Suche Traffic erhalten. Das sagt euch indirekt, welche Seiten indexiert wurden. Ich würde mich vermutlich eher darauf fokussieren und nicht so sehr auf den technischen Part. Hinsichtlich der Nicht-Indexierung von Seiten: Es gibt verschiedene Gründe – manchmal stufen wir Seiten als Spam ein und indexieren sie daher nicht. Manchmal erkennen wir, dass es sich bei Seiten um Duplikate handelt und indexieren sie nicht. Manchmal haben wir für Seiten auch nicht genügend Signale – in diesem Fall hilft die Sitemap und die interne Navigation. Ich würde mich aber nicht darauf fokussieren, jede einzelne Seite einer Website indexiert zu bekommen – das geschieht nur äußerst selten. Fokussiert euch darauf, die Seiten indexiert zu haben, die wichtig sind!

Thema: Strukturierte Daten

Zeit: 39:28

Frage: Wir haben unsere strukturierten Daten geändert, aber in Search Console werden noch die alten strukturierten Daten angezeigt (mit einem Erkennungsdatum von vor 3 Monaten). Ich bin mir sicher, dass unsere Seiten seither gecrawlt worden sind. Warum wird das angezeigt?

Antwort: Ich würde gerne ein Beispiel dazu sehen. Ich habe das bisher von zwei Personen gehört. Es könnte sein, dass wir dies anzeigen, weil wir bisher keine neue Variation der Daten haben. Außerdem ist es nicht unbedingt so, dass wir ein Mark Up nicht erkannt haben, nur weil wir es nicht anzeigen. Wenn wir aber in Search Console hinsichtlich der strukturierten Daten verwirrende Hinweise geben, ist das etwas, wo ich gerne Beispiele sehen würde, damit ich das dem Team weiterleiten kann.

Thema: Crawling & Indexierung

Zeit: 40:48

Frage: Besteht zwischen dem Crawling und der Indexierung irgendeine Verbindung? Mir geht es um indexierte Seiten.

Antwort: Ich glaube die generelle Frage hier ist, was, wenn die Seite bereits indexiert wurde, der Unterschied zwischen einer Seite, die häufig gecrawlt und einer Seite, die nicht so häufig gecrawlt wird, ist. Wir versuchen solche Seiten häufig zu crawlen, die wir als wichtig empfinden.

Thema: Bilder & Rankings

Zeit: 42:43

Frage: Hi John! Ist es möglich, dass Produktseiten mit Bildern – aufgrund der Rankings der Produktbilder in der Bildersuche – hinsichtlich ihrer Rankings profitieren/leiden? Führt ein gutes Ranking in der Bildersuche zu einem guten Ranking der Produktseite in der normalen Suche?

Antwort: Nicht unbedingt, denn Google versucht, diese beiden Dinge so separat wie möglich zu behandeln. Es ist nicht so, dass Google denkt, “wow, das ist in der Bildersuche wichtig, daher sollten wir die Rankings in der normalen Suche verbessern”. Was natürlich passieren kann, ist, dass Google Bilder im Bilder-Block im oberen Bereich der normalen Suche zeigt.

Thema: Bildersuche

Zeit: 43:46

Frage: Uns ist ein starker Anstieg des Traffics über images.google.de aufgefallen. Gab es irgendwelche großen Änderungen bei Google, die einen generellen Einfluss auf die Bildersuche hatten?

Antwort: Ich denke nicht, dass es große Änderungen gab. Eine Sache, die bei der deutschen und der französischen Bildersuche besonders ist, ist, dass noch die alten Ergebnisseiten verwendet werden. Es könnte sein, dass ihr Effekte seht, die durch Experimente in diesem Bereich ausgelöst werden. Bezüglich der Klicks und Impressionen kann es ebenso einige Verschiebungen geben, da Google aktuell versucht, die Art und Weise wie Klicks und Impressionen getrackt werden, zu vereinheitlichen.

Thema: Backlinks

Zeit: 45:14

Frage: Hallo John, wenn eine Website via organischer und mit Affiliate Links auf uns verlinkt: Kann das unsere Website schädigen? Beispiel: Eine Person hat bei uns eine Bestellung aufgegeben und über die Produkte gebloggt. Anschließend wird sie Affiliate – ist das für Google fragwürdig?

Antwort: Aus meiner Sicht ist das total in Ordnung. Es ist nichts, worüber ich mir Sorgen machen würde. Wenn ihr viele Affiliate Links habt und ein Snippet für eure Affiliates bereithaltet, mit dem sie auf eure Website verlinken können, dann würde ich nur sichergehen, dass diese Links nofollow sind.

Thema: Backlinks

Zeit: 46:05

Frage: Hi John, haben Backlinks, die von Blogs kommen, die auf WordPress oder Blogspot gehostet werden, den gleichen Wert wie Links, die von Blogs kommen, die auf eigener Top Level Domain laufen? (Vorausgesetzt alle anderen Faktoren wie Autorität und Relevanz sind gleich.) Danke.

Antwort: Ja, generell schon. Man kann seinen Blog ja auch auf WordPress oder Blogspot hosten und gleichzeitig eine Top Level Domain haben – das ist nichts, was Google versucht auseinanderzuhalten.

Thema: HTTP2

Zeit: 46:30

Frage: Was ist der Status hinsichtlich des Crawlings und der Indexierung von HTTP2 Seiten?

Antwort: Kann ich nicht sagen, da ich noch keine Rückmeldung in dieser Frage vom entsprechenden Team erhalten habe. Ich denke, dass Googlebot aktuell noch keine HTTP2 Seiten crawlt.

Thema: Google Analytics

Zeit: 48:35

Frage: Warum gibt es so viel “not provided” in Google Analytics? Das macht es schwierig, den Traffic zu analysieren…

Antwort: Das liegt an Referrer Informationen, welche an die Websites gegeben werden, was eine Sache ist, die wir basierend auf unserer Richtlinien nicht anzeigen. Versucht, die Daten der Search Console und von Google Analytics gemeinsam zu benutzen, um besser analysieren zu können.

Thema: Rankings

Zeit: 49:06

Frage: Ich kümmere mich um SEO & SEA in unserer Firma. Die Rankings für einige unserer Hauptkeywords sind in den vergangenen sieben Tagen signifikant gefallen.

Antwort: Ich empfehle, die Frage im Hilfeforum zu stellen, um Hilfestellung von Webmaster ähnlich gelagerter Websites zu erhalten. Vergess nicht, die URL mit anzugeben.

Thema: HTTPS

Zeit: 50:20

Frage: Ist es wirklich notwendig, die Disavow Datei von der alten (HTTP) Version auf der neuen (HTTPS) Version hochzuladen?

Antwort: Du solltest die Disavow Datei auf der Canonical Version der Website hochladen. Wenn eine Website von HTTP auf HTTPS umzieht, dann sollte dort (HTTPS website) die Disavow Datei hochgeladen werden.

Thema: Backlinks

Zeit: 51:28

Frage: Gibt es irgendeinen Unterschied zwischen einem Link mit einem Ankertext und einem Link von einem Bild mit einem Alt Attribut in Bezug auf den Transfer von PR?

Antwort: PageRank sollte der gleiche sein, egal was da vorliegt. In Bezug auf die Assoziierung des Anchors mit der URL würde ich vermuten, dass beides gleichwertig ist. Du braucht nicht den Alt Tag und den Title, ich denke der Alt Tag ist da ausreichend, weil es im Prinzip nur dupliziert wird.

Thema: Search Console API

Zeit: 52:07

Frage: Ich frage mich, ob wir bei der Search Console API etwas falsch machen. Das Kontingent soll bei 2000 Requests die Sekunde liegen, aber wir bekommen nur 3 Requests pro Sekunde hin. Mit wem können wir uns in Verbindung setzen, um dieses Problem zu lösen?

Antwort: Ich glaube, das ist das normale Kontingent. Ich glaube, für die ganze API gibt es ein Kontingent von 10 QPS. Allerdings gilt das insgesamt für alle Features. Wenn ihr euch nur auf Search Analytics Daten fokussiert, dann liegt das Limit, so denke ich, bei 2 QPS.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT