Google Webmaster Hangout vom 19.06.2015

von Anja Baltrusch

Kategorie(n): Google Webmaster Hangouts Datum: 19. Juni 2015
Im Folgenden ist der heutige (englische) Webmaster Hangout mit John Müller von Google nachzulesen. Viel Spaß!

App-Indexing

21:33 Frage: Kann man einen Alternative-Tag auf dynamischen URLs nutzen auch wenn das Canonical auf diesen Seiten statisch ist? Antwort: Ich verstehe die Frage nicht ganz. Aber grundsätzlich müsst ihr bei Markups aufpassen, dass ihr ein gleichbleibendes URL-Format für alle Markups benutzt.  

Bildverwendung

39:37 Frage: Wenn ich ein Bild aus einem Artikel herunterlade, um dieses Bild in einem meiner Artikel zu verwenden – muss ich dann das Bild editieren, um Duplicate Content zu vermeiden oder kann ich es, so wie es ist, hochladen? Antwort: Das Erste, worauf geachtet werden muss, ist, dass eine Genehmigung vorliegt, dieses Bild zu nutzen. Das ist keine Sache, die SEO betrifft. Betreffend Duplicate Content: Google nutzt für das Ranking in der Bildersuche auch den umgebenden Content. Daher kann nicht garantiert werden, dass immer das Original angezeigt wird.  

Content

50:11 Frage: Mir ist in letzter Zeit aufgefallen, dass einige Leute Textabschnitte von anderen Websites kopieren, Absätze hinzufügen und auf ihrer eigenen Website einbauen. Ist das aus Google-Sicht in Ordnung? Kann das zu einer Panda Abstrafung führen? Antwort: Das berührt vermutlich das Copyright, dazu kann ich keine Informationen geben, da ich keine Rechtsberatung machen kann. Wir crawlen diesen Content und versuchen das relevanteste Ergebnis anzuzeigen. Unter Umständen kann das dazu führen, dass dies als Low Quality Content angesehen wird. Das kommt aber ganz darauf an, wie genau das im Einzelfall aussieht.  

Crawling und Indexierung

47:57 Frage: Gibt es einen Unterschied zwischen dem Onpage Meta-Robots-Tag und dem X-Robots-Tag im http-Header? Welche Variante wird bevorzugt? Was passiert, wenn eine Page beides enthält und diese unterschiedliche Signale aussenden? Antwort: Beides wird gleich behandelt. Der einzige Unterschied ist, dass der X-Robots-Tag auch für Elemente genutzt werden kann, die kein HTML sind (z. B. PDFs). Ansonsten gibt es keine Präferenzen oder Einschränkungen. Wenn unterschiedliche Signale ausgesendet werden, dann wird durch die Google Crawler das restriktivere Signal gewertet. Befindet sich z. B. in einem der Hinweis „index“ und im anderen „noindex“, dann wendet Google den „noindex“-Hinweis an.  

Disavow

00:35 Frage: Wir haben auf unserer Seite viele Disavow-Files gesetzt, aber wir haben keine großartige Erholung feststellen können. Könntest du dir das Mal anschauen? Es war keine Manual Action. Antwort: Ich kann es mir anschauen, aber ich werde wahrscheinlich nichts sehen können. Ihr werdet warten müssen, bis das nächste Algorithmus-Update da ist. Aber du kannst es mir gerne schicken.  

Duplicate Content

35:05 Frage: Wir haben zwei 100 % identische Websites auf zwei Domains (geschäftliche Gründe). Eine Website rankt auf der #1 für Markenkeywords, die andere Website hat einen Penalty für Thin Content erhalten und rankt nur im Bereich 50+. Ist der 100 % duplikate Inhalt Grund für diesen Penalty? Antwort: Das sollte eigentlich nicht der Fall sein und ist kein Grund für eine manuelle Abstrafung. Wenn es sich um eine 100%ige Kopie handelt, sollte darüber nachgedacht werden, ob es nicht sinnvoll wäre, den Canonical-Tag einzusetzen – dann wird nur eine der Websites in den Suchergebnissen angezeigt. Betreffend des Thin Content Penalties: Hier würde ich mir eher Sorgen machen, dass der Inhalt insgesamt das Problem ist und nicht die Tatsache, dass die gleichen Inhalte auf zwei Domains zu finden sind. Das kann z. B. passieren, wenn auf einer Website News zusammengetragen werden, es aber nur wenig eigene Inhalte gibt.  

Google Search Console

49:15 Frage: Wird es innerhalb der Suchanalyse in der Google Search Console zukünftig die Möglichkeit geben, bestimmte Filter zu speichern? Aktuell muss man die Filter jedes Mal neu setzen, was ziemlich aufwendig ist. Antwort: Ich bookmarke einfach die Page, wenn die Filter gesetzt sind. Da die Filter in der URL sind, kann man das Bookmark dann einfach beim nächsten Mal aufrufen und muss dann die Filter nicht neu setzen. Google arbeitet diesbezüglich aktuell an einer API.  

Hreflang

12:55 Frage: Ich habe drei Seiten für drei verschiedene Länder. Meine Inhalte sind auf allen Seiten identisch, sieht Google dies als Duplicate Content? Würde es helfen, wenn ich Hreflang benutze das auf die drei Versionen hinweist? Antwort: Ja, das ist der richtige Weg. Die Seiten werden dann für die entsprechenden Länder ranken. 33:00 Frage: Wir haben den Hreflang-Tag auf unser .com und .co.uk eingebaut. Die Websites verlinken darüber hinaus nicht aufeinander. In der Google Search Console wird angezeigt, dass Tausende unserer .co.uk-Seiten auf die .com-Version zeigen. Ist das etwas, was so dort sein sollte? Antwort: Nein, das hört sich nicht richtig an. Wenn wirklich nur das Hreflang-Markup genutzt wird und die Websites ansonsten nicht aufeinander verlinken, sollte das nicht passieren. Denn die Hreflang-Markups werden nicht als Links eingestuft, da sie über keinen PageRank verfügen. Dieses Problem muss ich mir separat mit meinem Team anschauen. 14:10 Frage: In diesem Fall sollte man die Seiten also nicht zusammenfügen? Denn das ist es, was du oft empfiehlst. Antwort: Das sage ich, da es einfacher ist, sich auf weniger Seiten zu konzentrieren. Bei drei Seiten sehe ich keine Probleme, aber wären es 10 Seiten würde ich etwas anderes sagen. Gerade da es sich um verschiedene Länderseiten handelt, ist es erst recht kein Problem.  

HTTPS

20:08 Frage: Google hat HTTPS als Ranking-Faktor eingeführt, aber die meisten Seiten nutzen es noch nicht. Wird dieser Faktor schon genutzt, oder dauert es noch etwas? Antwort: Es wird schon als Ranking-Faktor genutzt. Aber es ist nicht so wichtig, dass es zu großen Rankingveränderungen kommt. Haben aber zwei Seiten die gleichen Inhalte, gewinnt die Seite, die HTTPS nutzt. Ich glaube auch, dass sich der Trend hin zu HTTPS nicht mehr umkehren lassen wird.  

Internationales Targeting

16:22 Frage: Unsere Seite hat mit Tourismus zu tun (Autoverleih). Wir haben eine griechische Domain. Ist es möglich, andere Länder für das internationale Targeting hinzuzufügen, und ist das internationale Targeting ein wichtiger Rankingfaktor? Antwort: Eine solche Länderdomain ist an das entsprechende Land angepasst. Internationales Targeting ist also nicht möglich. Es gibt einige Ausnahmen, das könnt ihr im entsprechenden Hilfeartikel nachlesen. Versucht, eine andere Top Level Domain zu bekommen und nutzt dann diese für das internationale Targeting.  

Keywords

41:33 Frage: Wenn ich das Hauptkeyword zahlreich auf meiner Website platziere und dabei mit weißer Schrift auf weißem Hintergrund arbeitet, um dafür zu sorgen, dass die Keyworddichte steigt, ohne es unnötig häufig im Artikel zu nutzen – fange ich mir dann einen Penalty ein? Funktioniert das? Antwort: Es geht hier im Prinzip um versteckten Text. Versteckter Text und Keywordstuffing verstoßen gegen die Google Webmaster Richtlinien. Ich würde empfehlen, diese Sachen nicht anzuwenden. Es gibt Algorithmen, die diese Art von Techniken automatisch erkennen: Diese Manipulationen werden also keine positiven Auswirkungen auf das Ranking haben. Es ist Zeitverschwendung diese Techniken anzuwenden. Das sind Old School SEO Tricks, die vielleicht vor zehn bis 15 Jahren funktioniert haben. Heutzutage funktionieren sie nicht mehr.  

Landing Pages

44:45 Frage: Wir haben ein Onlinegeschäft für die Vermietung von Werkzeugen. Aktuell haben wir für verschiedene Regionen Landing Pages für die beliebtesten Kategorien. Viele Pages sehen gleich aus, obwohl der Inhalt und die NAP-Daten unterschiedlich sind. Könnten diese Strukturen als spammig angesehen werden? Antwort: Ja, das kann von Google durchaus als spammig (Doorwaypages!) angesehen werden. Wenn nur Städtenamen getauscht werden und der Inhalt der Pages dabei identisch bleibt, wirkt das sehr spammig. Dann wird nichts von Wert für den Nutzer bereitgestellt.  

Manual Actions

02:55 Frage: Ist es nicht komisch, dass Manual Actions meist bei schlimmeren Fällen von Webspam genutzt werden, aber schneller wieder zurückgenommen werden können? Antwort: Ich denke nicht, dass man das so vereinfachen kann. Das Automatisieren macht es einfacher und die Algorithmen sind sehr vielschichtig. Wenn man also auf einen Algorithmus reagiert, wird die Seite meist umfassend verbessert. Manual Actions sind sehr genau auf das eine Problem zugeschnitten und damit individueller. Wir versuchen aber immer, die beste Balance zu finden. 25:36 Frage: Du hast mehrfach gesagt, dass, wenn eine Manual Action aufgehoben wurde, die entsprechende Seite trotzdem bis zum nächsten Pinguin warten muss, bis sie sich erholt. Das war auch mit meiner Seite der Fall. Kannst du erklären, warum Thumbtack nicht warten musste? Oft denkt man, dass große Firmen sich schneller erholen. Antwort: Viele Dinge passieren parallel. Auf manchen Seiten werden also viele Aspekte involviert sein, während auf anderen nur ein Aspekt involviert ist. Es gibt bei diesem Thema nicht die EINE Antwort. Wenn es nur eine Manual Action ist, können wir das meist sehr schnell zurücknehmen. Aber wenn es noch andere Probleme (und andere Penalties) gibt, kann es halt länger dauern. Es ist auch nicht so, dass sich große Firmen schneller erholen. Es gibt viele Dinge, die die SEO-Szene gar nicht mitbekommt – auch große Brands haben öfters mal Probleme, von denen man aber nichts in der Presse liest.  

Meta Daten

  43:17 Frage: Muss der Titel eines Artikels 1-zu-1 mit der Meta Description übereinstimmen? Antwort: Nein, da kann man machen, was man möchte und schauen, wie das für die Nutzer funktioniert. Die Meta Description hat keinerlei Auswirkungen auf das Ranking.  

Meta-Robots-Tag

38:22 Frage: Manchmal erhalte ich einen 404-Fehler, wenn ich versuche, die Cache-Version meiner indexierten Pages aufzurufen. Warum passiert das? Mein Meta-Robots-Tag beinhaltet kein noarchive. Hat dies negative Auswirkungen auf meine Website? Antwort: Das passiert manchmal aus technischen Gründen. Da ist nichts, was auf der Website geändert werden müsste – im Prinzip bedeutet dies, dass Google aktuell über keine Cache-Version der betroffenen Page(s) verfügt. Das ist ein Problem von Google und nichts, was Webmastern Sorgen bereiten sollte.  

Page Speed

36:46Frage: Wenn ich das PageSpeed Insights Tool benutze, empfiehlt Google mir, dass weniger internes/externes JavaScript genutzt werden soll. Macht es aus der SEO-Perspektive Sinn, den Google Tag Manager hierfür einzusetzen? Das würde die Script Calls auf 1 reduzieren, welches dann den Rest laden würde. Antwort: Ich weiß nicht genau, wie der Google Tag Manager mit solchen  Skripten umgehen, wenn es sich um Content handelt, der auf der Website angezeigt wird, hat die Nutzung vom Google Tag Manager vermutlich kaum Auswirkungen auf die Ladezeit. Aus SEO-Sicht würde ich mir da keine Sorgen machen. Wir beachten die Ladezeit von Pages für das Ranking, allerdings wird dort im Wesentlichen zwischen schnellen und sehr, sehr langsamen Websites unterschieden. Die vorgeschlagene Vorgehensweise hätte darauf nur äußerst geringe Auswirkungen.  

Pagination

24:57 Frage: Macht es Sinn, „Noindex, follow“ auf paginierten Seiten zu nutzen, auch wenn diese einzigartige Inhalte haben? Antwort: Wenn auf den Seiten etwas Sinnvolles steht, lass es im Index. Es besteht kein Grund, so etwas per se zu blocken.  

Penalties

43:46 Frage: Wir erholen uns von einer manuellen Abstrafung, wurden aber von Panda und Penguin getroffen. Wir haben schon viel repariert, aber noch keine Rankingveränderungen sehen können. Kannst du uns bitte sagen, ob die Website bestathire.co.uk aktuell von Panda oder Penguin betroffen ist, damit wir wissen, woran wir arbeiten müssen? Antwort: Bitte im Webmaster-Zentrale Hilfeforum posten oder mich per E-Mail oder Google+ kontaktieren, dann kann ich mir das anschauen. Ich kann aber nicht versprechen, dass ich da eine konstruktive Rückmeldung geben kann. Oft haben wir so viele Faktoren, dass es schwierig ist, herauszufiltern, wo genau das Problem liegt. Achtet darauf, dass nicht nur Altlasten bereinigt werden, sondern dass auch neue Inhalte bereitgestellt werden und das neue Links entstehen können.  

Ranken gegen Black Hat Konkurrenz

05:56 Frage: Wir haben eine Seite in der „Erwachsenen-Nische“ und schaffen es kaum, mit White Hat SEO zu ranken, da unsere Konkurrenz so viele andere Taktiken (unter anderem Falschaussagen) nutzt. Was kann ich tun, um gegen solche Seiten zu ranken? Ihr kümmert euch wahrscheinlich nicht so sehr um diese Seiten? Antwort: Wir haben Leute, die sich auch um diese Nische kümmern. Es ist nicht so, dass wir denken, in dieser Nische gebe es nur Black Hats, und sie deshalb ihrem Schicksal überlassen. Aber ich kann da jetzt nicht so viel zu sagen, ein Link zum entsprechenden Thema im Forum würde helfen, dann kann ich es mir mal anschauen. Es ist auch nicht nur in der Erwachsenenbranche so, dass Seiten für Keywords ranken, zu denen es eigentlich keine echten Inhalte gibt. Wir haben mit diesem Problem oft zu kämpfen. Wir können da aber nicht wirklich etwas dagegen tun, da es keinen echten Content für diese Themen gibt. 11:20 Frage: Könnte es bei Themen, zu denen es keine echten Inhalte gibt, nicht Sinn machen, über diesen Umstand aufzuklären. Also guten Content darüber zu schreiben, dass es Thema XY gar nicht gibt, und dass alle entsprechenden Angebote unecht sind? Antwort: Das kann definitiv funktionieren, vor allem wenn eine offizielle Seite darauf hinweist. Aber da fast alle Seiten in diesem Bereich inoffiziell sind, ist es schwer.  

Rankingfaktoren

54:16 Frage: Kannst du uns etwas zu der Anzahl der von Google verwendeten Rankingfaktoren geben? Seit 2006 sagt ihr, dass es etwa 200 Rankingfaktoren gibt. Ich bin neugierig, ob das eine Schätzung ist oder ob es da vielleicht heute schon 300 oder 400 Rankingfaktoren gibt. Antwort: Es kann sein, dass seit 2006 niemand die Rankingfaktoren gezählt hat. Wir haben hier bei Google keine Tabelle oder so, wo die Rankingfaktoren aufgelistet werden. Wir haben nicht das Gefühl, dass es für Webmaster wichtig wäre, jeden einzelnen Rankingfaktor zu kennen.  

RSS Sitemap

46:33 Frage: Wie groß darf eine RSS Sitemap sein? Wir haben 10.000 URLs in der RSS Sitemap. Sollten wir die Sitemap splitten? Wenn die Sitemap gesplittet wird, was ist die empfohlene Anzahl von URLs, die eine RSS Sitemap haben darf? Antwort: Soweit ich weiß, gibt es da kein Limit. Wie das gestaltet wird, hängt im Wesentlichen von den eigenen technischen Möglichkeiten ab.  

Sitelinks

45:42 Frage: Besteht die Chance, dass Sitelinks in Zukunft von Webmastern direkt beeinflusst werden können? Antwort: Aktuell sind die Chancen dafür eher schlecht. Man kann Sitelinks, die einem nicht gefallen, aktuell entfernen. Das Problem besteht darin, dass die Anzeige der Sitelinks stark von der Suchanfrage abhängig ist. Daher kann es sein, dass ein bestimmter Sitelink (welcher bereits durch den Webmaster für eine bestimmte Suchanfrage gesperrt wurde) für Suchanfragen angezeigt wird.  

Social Search und Breadcrumbs

38:53 Frage: Obwohl Social Search Schemata und Breadcrumbs (Navigation) implementiert wurden, wird in der Google Search Console angezeigt, dass Navigationsattribute fehlen. Hat das negative Auswirkungen auf meine Website? Antwort: Da kann ich nicht helfen. In diesem Fall wäre es das Beste, ein Thema im Webmaster-Zentrale Hilfeforum aufzumachen. Vermutlich ist das Schema.org-Markup unvollständig.  

SSL

42:28 Frage: Sollten wir das Adressänderungs-Tool in der Google Search Console nutzen, wenn wir für eine bestehende Website SSL einführen? Sollten wir so auf die Änderung von http zu https hinweisen? Antwort: Nein, das ist nicht notwendig. Das Adressänderungstool sollte genutzt werden, wenn eine Website von einem Host zu einem anderen Host umzieht, eine neue URL erhält. Für den Umzug von einem Protokoll zu einem anderen Protokoll ist das Tool nicht geeignet. Es reicht aus, Weiterleitungen einzurichten. Achtet darauf, dass die Https-Version gecrawlt werden kann und dass das Zertifikat gültig ist. Dann sollte es keine Probleme geben.  

Status Codes

34:11 Frage: Was ist generell besser, wenn wir einige irrelevante Pages von unserer Website entfernen müssen? Eine 301-Weiterleitung auf eine übergeordnete Page oder ein 410-Statuscode? Antwort: Generell würde ich die Weiterleitung empfehlen, wenn es auf der Website passende Inhalte gibt. Wenn z. B. ein bestimmtes Paar blaue Schuhe aus dem Sortiment und damit von der Website genommen werden, kann auf ein anderes Paar blauer Schuhe verwiesen werden. Wenn es hingegen gar keine Schuhe mehr im Shop zu kaufen gibt, macht es keinen Sinn, eine Weiterleitung einzurichten. Wenn trotzdem eine Weiterleitung gesetzt wird, klassifiziert Google das intern als 404. Daher würde ich in solch einem Fall empfehlen, gleich einen 404-Statuscode auszugeben.  

SVG-Optimierung

18:10 Frage: Wie können wir SVGs so optimieren, dass Google den Content auf der Seite sieht? Gibt es ein Äquivalent zum Alt-Attribut? Antwort: Wir sehen sie als Bilder und versuchen nicht, einen Text zu erkennen. Inhalte müssen in die HTML-Seite oder via JavaScript dargestellt werden.  

Webspam

22:58 Frage: Gibt es einen Algorithmus, der immer läuft, um Webspam zu finden? Ich sehe immer wieder Seiten, die es auf die erste Seite schaffen, obwohl sie all das tun, was man nicht tun sollte. Warum funktioniert das in 2015 noch? Antwort: Wir haben ein paar Algorithmen, die sich auf bestimmte Formen des Webspam konzentrieren. Kommentarspam wird eigentlich immer ignoriert – damit wir das nicht manuell machen müssen. Aber wir sind natürlich nicht immer immun, manche Sachen werden immer durchrutschen. Ihr könnt uns aber immer helfen, indem ihr uns auf Beispiele aufmerksam macht.  

410

15:44 Frage: Wir haben eine Veranstaltungsseite, wo vergangene Veranstaltungen als 410 angezeigt werden, Die Seiten werden dann auch aus der Sitemap geschmissen (und diese wird zwei Mal pro Tag geupdated). Ist das das beste Verfahren? Antwort: Ja, das ist eine sehr gute Lösung. Denk aber daran, dass alte Events auch gute Inhalte sein könnten – aber nicht, wenn sie gleich gelöscht werden. Wartet also vielleicht ein paar Wochen, bevor ihr die Seiten löscht. Es aus der Sitemap zu entfernen hilft auch nicht dabei, uns am crawlen zu hindern. Ihr könnt es ruhig drin lassen (mit einem neuen Änderungsdatum), dann sehen wir uns die Änderungen an und schmeißen die Seite dann aus dem Index.   Quelle: https://youtu.be/ywrMafJiKo8?t=34m11s