Deutsches Google Webmaster Hangout Transkript, 14.08.2015
von Oliver Engelbrecht
Kategorie(n): Google Webmaster Hangouts
Datum: 14. August 2015
Die Woche endet mit einem weiteren Google Webmaster Hangout mit John Mueller. Viel Spaß beim Lesen und genießt die freien Tage.
Thema: Paginierung
Zeit: 00:48Frage: Einige Seiten ohne Inhalt sind im Index, obwohl sie nicht in der Sitemap sind - es kommt wegen rel=next. Ich schaffe es nicht, sie aus dem Index zu entfernen.
Antwort: Die Seiten geben wahrscheinlich einen 200 Result Code zurück und werden deswegen noch angezeigt. Ihr solltet eine 404 einrichten, damit sie deutlich ausgeschlossen werden können. Wenn das nicht geht, nutzt noindex, nofollow. Eine robots.txt würde hier nicht helfen, da wir dann nicht mehr crawlen können und nicht sehen, dass wir die Seiten fallen lassen sollen.
Thema: 404
Zeit: 03:55Frage: Warum sehen wir immer noch Seiten, die seit Jahren 404 zurückgeben? Warum crawlt Google sie immer wieder?
Antwort: Wir crawlen sie nicht mehr so oft. Aber manchmal sehen wir einen neuen Link zu der Seite und prüfen sie dann erneut. Und allgemein kommen wir manchmal zurück, da viele Seiten nach einiger Zeit wiederkommen und wir keine Inhalte verpassen wollen.
Thema: Nofollow
Zeit: 06:02Frage: Wenn neue Seiten Nofollow Links erhalten, werden sie nicht stärker - manipuliert das die Rankings?
Antwort: Für uns ist es gut, etwas zu den Hintergründen der Links zu erfahren. Wenn es beispielsweise ein Werbelink ist, geben wir keinen Page Rank weiter. Und wenn sich der Webmaster nicht 100%ig sicher ist, dass die verlinkte Seite wirklich gut ist, dann ist Nofollow eine gute Idee. Bei neuen Seiten ist es wichtig, dass wir nicht nur auf die Links schauen. Ihr müsst nicht viele Follow Links haben, um gut zu ranken.
Thema: Follow oder Nofollow
Zeit: 08:31Frage: Wenn man zwei Seiten hat, sollen die Links zwischen ihnen dann Nofollow sein oder nicht? Könnte es passieren, dass Google denkt, dass man der anderen Seite nicht vertraut?
Antwort: Nur weil ein Link Nofollow ist, ist er ja nicht schlecht. Es hält uns nur davon ab, Page Rank weiter zu geben. Wenn die Seiten zusammengehören, dann sind Follow Links ok, so lange es nicht zwischen zu vielen Seiten ist.
Thema: Analytics
Zeit: 10:09Frage: Eine der MOZ 2015 SEO-Korrelationen zeigt, dass es eine positive Korrelation zur Nutzung mit Google Analytics gibt. Was kannst du dazu sagen, ist das nicht ein Monopol?
Antwort: Wir nutzen Analytics nicht für das Crawlen, Indexieren und Ranken, daher sind alle diesbezüglichen Korrelationen zufällig. Diese Programme werden bei großen Seiten, die gut ranken, oft genutzt - aber es hilft ihnen nicht beim Ranken. Die Korrelationen in solchen Studien zeigen nicht, dass etwas unbedingt zusammen gehört, es gibt also keinen Boost wenn jemand Analytics oder AdWords benutzt. Wir versuchen, in der Suche so neutral wie möglich zu sein, damit Google Produkte keinen positiven oder negativen Einfluss haben.
Thema: Nur mobil?
Zeit: 12:49Frage: Wir haben ein Produkt nur für Smartphones, daher haben wir nur eine mobile Seite ohne Desktop Version. Ist das ok?
Antwort: Das ist absolut ok, man braucht nicht von jeder Seite auch eine Desktop Version. Sie sollte auch trotzdem auf dem Desktop funktionieren und nur etwas anders aussehen. Stellt einfach sicher, dass man die Seite ohne Fehlermeldung auf einem Desktop sehen kann. Ihr braucht aber definitiv nicht noch eine zusätzliche Version.
Thema: Lazy Load
Zeit: 14:02Frage: Crawlt Google Inhalte, die auf Mobil per Lazy Load geladen werden - und misst es ihnen dieselbe Relevanz zu? Wir lassen die Inhalte nachladen, wenn User runterscrollen.
Antwort: Das ist problematisch. Wenn ihr eine Desktop Seite habt, auf der alles direkt zu sehen ist, dann versuchen wir, das zu nutzen. Aber wenn ihr nur eine mobile Seite habt und die Inhalte erst nach dem Scrollen auftauchen, dann können wir sie nicht sehen. Googlebot weiß nicht, was für Aktionen er auf einer Seite ausführen soll. Nutzt das Fetch as Google Tool, um herauszufinden, was wir sehen können.
Thema: JavaScript und CSS
Zeit: 15:46Frage: Obwohl einige Ordner in robots.txt erlaubt wurden, sagen Fetch as Google und robots.txt Tests noch immer, dass es Probleme gibt, JavaScript und CSS zu erreichen. Ist das normal?
Antwort: Nein, das ist nicht normal. Vor allem die Testtools sollten euch sofort, wenn ihr etwas ändert, das Richtige anzeigen. Ich kenne eure Seite nicht, aber ich denke, dass ihr eine zu komplizierte robots.txt habt, in der etwas sowohl blockiert als auch erlaubt ist. Andererseits ist es auch so, dass längere Dateien meist über den Kürzeren stehen - also stellt sicher dass alles in einem übersichtlichen Statement steht.
Thema: Redirect
Zeit: 18:32Frage: Unsere Seite nutzte unterschiedliche URLs für Produktseiten: /product/SKU und /product/productname/SKU. Die erste URL leitet jetzt per 301 auf die zweite weiter und die alten URLs sind nicht mehr in der Sitemap. Trotzdem zeigt Search Console sie noch als 404er an, warum?
Antwort: Sie haben vielleicht mal 404 zurückgegeben. Das wurde zwar behoben, aber sie wurden genau in den Moment von Googlebot gecrawlt. Ihr könnt euch mal das Crawldatum ansehen. Wenn alles von eurer Seite sauber ist, solltet ihr das nicht weiter beachten. Nach dem nächsten Crawlen werden sie verschwinden.
Thema: Social Signals
Zeit: 19:52Frage: Haben Social Signals einen Einfluss auf die organischen Rankings in Google?
Antwort: Nicht direkt, die meisten Netzwerke verlinken ja eh per Nofollow. Aber die Posts können in den SERPs auftauchen, dadurch werden sie zu Inhalten und können euch zusätzliche Rankings zu einem Keyword bringen.
Thema: Caching
Zeit: 21:15Frage: Wir versuchen, das Caching unserer Seite zu verbessern, um die Seite schneller zu machen. Beeinflusst die Länge der Cacheregeln das Ranking?
Antwort: Für uns ist die Länge der Cachezeit irrelevant. Die Suche wird davon nicht beeinflusst, wir werden nur vielleicht seltener refreshen. Ich denke, dass sich der Pagespeed dadurch verbessern sollte, was zu besserer Usability führt und dadurch indirekten Einfluss auf die Rankings hat.
Thema: Manuelle Algorithmusänderungen
Zeit: 22:51Frage: Habt ihr eine Art System, mit dem du oder ein Google-Ingenieur beispielsweise eine Algorithmusänderung für eine spezielle Geo-Location durchführen könnt?
Antwort: Ich bin mir nicht ganz sicher, was du meinst. Wir haben kein System, mit dem wir spezielle Alghorithmen anwenden, da sie überall funktionieren sollen. Aber wir haben Debugging-Tools, die uns helfen, die Suchergebnisse zu verstehen. Das funktioniert auch für Locations, aber für das Monitoring. Ich empfehle unsere "How Search Works" Seite, wo wir zeigen, wie Algorithmen implementiert werden. Dies ist immer ein langer Prozess.
Thema: Blockierte Parameter
Zeit: 25:28Frage: Die ehemalige SEO-Firma meines Kunden hat versehentlich mehrere Parameter im Search Console Parameter Tool blockiert. Deshalb hat Google aufgehört, viele Seiten zu crawlen.
Antwort: Lösch diese Angaben einfach aus dem URL Parameter Tool und wir werden das beim nächsten Crawlen merken.
Thema: Doppelte Titel
Zeit: 25:55Frage: Uns sind viele doppelte Titel in Search Console aufgefallen. Kann das zu Problemen führen?
Antwort: Wenn ihr viele Canonicals habt, die alle auf die Homepage verweisen, dann denken unsere Algorithmen, dass ihr sie falsch gesetzt habt. Dann werden wir sie vielleicht ignorieren, weil wir glauben, dass sie gar nicht da sein sollten. Die doppelten Titel in Search Console basieren auf dem, was wir crawlen. Nur weil etwas vielleicht Canonical oder Noindex hat, heißt das nicht, dass es nicht in Search Console auftaucht. Schaut es euch noch mal genauer an, aber ihr werdet wegen so etwas nicht herabgestuft - wir versuchen nur, euch viele Informationen zu geben.
Thema: Sitemaps
Zeit: 27:52Frage: Was ist die Best Practice für Search Console Sitemaps? Ich habe eine .eu.web.com Seite, die verschiedene europäische Regionen anspricht. Muss ich die Subdomain einmal angeben und ohne Geotargeting Hreflang nutzen? Oder verschiedene Varianten angeben und Geotargeting verwenden?
Antwort: Habt ihr verschiedene Inhalte für die verschiedenen Länder? Wenn ja, dann nutzt separate URLs (vielleicht mit Ordnern oder Subdomains) auf die ihr Geotargeting anwendet. Man kann Geotargeting mit Hreflang kombinieren oder nur eins von beiden benutzen. Ersteres schickt uns ein etwas stärkeres Signals, während zweiteres sicher stellt, dass die richtige Version im richtigen Land angezeigt wird. Hreflang beeinflusst aber das Ranking nicht. Wenn ihr eine Länderdomain habt, wie .fr, dann könnt ihr keine Unterordner für verschiedene Länder anlegen - bei einer .com/fr Seite ist es aber möglich.
Thema: Knowledge Graph
Zeit: 31:01Frage: Die Anzeige im Knowledge Graph beinhaltet eine "Trailer anschauen" Schaltfläche. Beispiel: "Paranormal Activity Ghost Dimension". Der Trailer ist für den falschen Film (vorheriger Release). Weißt du, wie man so etwas entfernen lassen kann?
Antwort: Ich kenne keine öffentliche Möglichkeit, um das zu reporten. Du kannst das mir schicken oder in den Google Hilfeforen um Hilfe bitten.
Thema: Links & JavaScript
Zeit: 31:34Frage: Wenn ein Link erst nach der Durchführung einer Aktion sichtbar ist (Klick, Mouseover) - kann der Googlebot diesen Link auslesen?
Antwort: Wenn die URL im Quelltext / HTML sichtbar ist, dann kann Google das manchmal auslesen. Wenn das JavaScript aber erst nach einer bestimmten Aktion geladen wird, dann ist dies nicht der Fall.
Thema: Social Media
Zeit: 32:25Frage: Wir nutzen Bewertungen über Dritte. Diese werden mithilfe von Schema.org eingebunden. Sollten wir diese auch bei Twitter / Facebook posten, um Social Signals zu erhalten? Hat es direkte Auswirkungen auf die Rankings oder ist die verbesserte CTR eher der Grund?
Antwort: Social Signals werden beim Crawling und der Indexierung nicht berücksichtigt. Ich würde davor abraten durch Nutzer generierten Content von der Website zu nehmen, um ihn irgendwo anders zu posten. Es macht mehr Sinn, Nutzer darum zu bitten, diese Bewertungen direkt in den sozialen Medien zu posten.
Thema: Bewertungen
Zeit: 37:00Frage: Wir haben einen Shop, in welchem verschiedene Varianten eines Produktes erhältlich sind. Würdest du empfehlen, die Bewertungen einer Variante für alle Varianten einzusetzen?
Antwort: Das kann Sinn machen. In diesem Fall sollten diese Varianten unter einer URL erreichbar sein. Schaut genau, ob es Sinn macht, URLs zu splitten. Es ist eure Sache, ob ihr die Bewertungen für die verschiedenen Varianten nutzt.
Thema: Duplicate Content
Zeit: 38:38Frage: Da du es erwähnt hast - Buch Beschreibungen werden oft im ganzen Web genutzt. Wie geht Google damit um? Gilt das als Duplicate Content?
Antwort: Wir erkennen, dass ein bestimmter Abschnitt des Textes Duplicate Content ist. Die Page wird trotzdem indexiert und Google erkennt, dass diese Seite für ein bestimmtes Buch ist, dass es Duplicate Content gibt und das dort auch einzigartiger Content vorhanden ist. Wenn ein Besucher nach etwas sucht, das Teil des DC Blocks ist, dann erkennt Google, dass es diesen Inhalt im Web häufig gibt und zeigt in den SERPs nicht alle Ergebnisse, sondern nur das, was Google als Bestes Ergebnis für den Suchenden empfindet.
Thema: URL Änderungen
Zeit: 40:17Frage: Wir haben unsere URLs von Kleinschreibung auf Groß- und Kleinschreibung umgestellt. Google scheint das noch nicht richtig zu verstehen.
Antwort: Canonicals, interne Links und Weiterleitungen innerhalb der Website sollten Google dabei helfen herauszufinden, welche URLs indexiert werden sollen.
Thema: Hreflang
Zeit: 42:36Frage: Es gibt von unserer Website lokale und englische Versionen für alle Pages. Wir haben Hreflang-Attribute (local, EN, x-default) in beiden Versionen eingebunden. Aus irgendeinem Grunde präferiert Google die englische Version. Was ist da los?
Antwort: Hreflang teilt Google im Prinzip mit, wann URLs getauscht werden sollen. Das hat keinen Einfluss auf das Ranking. Alle Änderungen im Ranking, die du siehst, müssen durch etwas anderes bedingt sein.
Thema: Apps
Zeit: 43:21Frage: Wie läuft das App Indexing Projekt?
Antwort: Das Team arbeitet daran, es gibt da keine News.
Thema: Indexing
Zeit: 43:38Frage: Es gibt Seiten auf unserer Website, die nie in den Suchergebnissen auftauchen. Ich habe für spezifische Kombinationen gesucht und erhalte Null Resultate. Es gibt keine Fehler in Search Console, die Seiten sind in der Site Map und ich habe auch das Fetch as New Tool genutzt. Nichts hat geholfen.
Antwort: Das ist schwer zu beantworten, wenn die URL nicht bekannt ist. Ich würde dich bitten, im Google Hilfeforum nachzufragen.
Thema: Google
Zeit: 44:17Frage: Hast du als Google Mitarbeiter Zugang zu Tools, die dir zeigen, ob eine Website einen algorithmischen Penalty hat? Könnt ihr von Websites eine Art Seitenprofil einsehen?
Antwort: Wir haben verschiedene Tools, um festzustellen, was in den SERPs vor sich geht.
Thema: Canonicals
Zeit: 44:56Frage: Ist <link rel="canonical" href........> ein Vorschlag oder eine Anweisung für Google?
Antwort: Es ist ein Vorschlag. Wir beachten das, wann immer es geht. Wenn wir sehen, dass da irgendetwas falsch läuft, versuchen wir es zu ignorieren.
Thema: Search & Chrome
Zeit: 45:39Frage: Ich nutze den Chrome Browser. Die Suchergebnisse werden manchmal durch google.com ausgegeben, manchmal aber auch von google.co.id. Irgendein Rat?
Antwort: Google.com leitet zur lokalen Version weiter, wann immer das möglich ist. Dies kann manuell in den Sucheinstellungen geblockt werden.
Thema: Neue Inhalte
Zeit: 46:28Frage: Wenn eine Website 10.000 Seiten neuen Inhalt generiert - wie können wir das Crawling und die Indexierung durch Google beschleunigen?
Antwort: Ich empfehle, eine Site Map zu nutzen. Ihr solltet außerdem einen guten Server haben. Darüber hinaus solltet ihr sicher gehen, dass eure Inhalte von hoher Qualität und interessant sind.
Thema: Search Console
Zeit: 47:13Frage: Kannst du uns erklären, wie Search Console, Google Plus und Wikipedia aktuell korrelieren, um in den Suchergebnissen eine bessere Ästhetik zu erreichen?
Antwort: Ich brauche mehr Informationen, um das beantworten zu können.
Thema: Google Analytics
Zeit: 47:46Frage: Mir ist klar, das persönliche Informationen, die in Google Analytics hinterlegt sind, nicht genutzt werden dürfen. Ist es möglich, persönliche Daten zu verschlüsseln bevor sie bei Google Analytics eingebunden werden.
Antwort: Ich kann nicht für Google Analytics sprechen. Ich empfehle, diese Frage in einem Analytics Forum zu stellen.
Thema: URL Parameter
Zeit: 45:15Frage: Was ist ein gutes URL Parameter Tool, um mit Parametern umzugehen? Sollte ich immer die Option "Googlebot entscheiden lassen" wählen? Danke.
Antwort: "Googlebot entscheiden lassen" ist die Standardeinstellung. Wenn ihr mit dem, was indexiert wird zufrieden seid, dann lasst die Einstellung so. Wenn ihr dem Googlebot etwas Spezielles mitteilen wollt, dann könnt ihr uns diese Informationen geben.
Thema: SERPs
Zeit: 48:57Frage: Werden die Suchergebnisse aktuell rotiert?
Antwort: Nein, nichts Spezielles. Es sind aber immer Experimente am Laufen.
Thema: Parameter
Zeit: 49:28Frage: Wie sollten Ergebnisseiten in Listenform in Bezug auf Canonicals behandelt werden, wenn es Pagination gibt und darüber hinaus Ordnungs-Parameter?
Antwort: Wir haben im vergangenen Jahr einen Blogpost über Pagination gemacht. Ich empfehle, diesen Post anzuschauen!
Thema: Disavow Datei
Zeit: 49:58Frage: Wenn eine Liste von Domains via Disavow Datei eingereicht wird und da aus Versehen Domains enthalten sind, die da nicht reingehörten - Reicht es, wenn eine neue Disavow Datei ohne diese Domains eingereicht wird.
Antwort: Ja!
Thema: Search Console
Zeit: 58:34Frage: Gibt es einen JavaScript Zugang zur Search Console? Und wenn es einen gibt, ist es möglich Daten in mehr als einer Dimension zu ziehen? Ist es möglich, mehr als 1.000 Werte zu ziehen?
Antwort: Ja, das ist mithilfe der Search Analytics API möglich. Ich weiß nichts Spezielles über eine JavaScript API, aber ich denke, dass das mit dem regulären Framework möglich ist. Aktuell gibt es ein 5.000 Zeilen Limit.
Den ganzen Hangout könnt ihr euch hier ansehen: