Kategorie(n): Google Webmaster Hangouts
Datum: 13. Juni 2017
Thema: Google Interna
Zeit: 01:35Frage: Nutzen die Algorithmen Machine Learning, um herauszufinden, was für die Usability schlecht, aggressiv oder nervig ist? Beispiele wären AutoPlay Videos oder verschleiernde Werbung.
Antwort: Das weiß ich nicht. Ich glaube nicht, dass wir uns diese Dinge spezifisch angucken - es fließt wenn dann eher im großen Ganzen ein. Es gibt aber auch viele große und tolle Seiten, die nervige Monetarisierungsmodelle haben. Man kann auch nicht immer von der Monetarisierungsmethode auf die Qualität der Inhalte schließen.
Thema: Hreflang
Zeit: 03:04Frage: Wie hilft das Hreflang, wenn meine Seite in zwei total unterschiedlichen Sprachen existiert? Leute, die in einer Sprache suchen, sollten dann nicht die Ergebnisse in der anderen Sprache weit oben sehen, oder?
Antwort: Ja, so ist das. Wer nach etwas in einer Sprache sucht, dann sollten wir auch die passende Sprache anzeigen, das sollte eigentlich immer klappen. Aber wenn Nutzer nach einer Marke suchen, kann das unklar werden. Hier können wir dann das Hreflang nutzen, um die richtige anzuzeigen.
Thema: Rankingfaktoren
Zeit: 06:47Frage: Was sollen wir tun, wenn eine Seite auf einmal alle Rankings verliert? Wo können wir anfangen.
Antwort: Das heißt wahrscheinlich, dass sie nicht im Index ist. Schaut also mal, ob es da Probleme gibt oder ob sie unter einer anderen URL indexiert wird - das geht mit der Info Abfrage. Ist sie indexiert, dann haben die Algorithmen wohl Probleme damit, die Qualität als hoch zu erachten. Sowas kann sich dann auch mit der Zeit ändern, da sich die Algorithmen, die Konkurrenz und die Nutzerwünsche ändern.
Thema: Duplicate Content
Zeit: 10:28Frage: Wir sind ein offener Marktplatz und unser Katalog wird von den Verkäufern gemanaged. Wir haben wenige Produktdetails auf den Seiten und viele Verkäufer laden identische Produkte mit unterschiedlichen Preisen hoch. Was können wir tun, um Duplicate Content und Qualitätsprobleme auf den Produktseiten zu verhindern?
Antwort: Ich denke, das ist für SEO kein wirkliches Problem. Aber was ihr online stellt, definiert eure Seite. Hinterfragt also eure Policies, um Leute dazu zu bringen, dass sie die Qualität hoch halten. Vielleicht könnt ihr auch das Canonical oder das Noindex nutzen. Z.B. könnt ihr neue Nutzer deindexieren und sie erst in den Index lassen, wenn ihr ihnen mit der Zeit vertraut. Es gibt aber keinen Penalty für Duplicate Content.
Thema: Crawling
Zeit: 12:34Frage: Wonach priorisiert Google Crawlingfehler?
Antwort: Dazu gibt es einen guten Blogpost, der ist zwar etwas älter, hat aber inhaltlich alles was man braucht. Der heißt "Crawl Errors, the next Generation".
Thema: Search Console
Zeit: 13:30Frage: 1. Warum muss man in Search Console alle Variationen eintragen? 2. Wir nutzen keine Subdomain mehr, kann ich die entsprechenden Properties löschen?
Antwort: 1. Die Idee dahinter ist, dass wir euch informieren können, wenn auf einer anderen Version etwas kaputt ist. Wenn zum Beispiel die http Version nicht mehr weiterleitet, können wir euch das mitteilen und ihr könnt es fixen. 2. Ja, die kannst du löschen.
Thema: Seitenstruktur
Zeit: 14:53Frage: Wie kann man die Qualität von Listenseiten mit vielen Produkten bestimmen? Wie kann man auf Kategorieseiten oder Listenseiten eine gute Nutzererfahrung garantieren?
Antwort: Das müsst ihr euch überlegen, denn ihr kennt eure Angebote und eure Nutzer am besten. Schaut da nicht zuerst auf SEO, sondern auf die UX. Macht vielleicht A/B Tests, um herauszufinden, was für eure Nutzer am besten funktioniert.
Thema: Search Console
Zeit: 16:21Frage: Sehen wir in der Suchanalyse API nur Seiten, die mindestens sieben Klicks haben? Gibt es noch andere Kriterien?
Antwort: Es hängt nicht wirklich an den Klicks, aber es kann je nach Suchanfrage Filter geben die bei sehr einzigartigen Anfragen genutzt werden.
Thema: Strukturierte Daten
Zeit: 16:58Frage: Wo kann ich alle Snippet-Typen finden, die in den SERPs angezeigt werden können?
Antwort: Gute Frage. Ich glaube, wir haben da keine Übersicht. Aber schaut euch mal die Developer Site an, da steht viel zu strukturierten Daten. Aber nicht alle strukturierten Daten führen immer zu etwas, was in den SERPs auch sichtbar ist. Da müsst ihr dann ein wenig testen.
Thema: Search Console
Zeit: 19:45Frage: Was ist der beste Weg, um Thumbnails in Search Console nach einem Relauch auf den aktuellen Stand zu bringen.
Antwort: Ich glaube nicht, dass es da einen Weg gibt, um Änderungen anzustoßen. Das wird immer für eine Weile gecached und dann mit der Zeit geupdated. Das hat aber auch keinen Einfluss auf das, was in der Suche sichtbar ist - sondern bezieht sich nur auf eure UI.
Thema: Crawling
Zeit: 23:42Frage: Wir spielen unsere internen Bilderteaser mit Doubleclicl aus - dort sind sie also gehosted. Google kann die Seite aber nicht korrekt rendern, da die Bilder in der robots.txt von doubleclick blockiert sind. Wie können wir das lösen?
Antwort: Die einfache Lösung ist, dass ihr die Bilder woanders hosted oder doubleclick zum Ändern der robots.txt bringt. Ansonsten sehe ich da keine Möglichkeiten.
Thema: Doorway Pages
Zeit: 25:32Frage: Ich sehe in Indien viele Doorway Pages, warum verschwinden sie nicht aus den SERPs?
Antwort: Da könnt ihr Feedback oder einen Spam Report abgeben. Ansonsten kann ich da nichts zu sagen, da ich die Seiten nicht kenne. Viele Seiten ranken aber auch nicht wegen, sondern trotz solcher Verstöße gegen die Richtlinien.
Thema: Interne Verlinkung
Zeit: 26:51Frage: Ist ein mega Menü ok, wenn auf einer großen E-Commerce Seite die Links nicht für alle Kategorien relevant sind?
Antwort: Klar, ihr könnt ein großes Menü nutzen, wenn ihr denkt, dass das Sinn macht. Für alle Seiten passt das aber bestimmt nicht.
Thema: Sietenstruktur
Zeit: 27:21Frage: Wir wollen unsere interne Suche zur Google Custom Search Engine umziehen. Denkst du, dass das eine gute Idee ist?
Antwort: Das könnt ihr euch aussuchen. Viele Seiten nutzen das, aber viele Seiten nutzen auch eigene Programme. Achtet aber darauf, dass die Inhalte eurer Seite unabhängig von der Art der Suche gecrawlt werden können. Dafür braucht es zum Beispiel interne Links.
Thema: Ranking
Zeit: 28:40Frage: Wir haben alle Rankings verloren, als wir unseren Namen und unsere Domain gewechselt haben. Es sieht so aus, als wäre auf der neuen Domain früher mal Adult Content gewesen, kann das unser Problem erklären?
Antwort: Klar, das kann ein Grund sein, vor allem, wenn es lange solche Inhalte gab. Dann brauchen die Algorithmen manchmal eine Weile, um zu erkennen, dass es jetzt andere Inhalte gibt. Da könnt ihr ein Formular ausfüllen, wenn ihr denkt, dass Safe Search eure Inhalte fälschlicherweise herausfiltert.
Thema: Hreflang
Zeit: 30:37Frage: Ich habe eine Website mit mehr als 30 Sprachversionen und möchte Hreflang nutzen. Das Problem ist, dass sich zwar die Inhalte für jedes Land ändern, aber alles auf den gleichen URLs auf der .com Domain ausgespielt wird. Wie kann ich das Hreflang da einbauen?
Antwort: Bei solchen Strukturen wissen wir nicht, welche Sprache wir indexieren sollen. Denn wenn alles auf einer URL ist, dann suchen wir uns nur einen Inhalt aus. Wahrscheinlich wird das englisch sein, wenn wir es aus den USA sehen. Da kannst du mit dem Hreflang nichts machen, wir werden da große Probleme beim Indexieren haben. Wenn ihr pro Inhalt eine URL pro Sprache habt, dann können wir das per Hreflang austauschen. In eurem Aufbau geht das aber nicht.
Thema: URL-Struktur
Zeit: 35:56Frage: Soll ich URLs für Übersichtsseiten bei Produkten mit der besten kompletten Keywordphrase oder lieber mit dem besten Keyword vorne und weiteren Synonymen aufbauen?
Antwort: Grundsätzlich würde ich mich nicht auf viele Keywords in der URL konzentrieren, wir nutzen URLs größtenteils dafür, Inhalte zu erkennen. Ich würde ganz einfach URLs empfehlen, die Menschen lesen, teilen und sich vielleicht auch einprägen können. Suchmaschinen ist aber auch das egal. Keywordstuffing wird euch da nicht viel bringen.
Thema: URL-Struktur
Zeit: 38:55Frage: Wir fügen neue Seiten zu unseren Kategorien hinzu, nutzen aber eine neue URL-Struktur. Kann Google trotzdem erkennen, dass diese Seiten zusammengehören?
Antwort: Ja, das sollten wir in den meisten Fällen erkennen können. Wenn wir die Inhalte durch URLs gut crawlen können, dann passt das. Ihr könnt problemlos unterschiedliche URL-Strukturen auf eurer Seite verwenden.
Thema: Video
Zeit: 39:58Frage: Kann das Einbetten von YouTube Videos der entsprechenden Seite beim Ranken helfen?
Antwort: Es kann helfen, indem eure Seite in der Videosuche auftaucht. Aber ihr werden in der normalen Suche nicht besser ranken, weil ihr Videos einbettet.
Thema: Search Console
Zeit: 40:38Frage: Wie oft wird der Indexierungsstatus geupdated? Unser Status bleibt in allen Varianten bei Null.
Antwort: Das wird glaube ich zwei oder drei Mal pro Woche upgedated. Es bezieht sich aber nur auf genau die Version, die ihr verifiziert habt. Ihr könnt das per Sitemap in Search Console oder per Infoabfrage testen. Wenn die Seite ganz neu ist, dann kann das immer auch ein wenig dauern, bis die Daten wirklich reinkommen.
Thema: Backlinks
Zeit: 45:25Frage: Wenn Foren eine Newsseite in einer Diskussion verlinken oder diese Seite bei anderen im RSS-Feed auftaucht - helfen solche Links dann beim Ranking?
Antwort: Wenn die Links in den Foren nicht Nofollow sind, dann sind es normale Links. Es können also natürliche oder unnatürliche Links sein und wir behandeln sie entsprechend. Bei RSS-Feeds ist das aber etwas schwieriger, da kann man keine allgemeine Aussage treffen.
Thema: Backlinks
Zeit: 46:36Frage: Es gibt eine Seite namens People per Hour. Diese versprechen Artikel bei Forbes etc. ohne dass Forbes weiß, dass die Links verkauft sind. Sie bieten dann kostenlose Gastartikel bei Forbes und bringen so die Links auf diese starke Seite. Wäre Forbes dafür verantwortlich, obwohl sie nicht wissen, dass es bezahlte Links sind?
Antwort: Wir müssen uns schon lange um solche Gastartikel kümmern. Wir haben da auch vor Kurzem einen Artikel zu veröffentlicht. Unsere Mitarbeiter und unsere Algorithmen kennen das und wenn sie es erkennen, dann verlieren wir das Vertrauen in die jeweilige Seite. Wenn wir solche schlechten Dinge ignorieren und uns auf das gute konzentrieren können, dann machen wir das. Da muss es dann nicht immer direkt Abstrafungen geben. Wir können nicht jede Seite verbessern, wir können immer nur Hilfestellungen geben. Und auch Seiten mit solchen Methoden haben oft noch gute Inhalte, und die wollen wir ja trotzdem ranken.
Thema: Crawling
Zeit: 50:10Frage: Ist es ein Problem für Google, wenn man beim selben Hoster zu einem anderen Gerät wechselt und sich dadurch die IP Adresse ändert? Alle Links bleiben aber gleich.
Antwort: Du würdest keine Änderungen beim Ranking sehen, aber wir erkennen vielleicht die Änderungen in der Infrastruktur und crawlen erstmal langsamer, um zu sehen, ob der neue Server das aushalten kann. Das passiert zum Beispiel beim Wechsel zu einem CDN oft. Aber wenn wir sehen, dass es passt, dann crawlen wir auch wieder mehr.
Den ganzen Hangout könnt ihr euch hier ansehen: