Kategorie(n): Google Webmaster Hangouts
Datum: 2. Juni 2017
Thema: Mobil
Zeit: 00:47Frage: Denkst du, dass Progessive Web Apps die nativen Apps in Zukunft ersetzen werden? Und wenn ja/nein, warum?
Antwort: Grundsätzlich sind das Websites, die auf mobilen Geräten sehr gut funktionieren, schnell laden und auch eine Offline-Funktion haben. Das wird aber trotzdem normal indexiert, solange ihr euch an die Grundregeln wie interne Verlinkung haltet. Da gibt es sicher viele Möglichkeiten, ich glaube aber nicht, dass sie normale Apps auf dem Smartphone ersetzen werden. Ihr könnt da aber einen Kompromiss basteln, ohne immer eine eigene App zu brauchen.
Thema: Links
Zeit: 03:04Frage: Wir haben 2 Nachrichtenwebseiten und planen Inhalte von einer Seite auf der anderen als Empfehlung anzuteasern.
Da hierdurch ziemlich viele Links entstehen würden, sollten diese Links mit Nofollow gekennzeichnet werden?
Antwort: Grundsätzlich ist das bei zwei Seiten kein Problem, da kann man dann auch normale Links nehmen. Gerade, wenn die Seiten unterschiedliche Bereiche abdecken.
Thema: Ranking
Zeit: 03:44Frage: Seit ca. 6 Wochen haben wir massive Abstürze im Ranking und im Traffic für unser News-Portal. Wir haben etliche Werbung entfernt und damit die Ladezeiten verbessert. Auch waren Artikellinks mit Session-IDs für Werbetracking, die nicht in den Index sollten (DC) nur durch die robots-txt gesperrt und nicht auf "noindex", was eventuell massiv negativ gewertet werden konnte. Wie schnell müssten solche Änderungen greifen und hast Du eventuell noch Tipps an welchen Punkten wir mit der Fehlersuche ansetzen können?
Antwort: Ich habe mir das kurz mal angeschaut. Aus persönlicher Sicht ist da immer noch sehr viel Werbung, man kann kaum etwas machen, ohne dass ein Popup oder so erscheint. Ich kann mir vorstellen, dass das den Nutzern nicht gefällt. Aus unserer Sicht versuchen wir viel zu erkennen, zum Beispiel die Gesamtqualität der Seite. Gerade bei News-Websites gibt es auch immer wieder Schwankungen in der Sichtbarkeit, da sich eure Relevanz oft verändert. Das ist normal. Vielleicht haben wir auch noch nicht alle eure Verbesserungen gesehen, da wir ja nicht alle Unterseiten jeden Tag crawlen. Ich würde auch Seiten mit der Session ID nicht mit Noindex, sondern mit dem Canonical bearbeiten. Ihr solltet sie also auch nicht blockieren, denn dann können wir nicht erkennen, dass sie mit anderen zusammengehören.
Thema: Versteckte Inhalte
Zeit: 07:02Frage: Es ist zurzeit die Rede davon dass hidden Content unter mobile first keine Nachteile hinsichtlich Rankings haben sollte. Gilt dies nur für mobile Rankings oder auch für Desktop?
Antwort: Das wird bei uns besprochen, definitives gibt es da noch nicht. Aber auf mobil kann man ja nicht alles sichtbar machen, deswegen wollen wir dann auch nicht sichtbare Inhalte voll nutzen. Und da wir bei mobile First die mobile Seite indexieren, gilt alles dann auch für beide Varianten. Die Inhalte müssen aber auf der Seite geladen sein, denn Googlebot macht keine Klicks.
Thema: Internationale Websites
Zeit: 08:51Frage: Ein internationaler Kunde redirected, basierend auf der Browsersprache auf die entsprechende Sprachversion /de, /en, /es usw. Der Google-Bot wird immer auf die englische Sprache also auf /en weitergeleitet (per fetch-as-google bestätigt). Per sauberer hreflang Umsetzung funktioniert die Sprachzuordnung soweit korrekt. Die deutsche Sprache (/de )rankt daher auch in Deutschland und ist die wichtigste Sprache des Kunden.
Meine Frage: Was passiert mit Backlinks die direkt auf www.domain.com (ohne Sprachversion) zeigen? Geben diese dann die Linkkraft ausschließlich auf die englische Sprachversion weiter? Ich frage deshalb, weil sich vor einem Relaunch die deutsche Sprache direkt unter www.domain.com befand. Dementsprechend sind sehr viele Backlinks von deutschen Seiten vorhanden. Können dadurch Probleme entstehen, wodurch die deutsche Sprache weniger wertvoll wird? Wie sollte mein Kunde damit umgehen?
Antwort: Wichtig ist, dass man ohne Redirect auf die Sprachversionen zugreifen kann, auf der Startseite kann es solche Weichen aber geben. Die einzelnen Versionen müssen direkt erreichbar sein, auch mit ausländischen Browsern, denn nur dann können sie gecrawlt und indexiert werden. Backlinks müssen die Seiten alle einzeln verdienen, wir klappen sowas mit dem Hreflang nicht zusammen.
Thema: Https
Zeit: 11:46Frage: Ist es möglich dass während eines Https Umzugs manche URLs für eine Weile gar nicht indexiert sind? Also dass das Ersetzen von URLs im Index mit etwas Zeitverzögerung stattfindet.
Antwort: Meistens sollte das eigentlich nicht passieren. Vielleicht gibt es ein paar seltene Situationen, wo das vielleicht passiert, weil man mit unterschiedlichen Datencentern auf die Suche zugreift. In der Regel geht der Tausch aber sehr schnell. Das passiert aber auch immer Schritt für Schritt, gerade bei großen Websites.
Thema: Hreflang
Zeit: 13:48Frage: Wenn man in Deutschland mit englischen Spracheinstellungen im Browser unsere Brand sucht, bekommt man immer die österreichische .at Domain ausgespielt und nicht die deutsche .de. Woran könnte das liegen und wie kann man das Problem beheben?
Antwort: Da müsste ich mir die Seite mal anschauen. An sich sollte das mit dem Hreflang aber funktionieren, vielleicht ist da was falsch eingestellt. Manchmal sind die Versionen auch so identisch, dass wir sie als eine indexieren.
Thema: Search Console
Zeit: 15:07Frage: Was passiert, wenn ich eine Website bei 2 verschiedenen Google Search Console Accouts validiert habe und z.B. die Website dort unterschiedlich konfiguriere?
Überschreibt die letzte Änderung die vorherigen Settings des ersten Accounts?
Antwort: Das sollte immer synchronisiert werden, das sollte also kaum gehen. Außer bei persönlichen Dingen, die sich auf das Konto beziehen, wie Property Sets oder Sitemaps.
Thema: Https
Zeit: 16:14Frage: Ich habe meinen Shop Anfang Februar auf Https umgestellt. Seitdem verliere ich immer mehr an Sichtbarkeit bei Google. Was könnte daran Schuld sein?
Antwort: Ich habe mir das mal kurz angeschaut und die Änderungen in den SERPs haben nichts mit Https zu tun. Die Algorithmen bewerten Seiten immer mal wieder neu, und das ist hier passiert.
Thema: Search Console
Zeit: 16:54Frage: Was passiert, wenn ich die Ownership einer Website zu einem neuen Account transferiere und den bisherigen Account lösche? (lediglich das html Snippet es vorherigen Accounts wurde ins Root hochgeladen)
Antwort: Das ist für uns total unproblematisch. Da werden dann alle Infos weitergegeben, außer vielleicht Sitemaps und Property Sets.
Thema: Content
Zeit: 19:21Frage: Ich habe eine Frage zur "Transliteration" von Sonderzeichen, um URL-Encodings zu vermeiden. (Beispiel: /fluegelmutter/)
Im Ungarischen wäre es sprachlich korrekt ö und ő durch oe zu ersetzen sowie ü und ű durch ue. Allerdings findet das im Ungarischen praktisch keine Anwendung (die Nonprofit-Organisation FŐKERT beispielsweise ersetzt das ő durch ein einfaches o: http://www.fokert.hu/)
Was ist aus Google-Sicht sinnvoller: beugen wir uns den Linguisten oder passen wir uns dem Usus an?
Antwort: Das ist oft schwierig, da gibt es nicht die eine Antwort. Unsere Algorithmen arbeiten auf der Basis des Nutzerverhaltens und wir versuchen, solche Sachen zusammenzuklappen. Wir wollen also das wiedergeben, was Nutzer suchen. Wörter in der URL bewerten wir auch nicht stark, das ist also nicht so wichtig und ihr könnt euch da was aussuchen. Sucht euch vielleicht das aus, was am einfachsten ist, damit Nutzer es intuitiv machen können. Das könnt ihr auch durch eine Nutzerumfrage herausfinden.
Thema: JavaScript
Zeit: 23:24Frage: Bei uns ist eine Frage aufgetaucht zu Isomorphic JavaScript im Zusammenhang mit React. Dabei lädt ja nicht immer die ganze Seite neu, wenn man innerhalb der Webseite navigiert. Dadurch wird ein sehr guter Page Speed erzielt. Unsere Frage ist, ob dies für die Google-Crawler ein Problem darstellt oder ob etwas spezielles berücksichtigt werden sollte?
Antwort: Wir sehen das als eine sehr gute Variante. Ihr müsst aber normale A-Links verwenden und saubere URLs nutzen.
Thema: Analytics
Zeit: 25:28Frage: Eine Frage zu return to serp rate, die wir ja nicht wirklich nachmessen können.
Wenn ich google nach beispielsweise "Zalando Nike Schuhe Herren", bekomme ich auf den ersten 10
Suchergebnisseiten nur Seiten von Zalando. Wenn ich auf das erste Suchergebnisse klicke, komme ich auf
die entsprechende Zalando-Landingpage. Gefällt mir der Schuh nicht, betätige ich den Back-Button meines
Browsers um zurück zu Google Suchergebnisse zu gelangen. Klicke dort dann auf das zweite Zalando-Suchergebnis
und klicke dann wieder zurück zur Google Suche, um auf weitere Zalando-Suchergebnisse zu klicken.
Ich nutze praktisch die Google Suchergebnisse als eine Art "Zalando-Produktsuche".
Ist das eigentlich schädlich für das Ranking in Google ? Ich navigiere nicht auf der Zalando-Seite, sondern
klicke immer Zalando-Ergebnisse in Google. Dadurch hohe Return to serp rate und parallel hohe Bounce Rate.
Aber die Marke ist natürlich in der Google Suche drin.
Antwort: Solche Sachen verwenden wir nicht so für das Ranking, es ist ja ein gutes Zeichen, wenn jemand schon nach eurem Website Namen sucht.
Thema: Rich Snippets
Zeit: 26:24Frage: Sind bei aggregate Rating nur aggregierte Bewertungen von mehreren unterschiedlichen Nutzern zulässig oder kann man als Webseitenbetreiber auch ein Produkt/Service unter verschiedenen Gesichtspunkten testen und die z.B. 5 Teilbewertungen in eine Gesamtbewertung zusammenfassen und mit aggregateRating auszeichnen?
Falls das gegen die Richtlinien spricht, wie kann ich ein selbst getestes Produkt mit den beliebten Sternen auszeichnen? Ziel soll sein, dass der User in den SERPs das Produkt inkl. einer Sterne-Auszeichnung (=meine Bewertung) sieht.
Antwort: Das ist wirklich nur für die Bewertung von verschiedenen Benutzern. Vielleicht könnt ihr andere Bewertungen nutzen. Wichtig ist aber immer, dass sich die Bewertungen auf das Hauptthema der Unterseite beziehen - nicht auf die ganze Seite und nicht auf die ganze Firma.
Thema: Redirect
Zeit: 27:42Frage: Wir entwickeln gerade ein neues Shopsystem und werden damit auch unsere URLs optimieren. Wie können wir hier sicherstellen, dass unsere Sichtbarkeit nicht zu stark einbricht bzw. Google unsere Seiten danach wieder schnell crawlen und indexieren kann?
Sind hier robots.txt, Sitemap und Weiterleitungen ausreichend? Oder was sollten wir noch beachten? Und wie sind die Auswirkungen für SEA bzgl. historischer Daten, der Übertragung der Historie auf neue URLs und Rankingverluste?
Antwort: Sicherstellen ist immer schwierig. Grundsätzlich solltet ihr bei größeren Umstellungen immer mit Schwankungen rechnen, da wir alles neu anschauen und verstehen müssen.
Thema: Rankingfaktoren
Zeit: 32:46Frage: Wir haben kürzlich etwas beobachtet, was uns neu erscheint und wollten nachfragen, ob es in diesem Zusammenhang ein update gibt - wir sahen einen unterschiedlichen Rank für den exakt gleichen Suchbegriff auf google.de, obwohl wir von der gleichen IP aus und mit den gleichen Spracheinstellungen suchten. Es ist das erste Mal, dass wir dies beobachten. Gibt es hier ein Update ("persönliche Suche")?
Antwort: Ich denke, das kann immer wieder passieren. Wir haben verschiedene Datencenter, auf die ihr zugreifen könnt. Außerdem machen wir immer wieder Experimente die das Aussehen oder die Reihenfolge der Suchergebnisse verändern.
Thema: Content
Zeit: 34:07Frage: Ich habe eine Frage zum 'Dynamischen Content' und wie man am Besten indexieren kann. Wir haben 3 verschiedene Content Varianten, die wir, abhängig vom Standort, unseren Usern auf einer einzigen, statischen Url zeigen wollen. Leider weiß ich nicht, ob Google alle 3 Varianten mit der gleichen Url indexieren kann.? Wenn das nicht geht, kriegen wir Ärger von Google wegen cloaking? Was ist die sogenannte Best Practice im Bezug auf den ''dynamischen Content' ?
Antwort: Wir crawlen vor allem aus Amerika und werden dann nur diese Inhalte sehen. Wenn ihr dann Dinge austauscht, dann werden wir das nicht sehen. Für dynamische Inhalte braucht man also Teile, die man immer sieht, damit dieser statische Teil indexiert und gerankt werden kann. Die anderen Sachen wären dann zusätzlich und würden nicht für das Ranking genutzt werden. Das wäre dann auch kein Cloaking. Cloaking wäre, wenn US Nutzer das gleiche sehen, was der Googlebot aus den USA sieht. Bei unterschiedlichen Standorten ist das aber egal.
Thema: Bilder
Zeit: 36:30Frage: Bei einem Webshop werden Produktbilder in jeweils verschiedenen Größen und Ansichten von einem CDN geladen. Dabei landen sehr viele de facto gleiche Bilder in verschiedenen Größen im Google Bilder-Index (z.B. Produkt von vorne in sehr groß als Detailansicht, in Mittel und als Thumbnail).
Bei einer Site-Abfrage werden diese Bilder, obwohl sie vom CDN also einer anderen Domain geladen werden, für die Shop-Domain angezeigt.
Daraus ergeben sich folgende Fragen:
Es sind sehr viele CDN-Bilder, die hier gecrawlt und indexiert werden. Wird hier so das Crawl-Budget der Shop-Seite "belastet"?
Macht es Sinn, für deren URL-Pfad in der robots.txt des Shops eine Disallow-Regel zu definieren, obwohl die Bilder auf einer anderen Domain liegen? Wenn ich z.B. die sehr zahlreichen Thumbnail-Versionen deindexieren möchte, die sich recht einfach über deren URL (Verzeichnis) identifizieren und "exkludieren" ließen.
Antwort: Für uns ist es kein Problem, auch das Crawl Budget sollte da nicht betroffen sein. Denn das ist pro Server, und ein CDN findet sich ja woanders. Die robots.txt ist euch überlassen, sucht euch einfach aus, welche Version ihr im Index sehen möchtet. Bei Bildern kann man aber kein Canonical verwenden.
Thema: Search Console
Zeit: 38:36Frage: In Webmaster-Tools/Crawling-Fehler kriegen wir immer bei Smartphone/Blockiert die URLs aufgeführt die Query String beinhalten, das Smartphones mit Query String nicht umgehen können ist mir bewusst, ich haben auch die robots.txt die URL's aufgenommen, aber ohne Erfolg, die Crawling-Fehler tauchen immer wieder neu auf, ist es ein Problem für Google? Wie können wir diese Crawling-Fehler vermeiden? Die Seiten auf Noindex und nofollow kann ich nicht setzten da diese ohne Query String für uns wichtig sind und weiterhin indexiert werden sollen.
Antwort: Grundsätzlich können Smartphones normal damit umgehen, das sollte kein Problem sein. Smartphones haben mittlerweile sehr moderne Browser. Wahrscheinlich sehen wir da keine Crawlingfehler, sondern die Smartphone Variante ist per robots.txt blockiert. Dann wissen wir nicht, ob die Seite wirklich mobil optimiert ist und ranken sie bei mobilen Suchen vielleicht nicht so hoch. Noch problematischer wird das natürlich beim mobile First Index. Zeigt am besten mit rel=alternate auf die mobile und mit rel=canonical auf die Desktop Version, ohne eine davon zu blockieren. Dann sollte alles gehen.
Thema: Duplicate Content
Zeit: 41:32Frage: Im Gutscheine Markt betreiben die meisten Anbieter viele Whitelabels (Beispiel: sparwelt.de >> gutscheine.focus.de), wo die gleiche Deals angeboten werden. Wie hoch ist die Gefahr von Duplicate Content? Reicht es, wenn alle Titel und Beschreibungen von den Gutscheinen uniqe geschrieben werden?
Antwort: Das ist bestimmt schwierig, da sich die Dinge sicher auch schnell verändern. Wenn ihr das so ausbreitet, verdünnt ihr ja die Werte der Inhalte, es kann also nicht eine starke Seite alle Signale sammeln. Das kann natürlich dazu führen, dass es mehrere, nicht so starke Seiten geben wird. Ich empfehle immer, sich auf eine Version zu konzentrieren und vielleicht das Canonical zu nutzen.
Thema: Crawling
Zeit: 43:23Frage: Wir haben bisher für unsere Preisvergleichsseite zu den Städten zusätzlich Seiten mit Postleitzahlen erstellt. Diese haben aber kaum Mehrwert für unsere User und füllen deswegen nur unnötig unser Crawlbudget. Wir würden nun gerne diesen Prozess für Google und unsere Nutzer vereinfachen. Hättest du eine Idee wie die Umsetzung gelingen kann. Es sollte in Zukunft immer nur eine Seite pro Stadt geben also ohne die PLZ Unterseiten. Wie könne wir sicher stellen, dass wir auch ohne die PLZ gefunden werden, wenn jemand Stadt + PLZ eingibt.
Antwort: Es ist bestimmt eine gute Idee, denn aktuell sieht das auch schnell nach Doorway Pages aus. Nehmt euch am besten mal einzelne Städte raus und testet die Umstellung mal.
Den ganzen Hangout könnt ihr euch hier ansehen: