Deutsches Google Webmaster Hangout Transkript, 08.09.2016

von Michael Schöttler

Kategorie(n): Google Webmaster Hangouts Datum: 8. September 2016

Thema: Internationale Seiten

Zeit: 01:03 Frage: Fall: Internationale Domain, mehrsprachig über subfolder. Sprachauswahlseite im Domainroot leitet User weiter, wenn Sprache/Location erkannt wird. Frage: Den Crawler auch so weiterleiten oder ihm die Auswahlseite mit den Links zu allen Sprachversionen geben? Antwort: Beides ist möglich. Wenn ihr Nutzer eindeutig zuteilen könnt, dann leitet sie und Googlebot weiter. Ihr könnt sie auch auf der Auswahlseite lassen. Uns hilft aber in solchen Fällen immer auch das Hreflang. Dann wissen wir, welche der Sprachseiten zusammengehören und für welche Sprache welche Seite in den Suchergebnissen gezeigt werden soll. Dazu müssen alle Sprachseiten gecrawlt werden können. Und die Auswahlseite kann dann x-default sein, da leiten wir alle hin, die keiner Sprachvariante zugeordnet werden und die können sich dann eine aussuchen.  

Thema: Interstitial

Zeit: 03:24 Frage: Ist eine Sticky-Werbung auf mobilen Seiten, die ca. 9% des Screens einnimmt und nicht weggeklickt werden kann, schädlich? Sowohl aktuell als auch im Hinblick auf die Änderungen ab Januar 2017? Antwort: Wir haben da einen Blogpost. Gerade auf mobilen Geräten ist uns wichtig, dass Nutzer direkt die Inhalte sehen können und nicht blockiert werden. Da geht es nicht um Größen, sondern um die Ereichbarkeit der Inhalte. Bei Sticky-Werbung wäre ich aber ein bisschen zurückhaltend und würde mir genau überlegen, das auch mit Nutzern zu testen.  

Thema: Update

Zeit: 05:08 Frage: Hast du mehr Infos über das Update vom 2. September? Antwort: An und für sich nicht viel. Ich kann nur sagen, dass es kein Penguin Update ist. Manchmal kommen auch mehrere kleinere Updates zusammen und das wirkt dann wie ein großes.  

Thema: Ankertexte

Zeit: 06:01 Frage: Wir haben im Menü identische Ankertexte in unterschiedlichen Kategorien Bsp: buch/a4 und kalender/a4 - a4 ist der identische Ankertext. Erkennt ihr aufgrund der URL Struktur (oder anderen Merkmalen), dass sich A4 einmal auf Buch und das andere Mal auf Kalender bezieht? Antwort: Ja, in der Regel schon. Wir versuchen auch, den Kontext der Links ein bisschen dazu zu nehmen. Da erkennen wir dann oft, wie das gehandhabt werden soll. Ihr müsst da nicht künstlich andere Ankertexte erstellen.  

Thema: Ankertexte

Zeit: 06:56 Frage: Wir haben ein Forum, das auch Keywords in den Ankertexten bei Kategorien verwendet, die wir auch im Shop verwenden, die uns wichtig sind. Sollte ich das Forum auf noindex setzen, um die Relevanz des Ankertext-Keywords im Shop zu halten? (Ideen?) Antwort: Nein, wie vorher auch versuchen wir selbst, den Kontext herauszufinden. Sind die Inhalte relevant für die Suche, dann würde ich sie drinlassen. Oft gibt es ja auch viele Ankertexte wie "hier" und da versuchen wir auch, den Kontext zu verstehen.  

Thema: Interne Verlinkung

Zeit: 08:26 Frage: Macht es aus deiner Sicht Sinn, seitenweite Links im Menü auf Nofollow zu setzen, um die interne Verlinkung besser über den Content zu steuern bzw. welche Links werden als interne Verlinkung von Euch wichtiger eingestuft? Antwort: Ich würde intern in der Regel nicht mit Nofollow arbeiten. Aus unserer Sicht stört es das Erkennen der Struktur. Es ist normal, dass zum Beispiel das Impressum von allen Seiten verlinkt wird. Wäre es nur einmal verlinkt, dann würden wir es vielleicht nicht verstehen. So ein künstliches Vorgehen klappt meist eh nicht und kann auch zu technischen Problemen führen. Ein Nofollow Link würde höchstens bei endlosen Kalenderscripts Sinn machen, damit Googlebot sich dort nicht verläuft.  

Thema: Internationale Seiten

Zeit: 10:38 Frage: Spielt die IP-Adresse für Google eine grosse Rolle? Wir betreiben ein Projekt in Brasilien und würden die Server gerne nach Europa holen. Kann sich das negativ auf das Ranking für Suchanfragen aus Brasilien auswirken? Antwort: In der Regel ist das ganz egal. Wir nutzen für das Geotargeting in erster Linie die ccTLD. Und bei gTLD könnt ihr das in Search Console angeben. Die IP Adresse ist nur dann interessant, wenn wir keine anderen Möglichkeiten haben, das Geotargeting herauszufinden. Nehmt also die Infrastruktur, die für euch am besten ist.  

Thema: Duplicate Content

Zeit: 12:41 Frage: Nutzt Ihr Schema.org/Product, Schema.org/ProductModel und Schema.org/IndividualProduct zur Erkennung von Nahezu-Duplikaten bzw. Artikelvarianten? Wenn ja, in welcher Form? Antwort: Soweit ich weiß, nutzen wir das für das Erkennen von DC nicht. Wir versuchen dafür, die Inhalte selbst zu nehmen. Wir strafen Seiten mit DC auch nicht ab, sondern klappen die Sachen zusammen.  

Thema: Duplicate Content

Zeit: 14:26 Frage: Shop mit mehreren Domains, jedoch andere Preise. Fast alles DC. Zugriff über robots nur für Hauptdomain. Viele Links gehen so verloren. Daher Idee zur Freigabe für alle Domains und DC-Lösung über Canonical. Gute Idee oder lieber lassen? Alternativen? Antwort: Ich kann mir vorstellen, dass das Sinn machen könnte. Ich weiß jetzt nicht, warum ihr mehrere Domains habt, vielleicht aus Marketinggründen. Und mit dem Canonical könnt ihr alle weiterhin nutzen und uns eine bevorzugte Version angeben. Das ist besser als robots.txt, denn dort könnten wir die eingehenden Links nicht richtig nutzen und könnten dann die Seiten indexieren, ohne die Seite gesehen zu haben. Und das wären dann ja wieder die falschen Seiten im Index. Ich würde eine Umstellung aber Schritt für Schritt machen, damit wir nicht alles auf einmal crawlen und so eure Server überlasten. Wenn ihr gezielt nach den Seiten sucht, werden auch einige der Seiten vorübergehend im Index landen, das ist ein normaler technischer Vorgang.  

Thema: Google Analytics

Zeit: 17:33 Frage: Nach der Umstellung von http auf https werden in Google Analytics die Seiten unter Verhalten manchmal noch zusätzlich mit meiner http-URL und mal mit https-URL in der Liste angezeigt. Woran kann das liegen? Antwort: In Analytics kenne ich mich nicht aus. Fragt mal im Analytics Forum nach.  

Thema: Mobilseite

Zeit: 18:17 Frage: Mein Kunde betreibt eine separate mobile Webseite. Alle URLs sind per rel=alternate und canonical getagged. Laut Search Console wird die mobile Site jedoch nur zu 0,001% indexiert, die andere wird als nicht mobile friendly getagged. Was nun? Antwort: Schwer zu sagen. Ich vermute, dass wir die Verbindung aus irgendeinem Grund nicht verstehen. Es ist eigentlich normal, dass mobile Seiten nicht extra indexiert werden, da sie ja ein Canonical haben. Aber die Hauptseite sollte dann mobilfreundlich sein. Schaut euch mal die Seiten mit dem Mobile Friendly Testing Tool an, um zu sehen, ob dort alles in Ordnung ist. Wenn das nicht klappt, dann ist das Hilfeforum der beste Ort.  

Thema: Duplicate Content

Zeit: 21:20 Frage: Hallo, wenn Inhalt einer HTML Seite zusätzlich als PDF zum Download angeboten wird ist das Duplicate Content? Wenn ja, wie kann das verhindert werden und wie teile ich dem Bot am besten mit, dass die HTML Seite ranken soll? Antwort: Zum Teil wird das als DC erkannt. Wir sehen wahrscheinlich, dass die Textxblöcke identisch sind. Wir erkennen aber, dass die Seiten an sich separat sind und auch so indexiert werden. In den meisten Fällen ist das kein Problem und wir indexieren die HTML Version. Ansonsten könnt ihr im Header des PDF ein Canonical eingeben, das auf die HTML-Variante verweist.  

Thema: IsSimilarTo

Zeit: 22:59 Frage: Werden Beziehungen zwischen Dokumenten basierend auf isRelatedTo, is Similar To, isAccessoryOrSparePartFor and isConsumableFor analysiert? Antwort: Meines Wissens nach nicht. Das sind Sachen, die momentan eher semantische Zusatzwerte geben. In der Websuche verwenden wir sie aber aktuell soweit ich weiß nicht.  

Thema: Ranking

Zeit: 24:30 Frage: Wie kann man kleinere Webseiten besser in den organischen Ergebnissen auffinden, wenn diese schlecht optimiert sind, weniger Unterseiten und ein kleineres Produktportfolio als die Konkurrenz besitzen, jedoch das gesuchte Produkt zu einem besseren Preis anbieten? Antwort: Das ist immer schwierig. Gerade in Bereichen mit starker Konkurrenz muss man sich so differenzieren, dass Google das zeigen will und muss. Sind alle Inhalte gleich und nur der Preis ist anders, dann ist das für uns kein Grund, die Seite oben zu ranken. Vielleicht habt ihr spezielles Fachwissen oder ihr habt spezielle Produktvarianten.  

Thema: Maps

Zeit: 26:43 Frage: Auswirkung (positiv/negativ) bei Einbettung von GoogleMaps-Standort per iFrame? Eine Diensteistung/Artikel z.B. "ferrari fahren Nrw" soll zusätzlich eine GoogleMaps Karte erhalten. Stadtgrenzen sind in der Javascript Api nicht enthalten, daher iFrame. Bzw. ist es eventuell besser auf die Stadtgrenzen zu verzichten und dafür die Javascript API zu nutzen weil Google mit diesen Angaben mehr anfangen kann? Normalerweise würde ich davon ausgehen, Google sollte sein eigenes iFrame verarbeiten können? Antwort: An sich verwenden wir solche Informationen eher dafür, um zu sehen, dass Standorte angegeben sind. Inhalte der Karte nutzen wir eher weniger. Ihr solltet die Infos auch woanders haben, z.B. den Stadtnamen ausgeschrieben. Hat die Karte zusätzliche Infos, z.B. mehrere Filialen mit Öffnungszeiten etc, dann ist es für uns oft schwierig, diese Infos zu verwenden.  

Thema: Disavow

Zeit: 29:28 Frage: Nach Umstellung von http auf https: Muss man die Disavow-Datei für beide Versionen hochladen oder reicht die neue https-Version? Antwort: Die Datei muss immer für die Canonical Version hochgeladen sein. Ist das gut eingebaut, dann reicht es für https. Aber im Übergang empfehle ich, dass für beide Versionen die gleiche Datei hochgeladen werden sollte.  

Thema: Penguin

Zeit: 30:35 Frage: Gibt es einen Zeitplan für das kommende Penguin-Upgrade? Ist schon abzusehen, dass es dann Teil vom Core wird? In der Branche, in der ich optimiere, überholen mich und erholen sich schon länger einige Konkurrenten, die Linkaufbau betreiben. Antwort: Wir haben noch keinen offiziellen Zeitplan für Penguin. Ich weiß aber, das viele Teams daran arbeiten. Ob es ein Teil vom Core wird, ist schwer zu sagen, aber es soll künftig schneller aktualisiert werden.  

Thema: Parameter

Zeit: 31:23 Frage: Bei "site:domain.de" tauchen unerwünschte Ergebnisse mit Parametern auf. Die Parameter sind unter "Crawl" > "URL Parameters" gelistet und mit "No URLs" markiert. Es gibt auf den Seiten auch ein – hoffentlich – korrektes rel=canonical-Element. Was fehlt? Antwort: Wir sehen Seitenabfragen als unnatürliche Anfragen. Da kann es dann normal sein, weil wir da nicht nach Relevanz gehen. Fragst du gezielt nach einer URL, dann zeigen wir sie, auch wenn sie nicht das Canonical ist. Wir crawlen ja trotz des Parameters. Ihr könnt euch die gecachte Seite anschauen, um zu sehen, was die indexierte Version ist. Das sollte sich auch schnell wieder einpendeln.  

Thema: Ranking

Zeit: 33:21 Frage: Welche Gründe könnte es für stark volatile Rankings geben? Bsp.: Innerhalb einer Woche zwischen Platz 8 zu Platz 3 dann zu 5. Antwort: Schwer zu sagen, wir verwenden mehr als 200 Signale. Je nach Ort und Personalisierung kann sich das Ranking auch immer ändern.  

Thema: Crawling

Zeit: 34:26 Frage: Hat es einen bestimmten Grund, dass im URL-Parameter Tool die Einstellung "keine URLs crawlen" angeboten wird, diese aber vom Crawler nicht respektiert wird? Antwort: Das ist eher eine Steuerung für die Optimierung auf unserer Seite, ist aber kein Befehl für uns. Da kommen unterschiedliche Signale von eurer oder unserer Seite zusammen und wir schauen dann, was wir machen. Gerade nutzerseitige Angaben kontrollieren wir aber immer mal wieder und crawlen die Seiten dann manchmal. Wenn das ein Problem ist, solltet ihr mit robots.txt arbeiten.  

Thema: Meta-Daten

Zeit: 35:49 Frage: Welche Längen können Title und Description aktuell haben, damit sie in den SERPs vollständig dargestellt werden? Antwort: Da haben wir keine Zahlen. Das hängt auch von eurem Endgerät ab. Und je nach Suchanfrage können sie auch variieren und wir ändern die Möglichkeiten immer mal wieder. Prüft das auch nicht mit der Seitenabfrage, da zeigen wir vielleicht andere Dinge als in den SERPs.  

Thema: Links

Zeit: 37:38 Frage: Links gegen Gegenleistung: Hier http://goo.gl/dMn2Dp weiß ich, dass eine Sachspende geleistet wurde, aber Links freiwillig gesetzt wurden & nicht Bedingung für die Spende waren. Könnt Ihr solche Dinge auseinander halten oder gelten die Links als gekauft? Antwort: Ich habe mir die Seite jetzt nicht angeschaut. In der Regel können wir das mittlerweile ziemlich gut, da wir ja auch das Webspam Team haben und das große Gesamtbild wichtig ist. Sind alle Links so, dann ist es problematisch. Aber gibt es mal einen, dann ist das was anderes, wenn die Links eigentlich in Ordnung sind.  

Thema: Rich Snippet

Zeit: 39:01 Frage: Die Meta Description wird ja nur begrenzt dargestellt (ca. 156 Zeichen). Was wäre denn, wenn ich mehr rein schreibe, um mehr relevante Bereiche abzudecken. Würde Google dann je nach Nutzerintention die Inhalte im Snippet darstellen? Antwort: Ja das kann passieren. Das hängt auch immer von der Breite der Zeichen ab. Wir können auch bei zu langen Descriptions Teile herausnehmen. Das geht auch von den Hauptinhalten der Seite. Das läuft aber algorithmisch, das passiert also maschinell und kann sich mit der Zeit ändern. Das ist auch kein Rankingfaktor, Keyword Stuffing wird also nichts bringen.  

Thema: Crawling

Zeit: 41:05 Frage: Haben (Browser-Ressourcen-hungrige) JavaScript-Websites auch tendenziell eine schlechtere Crawling-Rate? Oder hat Google "unlimited" Rechenpower auf Client-Seite? Antwort: Unlimitiert sicher nicht, aber wir haben schon viele Rechner und können viel über das Rendern rausholen. Wir rendern momentan fast jede Seite, die wir crawlen, damit wir z.B. bei JavaScript nichts verpassen. Viele eingebettete Inhalte auf einer Seite können einen Einfluss auf das Crawlen und Rendern haben und zu einem Timeout führen, das ist aber die Ausnahme. Das geht den Nutzern dann aber auch so und ihr solltet das optimieren, um ihnen eine schnellere Seite zu bieten. Webpagetest.org ist hier ein gutes Tool.  

Thema: Internationale Seiten

Zeit: 43:33 Frage: Welche Lösung ist besser für internationale Projekte: www.domain.de, .ch, .fr etc. oder www.domain.com/de/, /ch/, /fr/ ect.? Antwort: Für uns ist beides ok. Bei der .com müsstet ihr halt das Geotargeting angeben. Das gilt auch für TLD mit Städtenamen. Ich empfehle immer, zu schauen, was für euch besser passt. Will man in vielen Ländern unterwegs sein, dann ist es manchmal schwer, alle einzelnen Domains zu kriegen. Auf der anderen Seite wollen Benutzer vielleicht auf eine Seite mit ihrer ccTLD. Ihr könnt es auch mischen. Ihr könnt aber nicht eine ccTLD nehmen und da dann andere Länderversionen darunterpacken - da würde kein Geotargeting mehr gehen.  

Thema: 404

Zeit: 45:40 Frage: News-Website: Artikel werden jeweils auf einer Unterseite dargestellt. Alle 1-2 Wochen alte Artikel werden stets gelöscht, so dass 404 Fehler entstehen. Wie kritisch wird das von der Google-Suche bewertet, wenn z.B. 50% der Seiten 404 zurückgeben? Antwort: Wenn das für euch so richtig ist, dann ist das für uns ok. Wenn aber Links auf diese Seiten bestehen, dann gehen die verloren. Vielleicht können die Artikel mit Weiterleitung in einem Archiv landen? Sind sie gar nicht mehr relevant, dann ist 404 aber eine gute technische Lösung, auch für viele Seiten.  

Thema: Onepager

Zeit: 47:08 Frage: Bei kleineren Websites kommt immer mehr der Trend auf, Themes zu verwenden, die die komplette Website auf einer einzigen Unterseite darstellen, Onepager wie z.B.: http://goo.gl/Go5nmm. Ist das für die Google-Suche durch die Vermischung von Themen nachteilig? Antwort: Grundsätzlich sind Onepager nicht per se schlecht. Für uns ist es nur schwer, den Kontext der einzelnen Teile zu erkennen. Sucht jemand nach einem Teil davon, dann ist das irgendwo auf der Seite versteckt und er muss es dann erstmal dort finden. Die Algorithmen können dann auch nicht das Hauptthema herausfinden und die Seite richtig einordnen. Macht das also nur, wenn es nur um ein Thema geht. Einzelne Themen würde ich eher auf separate Seiten aufteilen. Da seht ihr dann auch, was den Nutzern wirklich gefällt.  

Thema: Interstitial

Zeit: 49:38 Frage: Seiten mit zeitverzögerten PopUps/Layern sollen abgestraft werden. Betrifft das nur mobile Seiten? Wie würde es sich mit einer Full-Screen Ladeanimation verhalten, die so lange angezeigt wird, bis der eigentlich Content geladen wurde und dann verschwindet? Antwort: Im Moment betrifft das nur mobile Seiten, denn da ist das Problem aus unserer Sicht viel akuter. Bezüglich Ladeanimationen ist das schwer zu sagen. Wenn es schnell lädt, dann ist eine kurze Animation denke ich kein Problem für uns. Dauert die aber länger, dann kann ich mir schon eher vorstellen, dass die Algorithmen das als Interstitial sehen.  

Thema: Search Console

Zeit: 50:55 Frage: Die Search Console zeigt an, dass eine unserer Kunden Websites (mobile Version) nur 73 mal geklickt wurde. Sie ist allerdings eine der meistbesuchten Webseiten Deutschlands. Wie kommt es zu solchen Diskrepanzen? Unsere Analyse Tools sagen auch anderes. Antwort: Da müsste ich die URLs haben. Manchmal sehen wir aber, dass die falsche Version in Search Console registriert ist. Also www. und non-www. oder http und https. Ansonsten müsst ihr mir das mal schicken oder einen Thread im Hilfeforum eröffnen.  

Thema: Search Console

Zeit: 52:22 Frage: Hast du Informationen zu aktuellen Meldungen über Spamstrukturen zu Rich Snippets in der Search Console? Antwort: Ich weiß nicht, was damit gemeint ist.   Den ganzen Hangout könnt ihr euch hier ansehen: