Google Webmaster Hangout Transkript, 11.01.2019

Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 11. Januar 2019:

Einleitung: Im neuen Jahr wird es einige Veränderungen geben. „Google Plus“ wird beispielsweise nicht mehr existieren. Demnach müssen wir uns noch eine Lösung überlegen, wie wir diese Hangouts so weiterführen können, dass Ihr weiterhin Eure Fragen einreichen könnt. Seitens der Search Console wird es ebenfalls viele Änderungen gaben. Wir arbeiten an einer neuen Version. Ich kann mir vorstellen, dass einige Features nicht in die neue Version integriert werden, da einige Sachen nicht mehr für Websites notwendig sind. Das könnte Beispielsweise die Crawl-Fehler-Sektion sein. Hier zeigen wir Euch Millionen von Crawl-Fehlern, was eigentlich überhaupt keinen Sinn macht, wenn es wichtiger ist, sich darauf zu fokussieren was Eure Website wirklich beeinflusst.

Dynamisches Rendering

Zeit: 3:16

Frage: Wir haben eine sehr JavaScript-lastige Seite. Sie ist in „React“ geschrieben und benutzt Server-Side-Rendering. Nach einigen Veränderungen sind unsere Index-Ergebnisse in der Google-Suche komplett kaputt gegangen. Wir haben herausgefunden, dass Google wahrscheinlich zuerst unsere Seite gelesen hat, die server-rendered war und nach einiger Zeit wurde JavaScript auf unseren Seiten ausgeführt, und im Kontext, als das JavaScript-Objekt ausgeführt wurde und die Seite während dieser Ausführung von JavaScript beschädigt wurde, ist etwas schiefgelaufen. Ich habe mich tatsächlich gefragt, ob ein Google-Crawler das Ergebnis seiner Seite, die während des serverseitigen Renderns einen Index hatte, mit dem Ergebnis überschrieben hat, das er während der Ausführung von JavaScript erhielt.

Antwort: Wahrscheinlich würden wir das tun. Wenn Ihr also eine serverseitig gerenderte Seite bereitstellt und auf dieser Seite JavaScript vorhanden ist, das den gesamten Inhalt entfernt oder den gesamten Inhalt auf eine Art und Weise neu lädt, die beschädigt werden kann, kann dies das Indexieren für uns beeinträchtigen. Wenn Ihr also eine serverseitig gerenderte Seite bereitstellt, die noch JavaScript hat, stellt sicher, dass es auf eine Weise gebaut ist, dass wenn JavaScript kaputt geht, der Inhalt nicht entfernt wird, sondern vielmehr der Inhalt noch nicht ersetzt werden konnte.

CDN

Zeit: 14:28

Frage: 2011 sagte Pierre Far, dass mit CDN betriebene Sites nicht anders behandelt werden als Nicht-CDN-Sites. Ist das der Fall?

Antwort: Ja, das ist so der Fall. Für uns ist ein CDN nicht so etwas Besonderes, als dass wir es anders behandeln würde. Es ist einfach eine Art, eine Website zu hosten. Dies hat Auswirkungen darauf, wie schnell Eure Website geladen werden kann und wo sie für das Publikum verfügbar ist.

CDN und Geo-Targeting

Zeit: 15:20

Frage: Wenn ich eine Website in einem anderen Land für mein Unternehmen mit einem CDN gehostet habe und in der Search Console angeben habe, dass das Zielpublikum für die Website bestimmt ist, muss ich mir da Sorgen machen?

Antwort: Das ist vollkommen ok so. Ich denke, einer der Aspekte, bei denen ein CDN sehr sinnvoll ist, wenn Ihr mit CDN lokale Präsenz habt und sicherstellt, dass Eure Site für lokale Benutzer wirklich schnell ist. Im Allgemeinen benutzen wir hauptsächlich beim Geo-Targeting die Top-Level Domain. Wenn Ihr eine Country-Code Top-level Domain habt, ist das für uns ein starkes Zeichen, dass Ihr ein bestimmtes Land ansprecht, oder wenn Ihr eine generische Top-Level-Domain in den Einstellungen der Such Konsole habt. Mit den Beiden haben wir das meiste abgedeckt und wenn Euer CDN in verschiedenen Ländern Endpunkte hat, ist das nicht so schlimm. Wenn sich Euer Hosting in einem Land befindet und Ihr ein anderes Land als Ziel habt, liegt es ganz bei Euch. Solange wir das Zielland erkennen können, ist das ok.

Bilder SEO

Zeit: 16:58

Frage: Wir haben eine technische Veränderung in einem unserer Shops, welches all unsere Bilder URLs verändern wird. Die Kompression wird die gleiche sein. Wird Google verstehen, dass es noch das Gleiche Bild ist oder werden wir im Ranking fallen? Sollten wir für die Bilder URLs Weiterleitungen setzen?

Antwort: Das ist eine gute Frage. Diese Änderung wird einen Effekt auf Eure Website innerhalb der Google-Bildersuche haben. Wenn wir Änderungen bei URLs mit eingebetteten Bildern sehen, müssen wir diese neu crawlen, neu verarbeiten und neu indexieren und sie alle für die Bildersuche fertig machen. Wenn Ihr also einfach nur die URLs ändert, auf die in Euren Seiten verwiesen wird, werden diese Bilder zuerst als neue Bilder betrachtet, und in Bezug auf das Ranking müssen sich alle wieder hocharbeiten. Weiterleitungen setzen ist genau das richtige in dem Falle. Denn so wissen wir, dass die alten Bilder mit den neuen verbunden sind und wir können die Signale, die wir von den alten haben an die neuen Bilder weitergeben. Dies ist besonders wichtig, wenn eine Seite viel Verkehr durch die Bildersuche erhält. Hier ist die Bildersuche etwas anders als die Websuche. Da Bilder an sich nicht so oft wechseln, crawlen wir sie nicht so regelmäßig. Wenn Ihr also bedeutende Änderungen in der von Euch verwendeten URL-Struktur für Bilder vornehmt, wird es sehr viel länger dauern, bis wir das erneut verarbeiten.

Wechsel des Themas einer Website

Zeit: 19:12

Frage: Wenn ich komplett das Thema meiner Website ändere, bleibt mein Ranking stabil oder wird es abfallen? Ich werde den gleichen Inhalt nutzen, den gleichen URL Pfad, die gleichen Bilder, jedoch das Layout, JavaScript etc. wird sich ändern.

Antwort: Ja, das wird sich auf Eure Website auswirken. Es muss nicht unbedingt abfallen, es kann auch besser werden. Wenn Ihr Eure Seite signifikant verbessert mit Dingen wie: die Überschriften klar markieren; strukturierte Daten hinzufügen, wo es sinnvoll ist; klare HTML-Struktur verwenden, die es uns erleichtert herauszufinden, welcher Inhalt zusammengehört und welcher Inhalt zu den Bildern gehört. All diese Dinge können einen sehr positiven Effekt auf Eure Seite in der Suche mit sich bringen. Das ist ein Gebiet, in dem man gut an seinem SEO arbeiten kann.

Versteckter Inhalt

Zeit: 20:31

Frage: Wir stellen derzeit den doppelten Inhalt des Quellcodes unserer Produktseiten bereit. Ein Blog ist für Desktop und der andere für Mobile. Eine Version wird mit CSS verborgen, je nachdem auf welcher Site sich die Benutzer befinden. Ist das für Googlebot akzeptabel oder wird es als bösartig versteckter Inhalt angesehen?

Antwort: Für den Googlebot ist das vollkommen ok. Wir können erkennen, wenn Inhalte versteckt sind und versuchen, diese leicht anders zu behandeln. Nicht desto trotz wirkt es so, als ob Ihr mehr Komplexität hinzufügt, als ihr eigentlich braucht. Und ich vermute, dass es etwas schwieriger ist, eine Website wie diese zu unterhalten, auf der immer derselbe Inhalt kopiert wird. Mein Tipp wäre, responsive Webdesign zu verwenden, um nicht duplizierten Inhalt zu verwenden. Das macht die Seiten etwas kleiner und so laden sie auch schneller und Ihr müsst euch keine Sorgen darum machen, wie es andere Suchmaschinen verarbeiten. Dies führt wahrscheinlich dazu, dass beide Blogs für dieselbe Seite indexiert werden, aber im Allgemeinen würde dies keine Probleme verursachen.

Eine Hauptseite vs. unterschiedliche Seiten für verschiedene Standorte

Zeit: 21:54

Frage: Wenn ein Unternehmen unterschiedliche Standorte in verschiedenen Bundesstaaten hat, ist es dann besser, für jeden Standort unterschiedliche Seiten zu haben oder einen Hauptseite mit allen Standorten, wobei jede Seite eine andere Schemastruktur hat, um die lokale SEO zu unterstützen? Wir möchten jeden Standort anvisieren.

Antwort: Das kommt total auf Euch an. Ich persönlich empfehle jedoch eher eine starke Seite zu haben, als viele kleine. Am besten eine starke Website für das Unternehmen im Allgemeinen und dann individuelle Landing Pages für die individuellen Standorte, so dass, wenn Leute nach den Locations suchen, sie diese auch finden können. Ihr solltet aber auch zur gleichen Zeit eine wirklich starke Webseite haben, die leicht bei Google zu finden ist, wenn Leute nach dem Unternehmen im Allgemeinen suchen.

Wenn Ihr Euch jedoch trotzdem für viele kleine Websites entscheidet, ist darüber nachzudenken, wie Ihr insbesondere mit geteilten Inhalten umgehen wollt.

Insbesondere, wenn Ihr über Informationsseiten zu den angebotenen Produkten oder Dienstleistungen verfügt und diese über alle diese verschiedenen Websites für die einzelnen Standorte hinweg dupliziert. Welchen dieser Seiten möchtet Ihr dann angezeigt bekommen, wenn jemand nach etwas im Allgemeinen sucht, etwas über das Produkt oder die Dienstleistung, die Ihr anbietet? Wenn Ihr alles auf allen Seiten habt, dann stehen sie quasi alle in einer Art Wettbewerb miteinander. Daher macht es Sinn, sich eine Seite als Hauptseite auszuwählen, bei der alle generellen Informationen indexiert werden und die anderen Seiten fokussieren sich etwas mehr auf die jeweiligen Locations.

SEO

Zeit: 30:33

Frage: Was können wir tun, um gut bei Google zu ranken?

Antwort: Das ist eine sehr breit gefächerte Frage. Ich habe keine generische Antwort, die alle Punkte abdecken würde. Wenn Ihr auf dem Level seid, wo man sich das fragt und Ihr nicht wisst, wo man anfangen soll, würde ich einen Blick in den Google SEO-Anfängerführer werfen. Ihn gibt es jetzt im „Help Center“ und deckt viele Basisinformationen zu SEO ab. Wie man gut rankt und wie man bei Google gut funktioniert. Es gibt auch viele SEO- Starter-Führer, die nicht von Google selbst, aber ebenfalls gut sind.

Sitemap-Datei

Zeit: 31:23

Frage: Ist es ok eine einzelne Sitemap zu haben, die Artikel und die Bilder enthält, oder ist es besser separate Sitemaps für Artikel und Bilder zu haben?

Antwort: Für uns funktionieren beide Ansätze. Was auf technischer Ebene geschieht, ist, dass wir alle Segmente, die wir für Eure Website gefunden haben, in einer großen Datei zusammenfassen und dort verarbeiten. Es ist also Euer Ding, wie und ob Ihr diese Informationen in separate Sitemap-Dateien aufteilt. Ihr könnt den Weg wählen, der gut für Eure Einstellungen funktioniert, für Euer CMS, für Euren Server, für Eure Infrastruktur, was auch immer Euch vorwärts bringt.

HTTPs und HTTP

Zeit: 34:57

Frage: Ich habe zwei Websites und beide sind vor ca. 6 Monaten mit HTTPS gestartet, mit zwei verschiedenen Ergebnissen. Wir haben bei beiden 301-Weiterleitungen eingerichtet. Seite A bekommt weniger als 10 Klicks auf der http-Version, der ganze Traffic ist nun auf HTTPS. Seite B bekommt 1000 Klicks auf der HTTP-Version. Zeigt uns das, dass Seite B Probleme hat?

Antwort: Im Allgemeinen bedeutet das nicht, dass es unbedingt Probleme sind, aber man sollte nicht vergessen, dass wir uns Webseiten individuell anschauen und unsere Algorithmen nicht denken, dass wenn zwei Websites von der gleichen Person sind, sie auch das Gleiche tun sollten. Es kann sein, dass wir immer noch Probleme bei einer Website sehen und dass dies erheblichen Datenverkehr verursacht. Es kann sein, dass wir dieselben Probleme bei der anderen Website sehen, aber weil niemand nach diesen Seiten sucht, bemerkt man dies nicht wirklich. Ich vermute, wenn Ihr noch seht, wie ein Drittel Eures Traffics auf die HTTP-Version geht, nachdem vor sechs Monaten auf HTTPS umgestellt wurde, ist irgendetwas irgendwo noch immer nicht in der richtigen Reihenfolge. Auch kann es sein, dass sie Art wie Ihr die Dinge messt nicht richtig eingestellt ist. Ich schlage vor nochmals richtig in das Thema einzutauchen und herauszufinden, was genau hier passiert. Warum funktionieren die Weiterleitungen nicht richtig, warum zeigt Google nur die HTTP Version, oder gehen die Leute über einen anderen weh zu der HTTP Version? All diese Dinge können Aspekte sein, die Ihr nochmals beachten solltet.

Blockierte Redirects durch robots.txt

Zeit: 36:53

Frage: Wenn eine Seite Weiterleitungen enthält, die von der Seite wegführen und diese URLs werden indexiert und gerankt, kann das aus SEO-Sicht die Seite negativ beeinflussen? Was ist, wenn die Website gleichzeitig via Robots.txt blockiert wird.

Antwort: Hier kommen mehrere Blickwinkel ins Spiel. Wenn dies einerseits Weiterleitungen sind, die zu Inhalten führen, die wir sonst indexieren könnten, kann es sein, dass wir Probleme haben, den Inhalt zu finden und somit auch zu indexieren, und das würde eindeutig das SEO der Website beeinflussen. Dies gilt jedoch mehr für den Inhalt, auf den umgeleitet wird. Wenn also der Inhalt, auf den umgeleitet wird, eine andere Website ist, dann wäre diese andere Website von der Blockierung der Weiterleitungen betroffen. Wenn wir von der Website sprechen, die die Weiterleitungen macht und die Weiterleitungen gehen woanders hin, dann ist das im Allgemeinen keine große Angelegenheit. Wir sehen im Netz viele URLs, die von robots.txt blockiert werden und damit müssen wir klarkommen. Das kann bedeuten, dass die URLs, die blockiert sind, wenn sie in der Suche angezeigt werden, mit den anderen Seiten Eurer Website konkurrieren. Wenn Ihr zum Beispiel eine Seite über einen bestimmten Schuh habt und eine Weiterleitung von dort aus zu einer offiziellen Partnerseite geht, auf welcher Leute den Schuh bestellen können und die Weiterleitung ist auch indexiert und blockiert, wegen der robots.txt-Blockierung, dann konkurrieren Eure Seite über den Schuh und die Weiterleitung, die zum Laden des Schuhs führt, quasi miteinander. Das ist nicht unbedingt ein Zeichen für schlechtere Qualität, es ist eher ein Konkurrieren mit sich selbst und wir können nicht verstehen, was das für eine Seite ist, zu der Ihr verlinkt. Daher zeigen wir wahrscheinlich beide URLs in den Suchergebnissen und je nach dem zeigen wir dann vielleicht eine Seite, die Ihr lieber nicht gezeigt bekommen wollt.

Wertung seitens Google

Zeit: 39:35

Frage: Bewertet Google alle Suchbegriffe negativ, die sich auf Marihuana, medizinisches Marihuana, CBD-Öl usw. beziehen?

Antwort: Dessen bin ich mir nicht bewusst. Wir können keinen Suchbegriff wirklich negativ bewerten, denn wenn wir alle Ergebnisse um 10 nach unten verschieben, würden wir immer noch mit derselben Liste beginnen. Ich kann mir vorstellen, dass wir Elemente im unseren Suchsystemen haben, die solche Themen teilweise als kritisch ansehen könnten, wenn es Leuten wichtig ist wirklich starke Informationen zu finden. Da sollten wir mit dem was wir zeigen etwas vorsichtig sein und sollten nicht Seiten zeigen, die rein zufällig diese Worte beinhalten. Das ist vielleicht etwas, was hier eine Rolle spielt, aber es ist definitiv nicht so, dass wir in Bezug auf diese Fragen alles generisch herabstufen würden.

Mobile Usability vs. Mobile first Indexing

Zeit: 41:08

Frage: Im Mobile-Usability-Bericht in der Search Console gibt es eine Menge gültige URLs im Vergleich zum Index, der anzeigt wie nah oder weit man von Mobile First Index entfernt ist. 

Antwort: Mobile Benutzerfreundlichkeit ist komplett separiert vom „Mobile first Indexing“. Eine Seite kann aus mobiler Sicht nicht nutzbar sein, aber sie kann trotzdem allen Inhalt beinhalten, den wir für das Indexieren benötigen. Ein Beispiel: Ein PDF ist schwer mobil zu navigieren, die Links sind schwer zu treffen und der Text ist schwierig zu lesen, aber der Text ist trotzdem da und wir können ihn perfekt mit „Mobile first Indexing“ erfassen. Mobile Usability ist also nicht das Gleiche wie Mobile first Indexing.

Mobile Usability vs. Mobile first Indexing

Zeit: 42:14

Frage: Wenn nur 30% meiner aktuell indexierten URLs im Mobile-Usability-Bericht als gültig angezeigt werden, bedeutet das, dass Google Probleme hat meine Seite zu crawlen und die verbleibenden URls zu finden? 

Antwort: Nein. Das ist in der Search Console etwas verwirrend. Ihr schaut Euch dort vor allem an, ob es erhebliche Probleme mit den Seiten gibt, die wir dort finden, aber nicht, dass die Gesamtzahl des Indexes mit der Gesamtzahl der Berichte übereinstimmt. Insbesondere Berichte wie der „Mobile-Usability-Bericht“ und die strukturierten Datenberichte glaube ich auch, basieren auf einer signifikanten Auswahl der Seiten Eurer Website. Sie sind nicht als umfassende Liste aller indexierten Seiten Eurer Website gedacht. Wenn Ihr also 1000 URLs als Index im Index-Abdeckungs-Bericht seht, heißt das nicht, dass Ihr 100 URLs in den unterschiedlichen Berichte innerhalb von der Google Search Console seht, es kann sein, dass Ihr nur 100 oder 500 in dem Mobile Usability Bericht seht und solange die gezeigten alle ok sind, sollte alles richtig eingestellt sein. Ihr müsst also nicht darauf abzielen, in all diesen verschiedenen Berichten dieselbe Anzahl zu sehen. Das Thema sollten wir in der Suchkonsole eventuell besser darstellen. Das ist ein guter Punkt.

Ländercode-Top-Level-Domain vs. globale Top-Level-Domain

Zeit: 44:12

Frage: Wir haben eine Website mit einer schwedischen Top-Level-Domain (.se). Wir machen nicht nur in Schweden Geschäfte, sondern auch weltweit. Unser Geschäft beschäftigt sich mit dem Outsourcing von Software-Entwicklungsdienstleistungen. Ist es aus SEO-Sicht sinnvoll, von einer Ländercode-Top-Level-Domain zu einer generischen Top-Level-Domain wie .com zu wechseln? Wäre es so einfacher für generischen Anfragen zu ranken? Kann man bei einer schwedischen Domain in anderen Ländern außer Schweden im Ranking steigen? 

Antwort: Das höre ich vom Zeit zu Zeit. Wenn Ihr eine Ländercode-Top-Level-Domain habt, kann Eure Website dennoch global sehr relevant sein.  Wenn Ihr ein globales Publikum ansprecht und eine Ländercode-Top-Level-Domain habt, ist das vollkommen in Ordnung. Wenn Ihr jedoch einzelne Länder außerhalb Eures eigenen Landes anzielt, kann man das mit der Ländercode-Top-Level-Domain nicht erreichen. Wenn Ihr zum Beilspiel eine schwedische Top-Level-Domain habt und Ihr zum Beispiel auf Nutzer in Frankreich abzielt, kann man mit der schwedischen Domain kein Geo-Targeting für Frankreich benutzen. Wenn Ihr aber sagt „meine Dienstleistungen sind global und jeder weltweit sollte darauf zugreifen können“, so existiert kein Unterscheid, ob Ihr eine Ländercode-Top-Level-Domain habt oder eine globale Top-Level-Domain. Den größeren Effekt, den Ihr bemerkt ist eher aus der Nutzersicht. Wenn diese eine schwedische Domian sehen, aber nicht aus dem Land stammen, können sie daraus folgern, dass die Seite nicht zu Ihrer Suche passt. Das kann man mit klaren Titeln lösen, zum Beispiel in Englisch oder eben in der Sprache in welcher Ihr mit dem Nutzer sprecht. Macht es den Nutzern deutlich, dass Eure Seite global ist. Um ein globales Publikum anzusprechen ist eine globale Top-Level-Domain also nicht von Nöten, wenn ihr jedoch individuelle Länder ansprechen wollt ist es mit einer globalen Domain besser, also etwas wie .com oder .eu etc. 

Blockieren von bestimmten Standorten / Cloaking

Zeit: 47:16

Frage: Wenn wir für bestimmte US-Bundesstaaten IP-Adressen aufgrund von Gesetzen des Bundesstaates blockieren müssen, ist es dann in Ordnung den Googlebot von der Einschränkung auszuschließen? Obwohl es technisch gesehen Cloaking ist, wollen wir auffindbar für einige Nutzer für bestimmte US Bundesstaaten sein, während wir Inhalte für Nutzer bestimmter anderer Staaten nicht zeigen wollen. Was ist der beste Weg sich dieser Situation anzunähern? 

Antwort: Ja, das wäre Cloaking. Googlebot crawlt im Allgemeinen von einem Standort aus und wenn Ihr auf eine in den USA ansässige Website schaut, würden wir aus den USA crawlen. Wenn Googlebot zum Beispiele aus Kalifornien crawlt und Ihr wollt Nutzer aus Kalifornien blocken, müsstet Ihr auch den Googlebot blockieren und in dem Zusammenhang würde daraus folgen, dass Eure Seiten nicht indexiert werden. Eine Annährung, damit umzugehen, was ich schon oft bei anderen Seiten gesehen habe, ist es, einen Weg zu finden, Inhalt zu benutzen der in allen Staaten erlaubt ist, so dass Ihr etwas Generisches habt, das indexiert und von allen Nutzern aufgerufen werden kann. Außerdem darf man nicht vergessen, dass wir nicht kontrollieren können, was wir in den einzelnen Staaten bei der Suche anzeigen würden. Wenn zum Beispiel Inhalt in Kalifornien erlaubt ist und wir ihn dort crawlen und indexieren können, können wir ihn nicht beispielsweise in Alabama oder irgendeinem anderen Staat verstecken, weil wir ja nicht wissen, dass der Inhalt dort evtl. nicht erlaubt wäre. Also würde es Sinn machen, die Cache-Seite zu blocken, wenn es wirklich ein Problem ist, dass diese Leute den Inhalt nicht aufrufen sollen. Ihr müsst auch auf die Beschreibung achten, ggfs. einen „No Snippet“-Metatag verwenden, wenn bereits die Beschreibung dazu führen kann, dass der Inhalt gezeigt werden würde. Das Gleiche gilt global. Wenn Ihr Einschränkungen in verschieden Ländern habt, müsst Ihr dem Googlebot zeigen, welchen Inhalt diese Nutzer in den jeweiligen Ländern sehen darf, wenn Googlebot aus einem Standort crawlt. Generell crawlen wir generisch aus den USA. Alles was also für Nutzer in der US gesperrt ist, müsst Ihr auch für Googlebot blockieren oder eben wie bereits erwähnt, einen generellen Inhalt wählen, der überall gesehen werden darf. Diese rechtlichen Themen sind aus unserer Sicht wirklich schwierig. Wir müssen sicherstellen, dass wir denselben Inhalt wie ein Benutzer von diesem Standort aus sehen. Das ist unsere Hauptanforderung und danach ist alles andere eine Frage zwischen Euch und den gesetzlichen Vorgaben, die Ihr dort befolgen müsst.

H1-Überschrift

Zeit: 53:07

Frage: Sollten wir unser Logo in ein H1 Tag einbinden? 

Antwort: Das kann man machen. Ich denke nicht, dass es Googlebot stört. Im Allgemeinen ist H1 die Hauptüberschrift einer Seite, also würde ich versuchen, diese mit etwas Nützlichem zu füllen, so dass wir wirklich verstehen, welches die Überschrift ist. Wenn Ihr aus semantischen Gründen nur ein Bild ohne Zusatztext oder ohne mit dem Bild verknüpften Text markieren möchtet, ist das ok. Ihr könnt auch mehrere H1 Elemente auf Eurer Seite haben. Das könnt Ihr alles selber entscheiden und es stellt für uns kein Problem dar.

Schemata

Zeit: 54:28

Frage: Google kann mit einer einzigen Seite umgehen, die die gleichen Schemainformationen enthält: microdata und json-ld, aber was macht Google, wenn die Informationen unterschiedlich sind? 

Antwort: Das ist ein generelles SEO-Ding. Wenn Ihr uns widersprüchliche Informationen gebt, solltet Ihr nicht überrascht sein, wenn wir nicht wissen, was wir damit machen sollen. Wenn Ihr uns Informationen gebt und wir damit etwas Bestimmtes machen sollen, stellt sicher, dass diese Informationen so offensichtlich wie möglich sind. Richtet es nicht so ein, dass Google erst herausfinden muss, welches dieser Elemente das Richtige ist und welches zu ignorieren ist. Wenn Ihr also unterschiedliche strukturierte Datenelemente und deren Markup auf unterschiedliche Weise verwendet und diese in gewisser Weise miteinander in Konflikt stehen, weil sie nicht einzeln sind, werden wir das vielleicht verstehen, vielleicht aber auch nicht. Ich würde mich nicht darauf verlassen, dass wir etwas interpretieren können, was etwas ungeordnet ist. Macht es so eindeutig wie möglich, dann können wir es auch so klar wie möglich folgen.

Emojis und SERPs

Zeit: 64:04

Frage: Wir versuchen mit SERP zu experimentieren und ich habe bemerkt, dass einer unserer Konkurrenten Emojis in SERP hat, wir haben versucht es hinzuzufügen, aber bei uns erscheint es nicht korrekt. Wir wissen, dass Googlebot die neue Meta-Beschreibung angenommen hat, aber sie wird nicht angezeigt. Was sind die Einheiten, die Googlebot braucht um Emojis anzuzeigen? 

Antwort: Hier gibt es zwei Aspekte. Wir zeigen nicht immer genau das, was in der Beschreibung oder im Titel aufgelistet ist. Die Emojis betreffend kommt es auch oft vor, dass wir einige für die Suchergebnisse raus filtern, insbesondere, wenn wir denken, dass es irreführend sein könnte oder zu spammig wirkt. Je nachdem was Ihr anzeigt und was Ihr sonst in den Suchergebnissen seht, wenn der Emoji für andere Websites angezeigt wird, können wir ihn möglicherweise auch für Eure Website anzeigen. Es ist wahrscheinlich nur eine Frage der Aktualisierung des Titels oder der Beschreibung unsererseits, und dann können wir es den Nutzern auch zeigen.

Constanze Bettendorf und Jochen Moschko

Hinterlasse eine Antwort