Hier findet Ihr das deutsche Transkript des Google Webmaster Hangout vom 24. August 2018:
leere Sitemap-Dateien
Zeit: 5:56
Frage: Wir haben einige Segmentdateien in der Suchkonsole für verschieden Kategorien, die keine URLs in sich haben. Ist das ein Problem?
Antwort: An sich nicht, aber toll ist es auch nicht, denn Ihr reicht Dinge ein, die im Grunde nichts Nützliches beinhalten. Aber ich denke das nächste Mal, wenn ihr den Code durchgeht, der Eure Sitemap-Dateien generiert, kann es nützlich sein, einfach die Sitemap-Dateien zu löschen, die nicht verwendet werden.
Image Links
Zeit: 06:39
Frage: Wir sponsern einen lokalen Hockey Club, sie haben einen Image Link auf ihre Seite gestellt, in dem sie sich bei uns bedanken, aber er bedingt zu folgen. Wir wissen nicht, wie wir das ändern können. Kann das für uns Probleme erzeugen?
Antwort: In solchen Fällen achtet unser Webspam-Team auf das große gesamte Bild. Wenn Ihr viele verschieden Clubs sponsert und es sieht danach aus, dass Eure primäre Absicht ist dadurch Links zu bekommen, kann es passieren, dass das Webspam-Team Maßnahmen ergreift. Anderseits, wenn es einfach ein Link von vielen ist und einer ist von einem lokalen Hockey Club, den Ihr halt kennt und sie wissen vielleicht nicht wie man das auf ihrer Seite ändert, wird sich das Webspam-Team darum nicht so sehr kümmern. Wir achten also darauf, ob jemand das wirklich systematisch macht oder ob es halt natürlich passiert und einfach zum Internet gehört.
Update vom 01.08.18
Zeit: 8:03
Frage: Wir wurden nach dem 1. August anfänglich mit einem Rückgang von 30% in den Rankings getroffen. Am 1. August gab es ein Update für medizinische Seiten. Wir sind aber nicht medizinisch verbunden, sondern nur eine E-Commerce-Seite. Jetzt gibt es eine Verbesserung im Ranking. Könnte das mit dem Update zusammenhängen und die Dinge gehen rauf und runter oder es könnte etwas anderes sein?
Antwort: Das Update vom 1. August war ein generelles Ranking Update, eines das wir regelmäßig machen, es war aber nicht spezifisch an medizinische Seiten gerichtet. Hier haben wir auch keine genaue Anleitung, die Euch mitteilt, was zu ändern ist um ein Ranking zu verbessern, es ist nur ein Teil der normalen Veränderung, die wir im Web insgesamt vornehmen und es ist kein Zeichen dafür, ob Eure Seite besser oder schlechter ist.
Es ist nur so, dass sich diese Dinge im Laufe der Zeit ändern. Also im Hinblick auf die Änderungen danach klingt das nach normalen algorithmischen Änderungen, wie sie immer passieren können.
Inhalte mischen
Zeit: 10:48
Frage: Ich habe eine Technik gesehen, bei der einige Websites dieselben Inhaltsblöcke auf mehreren Seiten teilen, die Blöcke jedoch sehr häufig austauschen, so dass Google jedes Mal eine andere Kombination abruft. All diese Seiten wurden von Google in Top-Positionen gerankt. Was denkt Ihr über diese Technik?
Antwort: Für mich hört sich das eher nach unnötiger vieler Arbeit an. Unsere Algorithmen sind ziemlich gut darin herauszufinden, wo wir Dinge ranken sollten. Nur indem ich Dinge herummische und es künstlich so aussehen lasse, als ob sich diese Seiten geändert hätte, glaube ich nicht, dass man damit etwas Nützliches für seine Website macht.
Canonical-Tags in JavaScript
Zeit: 12:38
Frage: Wenn man jedes hreflang implementiert und dann ein Canonical-Tag mit JavaScript ändert, sehr Ihr das dann als ein Problem oder etwas, das Google erkennen würde?
Antwort: Ich glaube das würde funktionieren. Das Kniffelige ist es, wenn man JavaScript benutzt um einen Canonical- oder Robots-Meta Tag zu ändern, dass es signifikant die Bedeutung des Signals ändern kann, welches Ihr uns bereitstellt. Bei JavaScript crawlen und indexieren wir zuerst die statische HTML-Version und danach rendern wir und verarbeiten die JavaScript-Version. Wenn Ihr also ein Signal in der statischen Version bereitstellt und in der gerenderten Version ein völlig anderes Signal nehmt, kann dies Verwirrung stiften, wenn wir zwischen der statischen Version und der gerenderten Version wechseln und Updates erhalten. Ich würde in dem Falle kein Canonical in der statischen HTML anbieten und dann JavaScript hinzufügen, damit das Signal klar ist. Also das statischen HTML ohne Canonical, ohne hreflang und dann JavaScript verwenden, um beides zu füllen. Das ist besser als mit etwas zu beginnen und dann zu wechseln.
Hotlinking
Zeit: 18:06
Frage: Ich habe verschiedene Informationen zu Image Hotlinking im Netz gelesen. Betrachtet Google Websites, die einen Link zu unseren Bildern enthalten ähnlich wie eine Website, die auf eine Seite als URL verweist? Wenn wir uns mit Bildern von einem CDN bedienen, hat das einen negativen Effekt?
Antwort: Nein, wir behandeln ein eingebettetes Bild nicht wie einen Link zu einer Website. Wo Ihr Eure Bilder hostet liegt bei Euch. Ein CDN dafür zu benutzen ist an sich eine gute Idee, da sie oft für die schnelle Bereitstellung von statischen Inhalten optimiert sind.
strukturierte Daten
Zeit: 20:55
Frage: Warum extrahieren der organische Google-Index und Google News unterschiedlich von unserem Nachrichtenartikel?
Antwort: Ich weiß es nicht, da muss ich mir die Details genau ansehen. Eine Sache, die wir kürzlich in unseren Richtlinien oder in den strukturierten Dateninformationen aktualisiert haben, ist, dass wir die Verwendung von Daten in den strukturierten Daten direkt empfehlen. Dadurch haben wir in den strukturierten Daten ein maschinenlesbares Datum, das wir aufnehmen können und es ist viel einfacher für uns das richtige Datum für einen einzelnen Teil eines Artikels herauszuziehen. Ich glaube es ist das Artikel-Markup, das wir im Entwicklerzentrum haben, wo wir die Daten als empfohlenes Format hinzugefügt haben.
Keywords in Singular oder Plural
Zeit: 25:22
Frage: Was sind die Gründe für völlig verschiedene Positionierung von Keywords in Singular und Plural. Wir haben Fälle bei denen das Plural Wort in den Top 5 rankt und das Singular Wort noch nicht einmal in den Top 100 ist. Die Suchabsicht sollte doch die gleiche sein.
Antwort: Nur weil eine Anfrage in Singular ist und eine in Plural gestellt wird, heißt es nicht, dass wir für diese Art von Suchanfragen dieselben Suchergebnisse anzeigen. Es ist sehr gut möglich, dass wir diese als völlig verschiedene Elemente sehen und vielleicht ist die Absicht aus der Sicht des Nutzers auch komplett anders. Daher würde ich nicht davon ausgehen, dass Google Singular und Plural als komplette Synonyme behandelt.
hreflang-Tag
Zeit: 26:44
Frage: Ich arbeite an einem Projekt mit mehreren internationalen Unterordnern und einem eingerichteten hreflang-Tag. Ein wesentlicher Teil des Inhalts in diesen internationalen Unterordnern wird nur teilweise übersetzt. Es scheint einige gemischte Signale zum Thema hfeflang-Tag-Setup für teilweise übersetzten Inhalt zu geben.
Gibt es eine Empfehlung, wie man mit übersetzten Inhalten mit hreflang-Tags umgehen soll?
Antwort: Im Allgemeinen versuchen wir mit dem hreflang-Tag dem Nutzer die passendste Version in der Sprache und in der Region zu zeigen, in der er sucht. Wenn dieser beste Match dann nun mal nur teilweise übersetzt ist, dann ist es halt so, aber auch dafür kann man hreflang benutzen. Natürlich ist eine komplett übersetzte Version besser, aber wenn die nicht vollständig übersetzte Version besser passt, ist es immer noch besser, als eine überhaupt nicht übersetzte Seite. Man sollte jedoch dabei beachten, wenn man nur teilweise übersetzten Inhalt auf seiner Seite hat, dass wir diese Seite als eine mehrsprachige Seite erkennen und das macht es uns schwerer zu verstehen, was eigentlich die primäre Sprache für diese Seite ist. Gegebenenfalls solltet Ihr Euch fragen, ob Ihr wirklich nur teilweise übersetzten Inhalt auf eurer Website bereitstellen möchtet oder ist es eine bessere Benutzererfahrung, wenn Ihr einfach die primäre Version lasst, die dann auch besser gesehen wird.
direkte Verlinkungen von der Homepage
Zeit: 30:40
Frage: Wenn wir versuchen, von der Startseite aus auf jede Seite unserer Website zu verlinken, wird dadurch der Fokus verwässert?
Antwort: Das verwässert insoweit, dass wir dann nicht so klar die Struktur eurer Website verstehen werden. Bei kleineren Websites von 10 bis 20 Seiten ist es ganz normal, dass man von der Homepage aus auf alle Seiten gelangt. Aber wenn man das mit einer größeren Website macht, verlieren wir die semantische Struktur der Seite, wir verlieren das Verständnis der Kategorien, was sind die höheren Seiten oder was die unteren Seiten und wie die Seiten in die Struktur der ganzen Website passen. Bezogen auf Verlinkungen würde ich eher eine saubere Struktur verwenden, so dass Nutzer und Googlebot diese besser verstehen können.
SEO-Mythen
Zeit: 33:30
Frage: Was sind die größten vorherrschenden SEO-Mythen heutzutage?
Antwort: Ich glaube aus technischer SEO-Sicht hat sich in den letzten Jahren vieles verbessert. Es gibt mehr Verständnis darüber wie alles funktioniert, wie wir indexieren, wie Crawlen oder Rendern funktioniert und wie JavaScript funktioniert. Das hilft vielen Fehlern vorzubeugen und wenn man den technischen Hintergrund einer Suchmaschine versteht, weiß man in der Regel auch was logisch Sinn macht und welche Anwendungen keinen Sinn machen. Daher glaube ich, dass viele dieser Mythen nicht mehr so verbreitet sind, wie sie es noch in der Vergangenheit waren.
Verlinkungen
Zeit: 35:59
Frage: Wenn ich Seiten in einer Sitemap habe und diese nicht von der Homepage verlinkt sind, ist das ein Problem?
Antwort: Wenn sie nicht von der Homepage verlinkt sind, ist es kein Problem, aber wenn sie überhaupt nicht von der Website verlinkt sind, kann es sein, dass wir nicht wissen, was wir mit den Seiten machen sollen. Ich würde wirklich empfehlen eine Sitemap zu verwenden, um zusätzliche Informationen über eure Website bereitzustellen, aber nicht als eine Möglichkeit, die gesamte interne Verknüpfung auf einer Website zu ersetzen, sodass wir wirklich in der Lage sein sollten die gesamte Website normal zu crawlen und all Euren Inhalt zu finden. Wenn wir in der Sitemap-Datei zusätzliche Informationen wie Änderungsdaten finden, hilft uns das zusätzlich, aber das eine sollte das andere nicht ersetzen.
doppelter Inhalt
Zeit: 37:31
Frage: Was betrachtet Google als doppelten Content? Gibt es Strafen für doppelte Inhalte?
Antwort: Diese Frage taucht immer wieder auf und ich würde jetzt mal behaupten, dass diese Frage in den Bereich der SEO-Mythen gehört. Wir betrachten Inhalte auf verschiedene Arten. Der normalste Weg zu sehen, ob es sich um doppelten Inhalt handelt, ist, wenn wir genau den gleichen Inhalt auf zwei verschiedenen Seiten sehen. Das passiert jedoch sehr häufig und das ist eher ein technisches Anliegen für uns. Gleichen Inhalt auf mehreren URLs zu erkennen ist trivial für uns und wir müssen nur herausfinden unter welche URL wir den Inhalt aufbewahren. Das wird also nicht bestraft oder macht uns irgendeine Art von Problemen. Die Gegenseite ist nur, dass wenn wir mehrerer URLs mit gleichen Inhalten haben und all diese auch indexieren und wir nichts Einzigartiges finden können, haben wir im Wesentlichen Zeit verloren, um vielleicht am Ende doch noch etwas Neues aus Eurem Inhalt zu entdecken welches es Wert ist, indexiert zu werden. Es geht Zeit verloren, die man hätte nutzen können um etwas Neues bereitzustellen.
Ein anderes typisches Beispiel für doppelte Inhalte ist innerhalb von Seiten, wie zum Beispiel eine Fußzeile mit Adressen oder ähnlichen. Aus unserer Sicht ist das ein Block mit Text, der sich auf jeder Seite Eurer Website zu finden ist. Das ist jedoch an sich kein Problem, denn wenn jemand auf eurer Seite Inhalt sucht, wissen wir, dass sich dieser Inhalt in einem anderen Teil der Seite befindet, wenn aber jemand etwas aus diesem Block sucht, welcher sich auf mehreren Seiten Eurer Website befindet, geht es darum, die richtige URL zu wählen und diese in den Suchergebnissen zu zeigen. Das betrifft nicht nur Fußzeilen mit Service Informationen, so machen wir es z. B. auch bei Produktbeschreibungen auf E-Commerce-Seiten. Hier zeigen wir bei Suchanfragen aus der Beschreibung nicht alle Seiten, wo das Produkt mit der Beschreibung drauf ist, sondern versuchen herauszufinden, welche davon die richtige URL ist. Auch diese Art von doppeltem Inhalt stellt für uns kein Problem dar.
Das Problem beginnt, wenn wir sehen, dass Seiten den Inhalt andere Seiten regelmäßig nutzen. So zum Beispiel, wenn eine Website immer Inhalt von verschiedenen News-Websites nimmt, die den RSS-Feed kombinieren, und sie das auf Ihrer Seite erneut veröffentlichen und wir nichts Einzigartiges auf der Website selbst sehen. Dann kann es passieren, dass unser Algorithmus beschließt, dass es keinen Sinn macht noch mehr Zeit darauf zu verschwenden diese Seiten zu crawlen und zu indexieren, wenn man sowieso nur den gleichen Inhalt wiederfindet, der schon auf anderen Seiten veröffentlicht wurde. Das kann auch das Webspam-Team sehen und es kann manuell solche Seiten entfernen.
Spam Profile
Zeit: 50:35
Frage: In einigen Anfragen finde ich Seiten, die automatisch generiertes Keyword-Stuffing betreiben – mit vielen schlechten Backlinks Profilen. Und sie machen wirklich einen schlechten Job, wahrscheinlich sind sie nur so gut gerankt, weil viele andere Websites dafür bestraft werden. Ich sehe das als einen nicht lohenden Algorithmus speziell für weniger Suchvolumen der Keywords.
Außerdem: Ist es möglich, dass Google versucht den Algorithmus neu zu berechnen, da die größeren Websites langsamer als die kleineren Websites eingestuft werden. Ich sehe nämlich viele kleine Websites von 10-20 Seiten, die weit oben ranken und sie haben starke Spam-Profile. Das spricht genau gegen das was Google immer predigt, nämlich guter Inhalt etc.
Ist es möglich, dass Google nur ein wenig mehr Zeit benötigt, um diese Positionen neu zu berechnen, so dass diese dünnen Seiten nicht mehr oben stehen?
Antwort: Das kann eine Option sein, aber wir brauchen auch mehr Beispiele, welche wir an unser Team weiterleiten können. Manchmal kann sowas auch gerade in Regionen passieren, wo wir nicht viel direktes Feedback herbekommen. Das ist auf jeden Fall etwas, was wir beheben müssen. Wir brauchen nur viel Feedbacks und Beispiele.
Spam Links
Zeit: 56:59
Frage: Ich war vor fünf Jahren auf einer sehr großen Seite, sie klonten die gesamte Seite und bauten dann tausende von Spam-Links zu ihrer Seite, und plötzlich wurde unsere Site (in den SERPs, Anm. d. Red.) einfach durch ihre ersetzt. Könnt Ihr erklären, was das war und ob Ihr etwas getan habt, um dieses spezielle Problem anzugehen?
Antwort: Ich weiß nicht, was genau in dem Fall passiert ist, aber das ist definitiv etwas woran wir arbeiten. Das Thema führt zurück auf die Frage zu Canonicals, wenn man mehrere URLs mit demselben Inhalt hat und welche davon wir dann in den Suchergebnissen zeigen. Daran arbeitet unser Team aktiv und konstant über die ganze Zeit.
Das ist etwas, bei dem wir mehrere Faktoren berücksichtigen, um zu verhindern, dass irgendeine Art von Missbrauch in solchen Fällen auftritt. Wenn wir auf solche Probleme aufmerksam gemacht werden, bei denen eine andere Website im Wesentlichen die Such-Rankings für bestehende Websites übernimmt, nimmt das unser Team sehr ernst.
404 und 410
Zeit: 59:50
Frage: Ich habe kürzlich entdeckt, dass 404 Fehler auf meiner E-Commerce-Website von Benutzern erzeugt werden, die ihre Produkte löschen. Ich überlege mit einer 410 Seite zu antworten, um das Crawlen dieser Seiten zu stoppen. Ist das eine gute Idee?
Antwort: Du kannst das so machen, es ist aber nicht unbedingt nötig. Langfristig sehen wir eine 404 und eine 410 als das Gleiche an. Wir lassen diese Seiten nach einiger Zeit aus unserem Index fallen und crawlen sie auch weniger regelmäßig. Alles in eine 410 umzuwandeln, klaut Euch nur unnötig Zeit.
Text ändern
Zeit: 63:05
Frage: Hat es irgendwelche Nachteile den Text älterer interner Links zu ändern, damit Benutzer ihn besser verstehen? Kann es das Ranking verschlechtern?
Antwort: Nein, das hört sich prima an. Wenn Ihr die Anchor-Texte intern verändert, um es für Nutzer verständlicher zu machen, hilft das auch der Suchmaschine den Kontext besser zu verstehen.
Was ich jedoch vermeiden würde, ist den Anchor-Text in ein Bild zu ändern. Wenn Ihr also eine ausgefallene Schriftart oder etwas habt, das ihr auf Euren Seiten verwenden möchtet und Ihr einen Link als Textlink zu einem Bildlink ändert und Ihr keine textuelle Verbindung mit diesem Bild für diesen Link herstellt, dann ist es wirklich schwer für uns zu verstehen, was der Anchor-Text sein soll. Aber wenn man nur den Text oder die Schrift verändert, ist das kein Problem.
Canonical vs. 301
Zeit: 64:13
Frage: Würdet Ihr ein Canonical-Tag oder 301 empfehlen, um Inhalt mit geringerer Qualität zu neuen Artikeln zu übertragen?
Antwort: Wenn ihr einen neuen Artikel kreiert und einen alten mit dem neuen ersetzen wollt, ist das an sich ein Fall für 301, weil Ihr etwas ersetzt. Ihr könntet auch einfach die gleich URL benutzen und einfach den Inhalt aktualisieren. Man muss nicht unbedingt umziehen, wenn man eigentlich nur verbessern möchte. Es ist sogar besser die gleich URL zu behalten, dann können wir auf den bereits existierenden Signalen aufbauen, anstatt darüber nachzudenken, wie wir die Signale auf die neue URLs übertragen.
Redirects
Zeit: 65:47
Frage: Wir hatten ein kurzfristiges Problem mit einer Domain-Umleitung nach dem Rebranding und dem Ändern des Domainnamens. Zu Beginn wurde die alte Domain auf die Homepage umgeleitet, ohne den Weiterleitungspfad beizubehalten. Als wir das bemerkten, bauten wir die Weiterleitung auf, um den Pfad zu behalten und die ersten drei Wochen wurde alles auf die Homepage umgeleitet. Wie lange könnte Google brauchen diese internen Links neu zu berechnen?
Antwort: Alles nur zur Homepage weiterzuleiten ist keine gute Sache, denn dann verlieren wir alle Signale, die mit dem alten Inhalt verbunden waren. Ich empfehle dringend, wenn Ihr einen Website-Umzug macht, wirklich zu überprüfen, dass Ihr auf einer Eins-zu-Eins-URL- Basis umleitet und besonders wenn ihr den Domainnamen ändert, sollte sichergestellt sein, dass alle alten Inhalte zu den gleichen neuen Inhalten auf der neuen Domain weiterleiten.
Es muss den Algorithmen klar sein, dass ihr keine neue Domain anbietet, sondern nur von einer URL zur anderen URL umzieht. Wenn wir das erkennen, ist es leichter für uns, die Signale in die neue Domain Struktur zu übertragen. Bezogen auf die Frage wie lange es jetzt dauert bis wir alles verarbeitet haben, ist es wie immer schwer einen genauen Zeitrahmen zu nennen. Ihr habt wie erwähnt vor ca. 3 Wochen das Problem behoben, also gehe ich davon aus, dass es bestimmt nochmal drei Wochen bis vielleicht sogar noch einige Monate dauern kann, bis alles wieder mehr oder weniger beim Alten ist. Der endgültige Zustand nach ein paar Monaten könnte jedoch anders sein als der Anfangszustand, mit dem ihr angefangen habt, einfach wegen den normalen organischen Veränderungen in der Suche.
Lazy Loading
Zeit: 71:50
Frage: In den meisten kürzlich upgedateten Version von Chrome, der „Canary“-Version, unterstützt Ihr Lazy Loading von Webseiten. Wenn ich die gerenderte Version in der Suchkonsole sehe, sehe ich nicht meine Bilder bzw. sehe ich nur das erste Bild. Ich bevorzuge Lazy Loading, aber ich bin mir nicht sicher, ob der Googlebot die ganze Seite korrekt rendert. Empfehlt Ihr Lazy Loading nur für die Bilder oder für alles, was nicht auf dem ersten primären Inhalt ist?
Antwort: Gute Frage. Primär möchte Chrome, dass Seiten für Nutzer im Browser schneller laden und das ist unabhängig von dem, was ihr auf eurer Website anstellt. Ich würde mir also keine Gedanken darüber machen, was Chrome macht. Wahrscheinlich viele schicke Dinge, um Seiten weitaus schneller laden zu können, aber das reflektiert sich nicht in der Google-Suche. Bezogen auf Lazy Loading bei Bildern: Generell ist es wichtig sicher zu stellen, dass Google möglich gemacht wird, dass das Bildquellen-Tag auf den Seiten direkt zu finden ist. Also je nachdem, wie Ihr das Lazy Loading durchführt, können wir es vielleicht auch richtig aufnehmen. Es kann aber auch sein, dass wir es nicht richtig aufnehmen können. Dies gilt insbesondere, wenn ihr JavaScript verwendet, um diesen Seiten das Bildquellen-Tag hinzuzufügen und JavaScript nicht ausgelöst wird, weil sie nicht verarbeitet werden kann oder sie bekommt keinen Trigger, um das Bild für diese Seite zu ändern. Dann sehen wir möglicherweise das Bild-Tag nicht, wenn wir die Seite rendern und dementsprechend würden wir das Bild-Tag für die Bildersuche nicht sehen. Eine Problemumgehung, die man hier anwenden könnte, wäre das NoScript-Tag zu benutzen, um das Image Tag mit ein zu schließen oder auch Structured Data. So dass wenn wir beim Rendern keine Bilder sehen, wir aber wissen, dass sie mit der Seite verbunden sind und wir sie für die Google-Bildersuche nutzen können. Wir untersuchen auch Möglichkeiten, um dies ein wenig besser zu dokumentieren, damit Ihr wisst, welche Art von Lazy Loading für den Googlebot funktioniert und welche nicht.
Ich denke, Lazy Loading ist eine großartige Möglichkeit, um Seiten zu beschleunigen. Also würde ich mich nicht davon abschrecken lassen, dass es ein bisschen schwieriger ist, es lohnt sich trotzdem.
AMP
Zeit: 76:08
Frage: Ich sehe, dass Ihr AMP auf eine gute Art pusht. Dementsprechend habt Ihr auch das Speed-Update und Ihr berücksichtigt das für die Rankings. Ich habe ein Wordpress-Thema, das mit Schnelligkeit erstellt wurde, das 98 Punkte für beide macht, mobil und Desktop, ohne die Verwendung irgendeiner Art von zusätzlichem Caching und die AMP-Version, die mit dem offiziellen AMP-Plug-In hergestellt wird, macht nur 65-75 Punkte, ist also grundsätzlich geringer. Was ratet Ihr uns, denn die AMP Version performt schlechter als meine eigene Lösung.
Antwort: Erst einmal Glückwunsch zu einer so schnellen Seite. Ich weiß es ist echt schwer solch eine Punktzahl zu erlangen. Hier müsst Ihr schauen, ob es für Euch wirklich Sinn macht eine AMP-Version zu haben. Bekommt Ihr ggfs. zusätzliche Vorteile wie zum Beispiel, dass Google den Nutzern eine Pre-Cashed Version bereitstellen kann, um eine Art PageSpeed Insights-Score durch Pre-Cashing oder Pre-Rendering zu bilden, welches mit AMP-Seiten möglich ist. Oder Ihr solltet auch nicht außer Acht lassen, dass wir durch AMP vielleicht Dinge anders zeigen können, in anderen Such-Elementen zum Beispiel. Basierend darauf kann es eventuell trotzdem Sinn machen sich auf AMP zu fokussieren. Oder man sagt halt, dass der existierende Inhalt auch so super in der Suche funktioniert und man belässt es dabei. Ich würde definitiv, wie bei jeder existierenden Technologie, auch wenn es von Google beworben wird, es kritisch betrachten und darüber nachdenken, ob es wirklich für einen selber Sinn macht oder ist das nur etwas, das verfügbar ist und ich nutzen könnte aber ich habe keinen Vorteil daraus.
[su_youtube url="https://www.youtube.com/watch?v=7m-cd8XXovQ"]
Constanze Bettendorf und Jochen Moschko