Duplicate Content

von Michael Schöttler

Kategorie(n): FAQ der Webmaster Hangouts Datum: 18. November 2016
 

Kernaussagen:

  1. Duplicate Content sind Inhalte, die entweder innerhalb einer Website oder auch auf mehreren Seiten verteilt öfters identisch vorkommen.
  2. Es gibt in solchen Fällen jedoch keinen Penalty und auch keine Abstrafung. Google sucht sich einfach eine Variante aus und zeigt diese dann in den SERPs.
  3. Es hat keinen Zweck, identische Inhalte einfach mit Synonymen umzuschreiben oder gewisse Zahlen zu ändern. Inhalte müssen wirklich einzigartig sein.

24.08.2017, 37:56

Frage: Wir sind derzeit dabei individuellen Content auf Produktebene unseres Shops einzupflegen (Produktbeschreibungen). Bisher wurden hauptsächlich die Beschreibungen der Hersteller übernommen. Nun können wir leider nicht mehrere tausend Produkte auf einmal mit neuem Content ausstatten. Macht es Sinn dort erstmal die Beschreibungen der Hersteller stehen zu lassen (Duplicate Content?) oder die Beschreibungen zu entfernen, bis wir für diese auch entsprechend neue Texte haben? Antwort: Lasst da die Herstellerbeschreibungen erst einmal stehen. Wir indexieren das normal. Macht dann erstmal eigene Beschreibungen für die wichtigsten Produkte und arbeitet euch dann voran.

24.08.2017, 28:54

Frage: Würdest du empfehlen, eine große Menge Seiten mit Duplicate Content komplett zu entfernen, z. B. um Crawl Budget zu sparen oder weil es ein schlechtes Signal für den Googlebot ist? Oder ist es ausreichend, ein noindex follow tag zu setzen. Antwort: Das kannst du an sich machen wie du willst. Wir haben in den seltensten Fällen Probleme mit dem Crawl Budget und eine gewisse Menge an Duplicate Content ist auch normal. Probleme gäbe es nur, wenn die Seite der groß oder der Server sehr langsam ist. Wir müssten die Seiten auch crawlen, um Noindex und Follow zu sehen, das würde also beim Crawlbudget gar nicht so viel ändern.

02.08.2017, 10:51

Frage: Wird eine Seite als qualitätsarm eingestuft, wenn sie gleiche Inhalte wie andere Seiten hat (das passiert oft bei Immobilienseiten oder Jobportalen)? Antwort: DC ist erstmal ok. Aber oft sind Seiten, die Dinge von anderen Seiten nutzen, von niederer Qualität – einfach weil sie nichts eigenes anzubieten haben. Seiten müssen für sich selbst stehen, unabhängig von den Inhalten, die sie mit anderen Seiten teilen.

07.07.2017, 26:32

Frage: Ist eine Produktseite DC, da viele andere Seiten die Inhalte ja auch haben? Antwort: Das kann passieren. Dann klappen wir das zusammen. Ziel sollte immer sein, etwas einzigartiges zu bieten. Bei Produkten solltet ihr immer nach den Hauptmerkmalen schauen und dann gucken, was man vielleicht zusammenfassen kann.

29.06.2017, 43:42

Frage: In einem Portal zur Unternehmensnachfolge bieten Firmen Unternehmen zum kauf an. Dabei wird für jedes Unternehmen eine eigene Kampagnenseite erstellt, die Angaben für die verkaufende Gesellschaft wiederholen sich dann. ist das ein Problem? Antwort: Wir crawlen und indexieren das normal. Wer aber in der Suche gezielt nach den doppelten Informationen sucht, werden wir die Seiten vielleicht etwas zusammenklappen. Wir sollten aber alle indexiert haben. Das ist dann aber kein Qualitätsproblem und sorgt auch nicht für ein schlechteres Ranking.

27.06.2017, 38:47

Frage: Wir verkaufen ein Produkt in Deutschland und ein Partner verkauft es in der Schweiz. Sie haben ihre eigene Website, haben aber unsere Texte kopiert. Wie sollen wir hier vorgehen? Antwort: An sich ist das kein DC Problem, sondern eher im Hinblick auf Internationalisierung. Hier wäre vielleicht das Hreflang angebracht, um die passenden Seiten in den jeweiligen Ländern anzeigen zu lassen.

27.06.2017, 32:52

Frage: Unsere Blogbeiträge werden immer ins Archiv verschoben und dort nach Monaten sortiert. Sollten die Links der Monate noindex/nofollow sein, da sie Duplicate Content zeigen? Antwort: Manchmal gehören die in den Index, manchmal nicht. Das hängt von eurer Situation ab.

16.06.2017, 06:19

Frage: Es gibt immer mehr Seiten, wo Unterseiten die sich relativ ähnlich sind und nur kleine Unterschiede aufweisen. Wenn zum Beispiel Produkte besprochen werden, die sich nur in wenigen Dingen unterscheiden. Antwort: Da gibt es keinen Penalty oder so, aber es wird für die Seiten schwer, für sich selbst zu stehen. Und dann können wir sie schwer ranken. Das beste Beispiel für sowas wäre ein Shop mit Schuhen, wo jede Größe eine eigene Unterseite bekommt. Da sollte man Dinge zusammenfassen, um stärkere Seiten zu bekommen. Es gibt aber auch Seiten, bei denen eine sehr granulare Aufteilung Sinn macht. Ich würde auch kein Noindex empfehlen, denn dann konkurrieren die Seiten weiterhin, werden aber nur nicht in den SERPs gezeigt. Da wäre das Canonical besser, dann können die Signale der verschiedenen Varianten gebündelt werden.

12.06.2017, 10:28

Frage: Wir sind ein offener Marktplatz und unser Katalog wird von den Verkäufern gemanaged. Wir haben wenige Produktdetails auf den Seiten und viele Verkäufer laden identische Produkte mit unterschiedlichen Preisen hoch. Was können wir tun, um Duplicate Content und Qualitätsprobleme auf den Produktseiten zu verhindern? Antwort: Ich denke, das ist für SEO kein wirkliches Problem. Aber was ihr online stellt, definiert eure Seite. Hinterfragt also eure Policies, um Leute dazu zu bringen, dass sie die Qualität hoch halten. Vielleicht könnt ihr auch das Canonical oder das Noindex nutzen. Z.B. könnt ihr neue Nutzer deindexieren und sie erst in den Index lassen, wenn ihr ihnen mit der Zeit vertraut. Es gibt aber keinen Penalty für Duplicate Content.

01.06.2017, 41:32

Frage: Im Gutscheine Markt betreiben die meisten Anbieter viele Whitelabels (Beispiel: sparwelt.de >> gutscheine.focus.de), wo die gleiche Deals angeboten werden. Wie hoch ist die Gefahr von Duplicate Content? Reicht es, wenn alle Titel und Beschreibungen von den Gutscheinen uniqe geschrieben werden? Antwort: Das ist bestimmt schwierig, da sich die Dinge sicher auch schnell verändern. Wenn ihr das so ausbreitet, verdünnt ihr ja die Werte der Inhalte, es kann also nicht eine starke Seite alle Signale sammeln. Das kann natürlich dazu führen, dass es mehrere, nicht so starke Seiten geben wird. Ich empfehle immer, sich auf eine Version zu konzentrieren und vielleicht das Canonical zu nutzen.

06.04.2017, 03:30

Frage: Wenn Google das mittlerweile alles so gut erkennen kann, was ist denn dann überhaupt noch problematischer Duplicate Content? Antwort: Eher Inhalte, die einfach von anderen Seiten zusammengeklaut werden. Also alles, was gescraped oder gespinnt ist und damit Spam darstellt. Aber Dinge, die es aus Usabilitygründen mehrfach gibt, sind ok.

06.04.2017, 01:47

Frage: Wir laden auf einem Reisebuchungsportal auf transaktionalen Seiten informational Content (konkret Reiseführer), der dem Enduser einen enormen Mehrwert bietet und ihm in seiner “Kaufentscheidung” hilft und zeigen diesen aus Usability-Gründen in einer Lightbox auf Wunsch des Users an – der Content befindet sich hier direkt im Quelltext (z.B. auf der Mallorca-Seite ein Mallorca Reiseführer). Jetzt gibt es sehr viele Unterseiten z.B. auf Ortebene, auf denen der Mallorca-Reiseführer im Prinzip denselben Mehrwert liefert (mich interessiert als Enduser ja die ganze Insel, also z.B. auf der Alcudia-Seite wäre ein Mallorca-Reiseführer ebenfalls sinnvoll), weshalb wir dort versucht haben, den Content in der Lightbox per Ajax nachzuladen um DC zu vermeiden. Wir haben auch mit den Zeiten gespielt, z.B. nachladen frühestens nach 10 Sekunden, weil zumindest laut Search Console unter “An Google Index senden” ab einer gewissen Zeit JS nicht mehr ausgeführt zu werden scheint, aber Google führt das JS trotzdem aus und indexiert den Mallorca-Reiseführer folglich auch auf allen Unterseiten. Wenn das nun als DC gewertet wird, wäre es äußerst ungünstig. Andere “Tricksereien” wären natürlich denkbar, aber wir möchten hier keinen manipulativen Eindruck vermitteln – ganz im Gegenteil. Gibt es saubere Möglichkeiten, Content nachzuladen, der eigentlich “zu einer anderen eigenen Seite” gehört, z.B. über iframe, allerdings besteht das “Original” nicht nur rein aus dem nachzuladenden Content? Zur eigentlichen Seite zu verlinken macht in diesem Fallbeispiel wenig Sinn, denn wenn sich ein User schon “konkretisiert” hat, wollen wir ihn nicht wieder weiter von seiner Entscheidung weg treibe. Antwort: Aus meiner Sicht sollte es da keine Probleme geben, wenn die Inhalte auf mehreren Produktseiten zu sehen sind. Wir versuchen dann einfach, uns daraus eine Hauptseite auszusuchen und diese in den SERPs zu zeugen. Wenn mehrere indexiert werden, dann ist das auch kein Problem und schadet eurer Qualität auch nicht.

09.03.2017, 00:41

Frage: Wir haben vor ein paar Tagen ein Portal gestartet, wo Vertriebspartner per Affiliate eine Provision erhalten. Jetzt haben wir aber gesehen, dass einige dieser Partner unsere Seite per Iframe komplett eingebunden haben. Ist das negativ für uns, wegen Duplicate Content? Antwort: Sollte eigentlich machbar sein. Die Frage ist dann, inwieweit wir die andere Seite als eigenständig ansehen. Ich denke auch nicht, das ein Canonical da einen Unterschied machen sollte. Es kann aber passieren, dass die Affiliates vielleicht über euch ranken werden. Das ist bei solchen Iframe Seiten ohne eigene Inhalte nicht so realistisch, kann aber theoretisch passieren. Aber ihr wollt ja die Produkte verkaufen, daher kann euch das ja eigentlich egal sein.

07.03.2017, 03:31

Frage: Wir haben eine Firma für unsere Offline PR. Die arbeiten mit einer journalistische Bilderdatenbank und laden da all unsere Bilder hoch, damit Journalisten sich diese runterziehen können. Wir haben jetzt aber gesehen, dass sie nicht nur unsere Bilder hochladen, sondern auch unsere Produktbeschreibungen. Die Inhalte von dieser respektierten Datenbank sind also zum Teil ähnlich wie unsere. Kann sowas zu Panda Problemen führen, denn davon hatten wir einige und die Erholung fällt schwer? Antwort: Das sollte zu keinen Problemen führen. Das schlimmste, was passieren könnte, ist, dass diese Inhalte über oder statt euren ranken. Sie sollten aber nicht zu Panda Problemen führen oder eine Erholung von Panda verhindern.

10.02.2017, 42:40

Frage: Wie liest Google Inhalte in Bootstrap Modals? Verwässern diese die Inhalte? Zählen sie als Duplicate Content? Das sind bei uns zusätzliche Definitionen zum Seiteninhalt. Antwort: Für uns ist das total ok. Das müsst ihr nicht verstecken oder ähnliches. Solange die Seiten für sich selbst stehen können, ist es auch ok, wenn sie teilweise an anderen Stellen wiederholt werden. Wir indexieren sie dann für sich selbst. Sucht jemand also nach den Hauptinhalten, dann zeigen wir das. Sucht jemand nach den duplizierten Inhalten, dann suchen wir uns eine Version aus und zeigen sie in den SERPs.

26.01.2017, 51:08

Frage: Ein Kunde repariert Handys. Wir sollen jetzt für jeden Schaden, jedes Modell eine eigene Seite erstellen. Antwort: Duplicate Content sollte kein Problem sein. Aber wenn die Seiten keinen eigenen Wert haben, dann könnte das Webspam Team das als Doorway Pages sehen. Macht lieber eine starke Seite, zum Beispiel pro Hersteller.

13.01.2017, 59:25

Frage: Mich interessiert Near Duplicate Content. Was ist da eure interne Definition, jetzt, wo es immer mehr dynamische Seiten gibt, die sich Dinge aus anderen Quellen ziehen (wie Wahlergebnisse oder Umfragen). Kann man also sagen, dass sich eure Definition da geändert hat? Antwort: So ziemlich alles in der Suche ändert sich, denn wir müssen uns dem anpassen, was im Internet passiert. Die Ingenieure ändern bei dem Thema immer wieder große Teile ihrer Vorgehendweisen.

10.01.2017, 41:37

Frage: Sieht Google DC als ein wichtiges negatives Signal bei Amazon Affiliate Seiten mit Millionen von Produktseiten? Unsere Preisvergleiche werden z.B. gar nicht mehr indexiert. Durch Penguin 4.0 haben wir zudem 50% des Traffic verloren. Was wäre das Maximum an DC, das Google tolerieren würde? Antwort: Wir haben da kein Maximum an DC, denn das würde keinen Sinn machen. Wir wollen sicherstellen, dass jede Seite eigene Inhalte hat und nicht nur Feeds aggregiert. Aber wenn wir sehen, dass die Inhalte alle auch schon woanders stehen, dann sagt unser Team oder die Algorithmen vielleicht, dass sich das Crawlen und Indexieren hier nicht lohnt. Es gibt da aber nicht eine Zahl, die eine Grenze darstellt. Wenn ihr wisst, dass eure Seite in die Kategorie von wenigen eigenen Inhalten fällt, dann müsst ihr daran arbeiten – am besten schon, bevor es in der Suche Probleme gibt. Die Seite muss so gut sein, dass eure Nutzer euch gerne weiterempfehlen.

27.12.2016, 06:15

Frage: Schaut ihr euch im Hinblick auf einzigartige Inhalte die Masse an einzigartigen Texten an oder habt ihr da noch andere Signale? Antwort: Das ist schwer zu sagen, die Frage ist nicht so eindeutig. Wenn ich das manuell mache, schaue ich mir die Texte an. Die Algorithmen schauen sich aber mehrere Dinge an.

09.12.2016,

46:46 Frage: Ich habe drei Seiten auf denen ich Kurse verkaufe, die Inhalte sind fast identisch. Ist das Duplicate Content? Antwort: Wenn sie Duplikate sind, sollten wir sie auch so behandeln. Dann werden wir sie zusammenklappen und eine ranken. Dadurch wird die eine Seite auch stärker, da wir die Signale zusammenfassen. Ihr würdet aber keinen Penalty oder so erhalten. Wenn sie als unterschiedliche Seiten gesehen werden sollen, müssen sich die Inhalte deutlich unterscheiden – nicht mit Synonymen und so, sondern richtig. Auch im Hinblick auf die Zielgruppen.

06.12.2016, 07:46

Frage: Es gibt immer wieder den Mythos, dass Duplicate Content eine Website in den Abgrund reißen wird. Was ist da genau dran? Antwort: In den meisten Fällen können wir mit DC sehr gut umgehen. Vor allem dann, wenn es um doppelte Varianten wie http/Https oder www./non-www. geht. Unsere Systeme kennen das seit vielen Jahren. Bei großen Seiten macht viel DC es für uns schwerer, die Seite zu crawlen. Wir werden da aber eure Seite nicht aus dem Index nehmen oder sowas.

11.11.2016, 27:05

Frage: Wenn man eine Seite A, B und C hat, welche alle 1:1 den gleichen Inhalt haben, dies aber technisch wegen einem Filter erforderlich ist, wie ist es am besten DC zu vermeiden? Variante A auf index, follow zu lassen und B und C ebenfalls auf Index aber mit Canonical auf Seite A. Oder Seite A auf index, follow und Seite B und C einfach auf noindex, follow? Antwort: Man kann beides machen, sowohl Canonical als auch Noindex. Aber beim Noindex verlieren wir die Links, die auf die entsprechende Seite zeigen. Beim Canonical klappen wir alles auf der einen besten Seite zusammen.

04.11.2016, 36:30

Frage: Wenn mal also eine WordPress Seite hat. Da gibt es dann viel DC, mit Artikeln, Kategorien und Autorenseiten etc. Antwort: Da würde ich sicherstellen, dass der Artikel selbst die beste Version ist. Vielleicht durch tolle Kommentare, oder indem auf den anderen Seiten nur Teaser stehen. Ansonsten kann Noindex auch auf einigen der Sammelseiten Sinn machen.

04.11.2016, 34:26

Frage: Mein Kunde verkauft Dinge in seinem Shop per Demandware. Dadurch gibt es Duplicate Content (gleiche Inhalte mit unterschiedlichen URLs). Was kann man tun, außer das Crawlen per robots.txt zu blockieren? Antwort: Ich weiß nicht, was Demandware ist, ist das ein Affiliate oder ein Shop Setup? Unsere Empfehlung bei DC ist, dass ihr das mit Canonicals oder ähnlichem löst. Dann können wir die Seiten zusammenpacken. Das Crawling würde ich nur dann blockieren, wenn das Crawling Probleme auf dem Server verursacht. Denn dann können wir die Inhalte nicht sehen und können nicht mit ihnen umgehen.

21.10.2016, 41:21

Frage: Was ist der beste Weg, wenn wir CDN Cloudfront nutzen und diese Seiten auch im Index sind. Werden wir einen Duplicate Content Penalty erhalten? Antwort: Wir haben keinen Penalty für Duplicate Content, das ist ein technisches Problem. DC ist nur ein Problem, wenn ausschließlich Inhalte von anderen Seiten aggregiert. Da macht das Indexieren wenig Sinn, da wir die Inhalte schon haben. Wir würden eure Seiten denke ich zusammenklappen und dann eine zeigen.

21.10.2016, 30:35

Frage: Unsere Kunden stellen immer wieder die selben Fragen. Wir haben schon eine FAQ, die wird aber scheinbar nicht gelesen. Können wir diese Inhalte noch einmal auf den Produktseiten wiederholen? Antwort: So etwas kann man duplizieren. Das klappen wir in der Suche dann einfach zusammen, ihr bekommt aber keine Probleme.

21.10.2016, 06:35

Frage: Wenn ich eine Suche nach einem halben Satz mache, wie groß ist das Problem, wenn die Originalquelle hier nicht direkt auftaucht? Antwort: Das ist normalerweise kein großes Problem. Wir haben beide Seiten im Index und für das Snippet wollen wir einfach Duplicates vermeiden. Diese künstlichen Suchen, auch die Seitenabfragen, zeigen nicht immer das, was bei normalen Suchanfragen im Ranking passiert.

21.10.2016, 00:40

Frage: Was kann man tun, wenn man gute Inhalte hat und diese von Seiten mit großer Popularität ohne Quellenangabe übernommen werden? Gibt es einen Weg, um zu zeigen, dass die Inhalte mir gehören? Antwort: Nein, da gibt es keinen automatisierten Weg, um Inhalte euch zuzuschreiben, denn andere könnten das ja auch machen. Das ist oft eine schwierige Situation, auch wenn wir Algorithmen haben, die versuchen, die Originalquelle herausarbeiten und der einen Boost verpassen.

07.10.2016, 33:56

Frage: Wenn Inhalte an vielen unterschiedlichen Stellen im Blog stehen (Archiv, Monat etc.), haben wir viel Duplicate Content. Ich nutze da Noindex für alles, was nicht die Hauptseite oder die Artikelseiten sind, ist das ok? Die Artikel sind hochwertig und akademisch. Manchmal gibt es aber schlechtere Kommentare, nimmt Google das zu meinem Inhalt hinzu? Antwort: Klar, stellt aber sicher, dass alle Artikel etwas einzigartiges haben. Das zum Beispiel bei den Artikeln immer die Kommentare dazu kommen. Wir schauen uns die Seiten zusammen an, Kommentare zählen also zum Content dazu. Sind die Kommentare also schlecht oder durchschnittlich, dann sind unsere Algorithmen vielleicht etwas verwirrt. Ihr solltet euch also überlegen, ob die Kommentare zu sehen sein sollen. Ihr könnt zum Beispiel auch nur ein paar Kommentare zeigen und die anderen in ein Forum oder in einen nachladenden Teil verschieben. Zum Beispiel mit LazyLoad, dann sieht Googlebot das nicht.

22.09.2016, 35:36

Frage: Wir haben eine Website in Österreich und in Deutschland und haben für beide Seiten die selben Texte verwendet (Duplicate Content)? Ist das ein Problem bzw. hat es negativen Einfluss für die AT Seite? Antwort: Es kann passieren, dass unsere Algorithmen die Seiten zu einer Seite zusammenklappen. Zumindest im Boiler Plate sollte klar gemacht werden, dass es unterschiedliche Seiten sind – vielleicht durch lokale Informationen. Im schlimmsten Fall rankt vielleicht die deutsche Seite in Österreich.

20.09.2016, 13:55

Frage: Wir haben bereits einen Blog. Bekommen wir eine Abstrafung, wenn wir diese Inhalte noch auf anderen Plattformen wie LinkedIn einbauen? Antwort: Wie vorhin gesagt: Wenn euch der Kanal egal ist, ist das ok, um unterschiedliche Nutzer anzusprechen. Aber ihr kämpft dann mit euch selbst um gute Rankings. Wir haben da aber keinen Penalty, eine der anderen Quellen wird halt vielleicht über eurer Website ranken.

20.09.2016, 03:53

Frage: Wir verkaufen über unsere Website, Amazon und Ebay und haben überall identische Bilder, Titles und Produktbeschreibungen – und das für hunderte von Produkten. Kann das ein Problem werden? Antwort: Das ist schwer zu sagen. Grundsätzlich gibt es aber doppelte Inhalte, weshalb ihr mit euch selbst in Konkurrenz tretet. Aber solange die Leute von euch kaufen, ist das ja vielleicht auch egal? Ist das nicht der Fall, dann solltet ihr das ändern, um das Hauptaugenmerk auf eure Seite zu legen. Das ist aber mehr eine Marketingfrage.

09.09.2016, 1:06:46

Frage: Ich manage eine Google my Business Seite und der Unternehmer kopiert nun meine Inhalte als Blogposts auf die Unternehmenswebsite. Wird das zu DC Problemen führen? Antwort: Es könnte DC sein. Wenn jemand also nach dem Text sucht, zeigen wir eine der beiden Seiten in SERPs. Das ist aber kein Problem, denn Nutzer finden die Inhalte. Da kann euch ja dann egal sein, wo.

09.09.2016, 1:04:45

Frage: Du hast gesagt, dass eine Website mit nur einem Feed von einer anderen Seite keinen Mehrwert hat. Aber wie sieht es mit einer Seite aus, die mehrere Feeds zusammenfasst und dazu Bewertungen veröffentlicht? Antwort: Das hört sich danach an, dass eure Hauptinhalte aus Feeds kommen. Das ist nicht gut, eure Hauptinhalte sollten einzigartig sein und von euch kommen. Feeds sollten nur unterstützend wirken.

09.09.2016, 54:43

Frage: Unsere Seite hat eine Liste mit URLs zu den Kategorien und Unterkategorien. Es gibt also 20 Seiten mit den gleichen Links und Metadaten. Ist das DC? Antwort: Wenn es nur um die Links oder die Descriptions geht, ist das kein Problem. Geht es um die Inhalte, dann ist es Duplicate. Aber das ist kein Problem, Dinge wiederholen sich halt, z.B. Produkte in unterschiedlichen Kategorien. Wenn Seiten einzigartige Inhalte haben, ist es natürlich einfacher, sie gut zu ranken. Ansonsten klappen wir Dinge auch mal zusammen.

08.09.2016, 21:20

Frage: Wenn der Inhalt einer HTML Seite zusätzlich als PDF zum Download angeboten wird, ist das Duplicate Content? Wenn ja, wie kann das verhindert werden und wie teile ich dem Bot am besten mit, dass die HTML Seite ranken soll? Antwort: Zum Teil wird das als DC erkannt. Wir sehen wahrscheinlich, dass die Textblöcke identisch sind. Wir erkennen aber, dass die Seiten an sich separat sind und auch so indexiert werden. In den meisten Fällen ist das kein Problem und wir indexieren die HTML Version. Ansonsten könnt ihr im Header des PDF ein Canonical eingeben, das auf die HTML-Variante verweist.

08.09.2016, 14:26

Frage: Shop mit mehreren Domains, jedoch andere Preise. Fast alles DC. Zugriff über robots nur für Hauptdomain. Viele Links gehen so verloren. Daher Idee zur Freigabe für alle Domains und DC-Lösung über Canonical. Gute Idee oder lieber lassen? Alternativen? Antwort: Ich kann mir vorstellen, dass das Sinn machen könnte. Ich weiß jetzt nicht, warum ihr mehrere Domains habt, vielleicht aus Marketinggründen. Und mit dem Canonical könnt ihr alle weiterhin nutzen und uns eine bevorzugte Version angeben. Das ist besser als robots.txt, denn dort könnten wir die eingehenden Links nicht richtig nutzen und könnten dann die Seiten indexieren, ohne die Seite gesehen zu haben. Und das wären dann ja wieder die falschen Seiten im Index. Ich würde eine Umstellung aber Schritt für Schritt machen, damit wir nicht alles auf einmal crawlen und so eure Server überlasten. Wenn ihr gezielt nach den Seiten sucht, werden auch einige der Seiten vorübergehend im Index landen, das ist ein normaler technischer Vorgang.

06.09.2016, 12:41

Frage: Nutzt Ihr Schema.org/Product, Schema.org/ProductModel und Schema.org/IndividualProduct zur Erkennung von Nahezu-Duplikaten bzw. Artikelvarianten? Wenn ja, in welcher Form? Antwort: Soweit ich weiß, nutzen wir das für das Erkennen von DC nicht. Wir versuchen dafür, die Inhalte selbst zu nehmen. Wir strafen Seiten mit DC auch nicht ab, sondern klappen die Sachen zusammen.

06.09.2016, 21:21

Frage: Wir haben eine E-Commerce Seite und werden bald eine neue Firma starten, die andere Produkte verkauft. 500 von 5000 Produkten sind aber mit identischen Daten auch auf der alten Seite zu finden. Sollten wir vor DC Angst haben? Antwort: Wenn das auf einer neuen Seite ist, würde ich das Canonical nutzen, um eure bevorzugte Version anzuzeigen.

06.09.2016, 10:20

Frage: Ich habe eine Seite, die mit BigCommerce arbeitet. Sie haben für ihre Möbel unterschiedliche Farboptionen. Die Inhalte sind da immer gleich, aber die URLs sind einzigartig. BigCommerce erlaubt es nicht, hier durch uns Canonicals einzubauen. Wird das ein Problem? Antwort: Das ist schwer zu sagen. Es ist sicher nicht optimal, da es viele ähnliche Versionen gibt, die alle eigenständig einen Ruf aufba