Duplicate Content

Werbung

 


11.11.2016, 27:05

Frage: Wenn man eine Seite A, B und C hat, welche alle 1:1 den gleichen Inhalt haben, dies aber technisch wegen einem Filter erforderlich ist, wie ist es am besten DC zu vermeiden? Variante A auf index, follow zu lassen und B und C ebenfalls auf Index aber mit Canonical auf Seite A. Oder Seite A auf index, follow und Seite B und C einfach auf noindex, follow?

Antwort: Man kann beides machen, sowohl Canonical als auch Noindex. Aber beim Noindex verlieren wir die Links, die auf die entsprechende Seite zeigen. Beim Canonical klappen wir alles auf der einen besten Seite zusammen.


04.11.2016, 36:30

Frage: Wenn mal also eine WordPress Seite hat. Da gibt es dann viel DC, mit Artikeln, Kategorien und Autorenseiten etc.

Antwort: Da würde ich sicherstellen, dass der Artikel selbst die beste Version ist. Vielleicht durch tolle Kommentare, oder indem auf den anderen Seiten nur Teaser stehen. Ansonsten kann Noindex auch auf einigen der Sammelseiten Sinn machen.


04.11.2016, 34:26

Frage: Mein Kunde verkauft Dinge in seinem Shop per Demandware. Dadurch gibt es Duplicate Content (gleiche Inhalte mit unterschiedlichen URLs). Was kann man tun, außer das Crawlen per robots.txt zu blockieren?

Antwort: Ich weiß nicht, was Demandware ist, ist das ein Affiliate oder ein Shop Setup? Unsere Empfehlung bei DC ist, dass ihr das mit Canonicals oder ähnlichem löst. Dann können wir die Seiten zusammenpacken. Das Crawling würde ich nur dann blockieren, wenn das Crawling Probleme auf dem Server verursacht. Denn dann können wir die Inhalte nicht sehen und können nicht mit ihnen umgehen.


21.10.2016, 41:21

Frage: Was ist der beste Weg, wenn wir CDN Cloudfront nutzen und diese Seiten auch im Index sind. Werden wir einen Duplicate Content Penalty erhalten?

Antwort: Wir haben keinen Penalty für Duplicate Content, das ist ein technisches Problem. DC ist nur ein Problem, wenn ausschließlich Inhalte von anderen Seiten aggregiert. Da macht das Indexieren wenig Sinn, da wir die Inhalte schon haben. Wir würden eure Seiten denke ich zusammenklappen und dann eine zeigen.


21.10.2016, 30:35

Frage: Unsere Kunden stellen immer wieder die selben Fragen. Wir haben schon eine FAQ, die wird aber scheinbar nicht gelesen. Können wir diese Inhalte noch einmal auf den Produktseiten wiederholen?

Antwort: So etwas kann man duplizieren. Das klappen wir in der Suche dann einfach zusammen, ihr bekommt aber keine Probleme.


21.10.2016, 06:35

Frage: Wenn ich eine Suche nach einem halben Satz mache, wie groß ist das Problem, wenn die Originalquelle hier nicht direkt auftaucht?

Antwort: Das ist normalerweise kein großes Problem. Wir haben beide Seiten im Index und für das Snippet wollen wir einfach Duplicates vermeiden. Diese künstlichen Suchen, auch die Seitenabfragen, zeigen nicht immer das, was bei normalen Suchanfragen im Ranking passiert.


21.10.2016, 00:40

Frage: Was kann man tun, wenn man gute Inhalte hat und diese von Seiten mit großer Popularität ohne Quellenangabe übernommen werden? Gibt es einen Weg, um zu zeigen, dass die Inhalte mir gehören?

Antwort: Nein, da gibt es keinen automatisierten Weg, um Inhalte euch zuzuschreiben, denn andere könnten das ja auch machen. Das ist oft eine schwierige Situation, auch wenn wir Algorithmen haben, die versuchen, die Originalquelle herausarbeiten und der einen Boost verpassen.


07.10.2016, 33:56

Frage: Wenn Inhalte an vielen unterschiedlichen Stellen im Blog stehen (Archiv, Monat etc.), haben wir viel Duplicate Content. Ich nutze da Noindex für alles, was nicht die Hauptseite oder die Artikelseiten sind, ist das ok? Die Artikel sind hochwertig und akademisch. Manchmal gibt es aber schlechtere Kommentare, nimmt Google das zu meinem Inhalt hinzu?

Antwort: Klar, stellt aber sicher, dass alle Artikel etwas einzigartiges haben. Das zum Beispiel bei den Artikeln immer die Kommentare dazu kommen. Wir schauen uns die Seiten zusammen an, Kommentare zählen also zum Content dazu. Sind die Kommentare also schlecht oder durchschnittlich, dann sind unsere Algorithmen vielleicht etwas verwirrt. Ihr solltet euch also überlegen, ob die Kommentare zu sehen sein sollen. Ihr könnt zum Beispiel auch nur ein paar Kommentare zeigen und die anderen in ein Forum oder in einen nachladenden Teil verschieben. Zum Beispiel mit LazyLoad, dann sieht Googlebot das nicht.


22.09.2016, 35:36

Frage: Wir haben eine Website in Österreich und in Deutschland und haben für beide Seiten die selben Texte verwendet (Duplicate Content)? Ist das ein Problem bzw. hat es negativen Einfluss für die AT Seite?

Antwort: Es kann passieren, dass unsere Algorithmen die Seiten zu einer Seite zusammenklappen. Zumindest im Boiler Plate sollte klar gemacht werden, dass es unterschiedliche Seiten sind – vielleicht durch lokale Informationen. Im schlimmsten Fall rankt vielleicht die deutsche Seite in Österreich.


20.09.2016, 13:55

Frage: Wir haben bereits einen Blog. Bekommen wir eine Abstrafung, wenn wir diese Inhalte noch auf anderen Plattformen wie LinkedIn einbauen?

Antwort: Wie vorhin gesagt: Wenn euch der Kanal egal ist, ist das ok, um unterschiedliche Nutzer anzusprechen. Aber ihr kämpft dann mit euch selbst um gute Rankings. Wir haben da aber keinen Penalty, eine der anderen Quellen wird halt vielleicht über eurer Website ranken.


20.09.2016, 03:53

Frage: Wir verkaufen über unsere Website, Amazon und Ebay und haben überall identische Bilder, Titles und Produktbeschreibungen – und das für hunderte von Produkten. Kann das ein Problem werden?

Antwort: Das ist schwer zu sagen. Grundsätzlich gibt es aber doppelte Inhalte, weshalb ihr mit euch selbst in Konkurrenz tretet. Aber solange die Leute von euch kaufen, ist das ja vielleicht auch egal? Ist das nicht der Fall, dann solltet ihr das ändern, um das Hauptaugenmerk auf eure Seite zu legen. Das ist aber mehr eine Marketingfrage.


09.09.2016, 1:06:46

Frage: Ich manage eine Google my Business Seite und der Unternehmer kopiert nun meine Inhalte als Blogposts auf die Unternehmenswebsite. Wird das zu DC Problemen führen?

Antwort: Es könnte DC sein. Wenn jemand also nach dem Text sucht, zeigen wir eine der beiden Seiten in SERPs. Das ist aber kein Problem, denn Nutzer finden die Inhalte. Da kann euch ja dann egal sein, wo.


09.09.2016, 1:04:45

Frage: Du hast gesagt, dass eine Website mit nur einem Feed von einer anderen Seite keinen Mehrwert hat. Aber wie sieht es mit einer Seite aus, die mehrere Feeds zusammenfasst und dazu Bewertungen veröffentlicht?

Antwort: Das hört sich danach an, dass eure Hauptinhalte aus Feeds kommen. Das ist nicht gut, eure Hauptinhalte sollten einzigartig sein und von euch kommen. Feeds sollten nur unterstützend wirken.


09.09.2016, 54:43

Frage: Unsere Seite hat eine Liste mit URLs zu den Kategorien und Unterkategorien. Es gibt also 20 Seiten mit den gleichen Links und Metadaten. Ist das DC?

Antwort: Wenn es nur um die Links oder die Descriptions geht, ist das kein Problem. Geht es um die Inhalte, dann ist es Duplicate. Aber das ist kein Problem, Dinge wiederholen sich halt, z.B. Produkte in unterschiedlichen Kategorien. Wenn Seiten einzigartige Inhalte haben, ist es natürlich einfacher, sie gut zu ranken. Ansonsten klappen wir Dinge auch mal zusammen.


08.09.2016, 21:20

Frage: Wenn der Inhalt einer HTML Seite zusätzlich als PDF zum Download angeboten wird, ist das Duplicate Content? Wenn ja, wie kann das verhindert werden und wie teile ich dem Bot am besten mit, dass die HTML Seite ranken soll?

Antwort: Zum Teil wird das als DC erkannt. Wir sehen wahrscheinlich, dass die Textblöcke identisch sind. Wir erkennen aber, dass die Seiten an sich separat sind und auch so indexiert werden. In den meisten Fällen ist das kein Problem und wir indexieren die HTML Version. Ansonsten könnt ihr im Header des PDF ein Canonical eingeben, das auf die HTML-Variante verweist.


08.09.2016, 14:26

Frage: Shop mit mehreren Domains, jedoch andere Preise. Fast alles DC. Zugriff über robots nur für Hauptdomain. Viele Links gehen so verloren. Daher Idee zur Freigabe für alle Domains und DC-Lösung über Canonical. Gute Idee oder lieber lassen? Alternativen?

Antwort: Ich kann mir vorstellen, dass das Sinn machen könnte. Ich weiß jetzt nicht, warum ihr mehrere Domains habt, vielleicht aus Marketinggründen. Und mit dem Canonical könnt ihr alle weiterhin nutzen und uns eine bevorzugte Version angeben. Das ist besser als robots.txt, denn dort könnten wir die eingehenden Links nicht richtig nutzen und könnten dann die Seiten indexieren, ohne die Seite gesehen zu haben. Und das wären dann ja wieder die falschen Seiten im Index. Ich würde eine Umstellung aber Schritt für Schritt machen, damit wir nicht alles auf einmal crawlen und so eure Server überlasten. Wenn ihr gezielt nach den Seiten sucht, werden auch einige der Seiten vorübergehend im Index landen, das ist ein normaler technischer Vorgang.


06.09.2016, 12:41

Frage: Nutzt Ihr Schema.org/Product, Schema.org/ProductModel und Schema.org/IndividualProduct zur Erkennung von Nahezu-Duplikaten bzw. Artikelvarianten? Wenn ja, in welcher Form?

Antwort: Soweit ich weiß, nutzen wir das für das Erkennen von DC nicht. Wir versuchen dafür, die Inhalte selbst zu nehmen. Wir strafen Seiten mit DC auch nicht ab, sondern klappen die Sachen zusammen.


06.09.2016, 21:21

Frage: Wir haben eine E-Commerce Seite und werden bald eine neue Firma starten, die andere Produkte verkauft. 500 von 5000 Produkten sind aber mit identischen Daten auch auf der alten Seite zu finden. Sollten wir vor DC Angst haben?

Antwort: Wenn das auf einer neuen Seite ist, würde ich das Canonical nutzen, um eure bevorzugte Version anzuzeigen.


06.09.2016, 10:20

Frage: Ich habe eine Seite, die mit BigCommerce arbeitet. Sie haben für ihre Möbel unterschiedliche Farboptionen. Die Inhalte sind da immer gleich, aber die URLs sind einzigartig. BigCommerce erlaubt es nicht, hier durch uns Canonicals einzubauen. Wird das ein Problem?

Antwort: Das ist schwer zu sagen. Es ist sicher nicht optimal, da es viele ähnliche Versionen gibt, die alle eigenständig einen Ruf aufbauen müssen. Bei umkämpften Suchbegriffen könnte das schwierig sein. Da macht es dann oft Sinn, eine starke Seite zu erstellen. Da solltet ihr euch die häufigsten Suchanfragen anschauen und gucken, ob nach dem Möbelstück oder nach der Farbe gesucht wird. Technisch gesehen kann ich zu BigCommerce aber nichts sagen. Es würde aber nicht zu einem Spamproblem oder zu einer Pandaabstrafung führen. Wir sehen, dass die Inhalte ähnlich sind und wir klappen das dann zusammen. Von den Signalen her müssen sie aber eigenständig stehen.


26.08.2016, 38:01

Frage: Meine Seite hat Alternate Tags für die m.site. Aber Google indexiert manchmal die falschen URLs. Die Tags sind aber korrekt.

Antwort: Grundsätzlich ist Duplicate Content da kein Problem. Wenn ihr das aber in der Desktop Suche seht, dann ist das ein Zeichen dafür, dass wir die Verbindung nicht richtig sehen. Da müsst ihr prüfen, ob alles technisch richtig eingebaut ist. In solchen Fällen hat das responsive Design echte Vorteile, da sich da alles auf einer URL befindet.


26.08.2016, 32:21

Frage: Unser Traffic ist eingebrochen, nachdem wir die Navigation umgebaut haben. Wir haben dann gesehen, dass die selbe Zeile mit 150 Zeichen mehr als 70 mal auf der Seite wiederholt wird, da sie sich in der Navigation befindet. Ist das Duplicate Content?

Antwort: Für uns sollte das kein Problem sein. Wir können Dinge wie die Navigation, Sidebar oder Footer auseinanderhalten. Das ist Boiler Plate, da ist uns Duplicate Content egal. Denn diese Dinge sind nun mal meistens gleich. Wenn es aber Keyword Stuffing ist, dann würde ich das löschen.


12.08.2016, 50:35

Frage: Suchergebnisseiten auf unserer Immobilienseite bringen oft sehr ähnliche Ergebnisse, da viele Immobilien in den gleichen Bezirken stehen. Ist das DC und was können wir tun, um DC zu vermeiden?

Antwort: Wir würden uns solche Seiten anschauen und sie nicht als komplette Duplikate sehen. Wir würden sie dann alle crawlen, aber eher zusammenfassen. Hier macht eine Kategorieseite vielleicht Sinn. Wenn jeder Suchbegriff eine eigene Seite zur Folge hat, macht es das Crawlen auch schwer für uns,


12.08.2016, 30:41

Frage: Wir sind ein Onlineportal für Java-Übungen und haben dort viele Fragen, die zwar ähnlich aussehen, aber inhaltlich doch sehr unterschiedlich sind. Wie kann man diese am besten indexieren?

Antwort: Das ist euch überlassen. Überlegt in dem Fall, ob alle Seiten einzeln einen Mehrwert für den Nutzer bringen. Wenn ja, dann lasst sie so. Wenn nicht, dann nicht. Sind es also einzigartige Fragen, dann kann es Sinn machen, sie einzeln zu lassen.


12.08.2016, 29:25

Frage: Wir haben zwei verschiedene Produktseiten. Eine ist die 3000er Serie und die andere die 3001er Serie. Beide haben aber größtenteils die gleichen Inhalte. Wie behandelt Google diese Seiten?

Antwort: Wenn sie unterschiedliche Seiten sind, dann behandeln wir es so. Wenn sie gleich sind, dann zeigen wir eine von ihnen an, wenn jemand nach den gleichen Inhalten sucht. Sucht jemand nach den Einzigartigkeiten einer der Seiten, dann versuchen wir, die passende Seite anzuzeigen. Da müsst ihr euch also keine Gedanken machen.


11.08.2016, 44:02

Frage: Hallo, auf einer unserer Seiten kann der User sich mehrere Dokumente in einer Mappe zusammenstellen um diese als Bündel zu downloaden. Hierbei werden URLs mit Parametern generiert z.B: www.domain.de/?tx_download. Sieht Google dies als DC zu www.domain.de?

Antwort: Ich weiß nicht genau, wie das gemeint ist. Parameter sind ja vielleicht einzigartig und Googlebot sieht sie gar nicht. Aber ich habe ja schon gesagt, dass DC nicht unbedingt ein großes Problem ist. Aber denkt euch mal was aus, damit ihr das zusammenfügen könnt und Googlebot sich nicht verheddern muss.


11.08.2016, 27:47

Frage: Kann externer Duplicate Content dadurch ausgelöst werden, dass bei einem Domainumzug Teile der ehemaligen Sitemaps noch in der Google Search Console hinterlegt und dadurch indexiert sind? Wie behebt man dieses Problem? 301 Weiterleitungen sind eigentlich gesetzt.

Antwort: Das sollte eigentlich kein Problem sein. Es gibt ja keine Strafe dafür. Es ist eher ein technisches Problem. Wir können die URLs ja dann zusammenfassen und suchen uns eine aus. So etwas passiert bei Umzügen halt mal.


11.08.2016, 20:43

Frage: Wie oft wird domainübergreifender Duplicate Content aktualisiert?

Antwort: Jedes Mal, wenn wir Crawlen, schaut unser System, ob wir die Seite schon kennen. Wenn ja, dann packen wir sie zusammen.


11.08.2016, 00:37

Frage: Auf unserer Domain hatten wir immer schlechte Rankings. Wir dachten dann, es wäre Penguin und haben die Domain gewechselt. Es gibt keine Weiterleitungen, um den Penguin nicht zu vererben. Die neue Domain ist jetzt DC, obwohl die alte Seite auf Noindex ist.

Antwort: Ohne die Seite zu sehen ist das schwer zu sagen. Aber an sich habt ihr einfach alle Inhalte kopiert. Und das sehen wir als Verbindung und sehen das als Äquivalent und bringen alle alten Signale mit. Probleme mit der alten Seite kommen dann also auch mit. Hier könntet ihr eine komplett neue Website starten. Dann muss aber alles Schritt für Schritt neu aufgebaut werden, auch alle Signale. Ob sich das bei euch nun lohnt, weiß ich nicht. Das ganze wieder auf die alte Domain umzuziehen würde auch nicht viel bringen. Damit bekommt ihr nur den alten Zustand wieder zurück. Das würde aber mit Weiterleitungen von der neuen Version funktionieren. Am besten stabilisiert ihr das Ganze auf der neuen Version und räumt auch alle Links und so auf. Es helfen dann auch andere Dinge, z.B. ein Blog auf einer anderen Domain. Der kann dann Besucher zu eurer Website bringen. Gleiches gilt auch für Videos und andere kreative Dinge. Für die Websuche bringt es aber nichts, wenn AdWords gut läuft. Das hilft euch, aber nicht dem Ranking.


29.07.2016, 23:52

Frage: In Search Console sehen wir Duplicate Content für 2 URLs, die bis auf den Tracking Parameter gleich sind. Wie können wir diesen Hinweis verhindern? Können wir ein Crawlen der URL mit Parameter durch die robots.txt verhindern?

Antwort: Da solltet ihr Weiterleitungen und Canonicals verwenden. Nutzt außerdem die interne Verlinkung, um immer nur die richtige URL zu nutzen. Außer in Extremfällen (wo die Server in die Knie gehen) würde ich aber keine robots.txt nutzen. Wir wissen dann nicht, dass es DC ist und indexieren beide URLs – denn wir wissen bei der geblockten ja nur, dass sie existiert, nicht was dort zu finden ist. Mit Canonicals etc. können wir sie hingegen zusammenlegen. Wichtig ist dabei, dass ihr immer gleich handelt und uns klare Wege aufzeigt. Kontext ist immer hilfreich, damit wir das richtige indexieren und anzeigen.


08.07.2016, 1:08:35

Frage: Warum springen einige URLs in den SERPs hin und her, wenn sie fast Duplicate Content haben?

Antwort: Es ist sicher keine einfache Rechnung. Es ist aber schwer zu sagen, warum ihr solche Änderungen seht. Das kann wegen Personalisierungen oder wegen Experimenten sein. Vielleicht sind sie auch so gleich, dass wir sie immer mal auswechseln. Es kann einfach auch eine technische Sache sein.


08.07.2016, 56:21

Frage: Eine Website hat unseren Artikel kopiert und rankt damit nun besser als wir. Werden wir einen Duplicate Content Penalty erhalten?

Antwort: Es gibt keinen Penalty für Duplicate Content. Aber wenn ihr das nicht wollt, dann würde ich diese andere Seite kontaktieren und je nach Situation auch rechtliche Schritte prüfen.


08.07.2016, 33:49

Frage: Werde ich einen Penalty erhalten wenn eine große Website meinen Artikel kopiert, ohne ein Canonical zu setzen?

Antwort: Nein, das Webspam Team sucht nicht nach einer einzigen URL. Wenn sie es sich doch einmal ansehen, dann sollten sie merken, was die Originalquelle ist.


01.07.2016, 51:57

Frage: Uns sind zwei Sets an URLs aufgefallen, die auf DC schließen lassen. Sie unterscheiden sich nur dadurch, dass eine mit “/” endet. Was sollen wir tun?

Antwort: An sich können wir das sehen, das sollte euch keine Probleme bringen. Aber wenn euch eine Version lieber ist, dann nutzt den Redirect und das Canonical. Nutzt dann aber immer dieselben bei der internen Verlinkung?


01.07.2016, 28:45

Frage: Eine WordPress Multisite hat 50 Subdomains mit Duplicate Content. Kann das für externe Seiten, die zu diesem Content verlinken, einen Penalty zur Folge haben?

Antwort: Das ist normalerweise nicht der Fall. Wenn jemand zu nicht so guten Inhalten linkt, dann kommt entsteht daraus eigentlich kein Nachteil.


28.06.2016, 00:39

Frage: Wir haben eine WordPress Multisite. Wie sieht es mit den Inhalten aus, die wir von der Hauptseite auf die untergeordneten Seiten weitergeben? Das sind Blogposts, auf die unsere Kunden verlinken. Diese nutzen es, aber jeder Post wird halt von vielen Kunden verwendet. Ranken diese Blogposts vielleicht schlecht, weil es sich um Duplicate Content handelt? Könnte uns das Keyword Meta Tag helfen.

Antwort: Da gibt es einige Möglichkeiten. Wir haben für DC keinen Penalty, wir suchen uns einfach nur eine Version aus, die dann rankt – die anderen filtern wir nach dem indexieren raus. Ihr seid also im Moment eure eigene Konkurrenz. Ihr könntet da ein Canonical einsetzen, das auf die wichtigste Seite zeigt. Das Keyword Meta Tag hilft euch nicht, da wir das für die Suche komplett ignorieren. Wenn die Seiten aber unterschiedliche Länder targeten, dann könnt ihr das Hreflang nutzen. Es verwässert aber immer die Stärke der Inhalte, wenn sie so verteilt werden. Und ich glaube auch nicht, dass euer System dem Nutzer viel Mehrwert bietet.


17.06.2016, 57:21

Weitere Frage: Ist es ein Indiz für schlechte Qualität, wenn auf einer Webseite auf derselben Domain gleiche Inhalte auf verschiedenen Unterseiten angegeben sind? Die Seiten sind sich sehr ähnlich, nur einige Wörter unterscheiden sich.

Antwort: Generell erkennen wir, wenn Seiten sich sehr ähnlich sind oder gleichen. Wir erkennen auch, dass gleiche Textblöcke auf mehreren Webseiten vorhanden sind. Wir indexieren all diese Homepages. Sucht jemand diesen Textblock, wählen wir einfach einen davon aus. Von meiner Seite aus besteht kein qualitatives Problem dieser Webseiten. Problematischer ist der anwendungsfreundliche Aspekt. Je mehr Webseiten die gleichen Inhalte haben, umso geringer ist die Bedeutung jeder einzelnen Homepage gewichtet. Kategorie-Unterseiten sind eine wichtige Unterstützung. Die derzeitige Aufteilung der Webseiten betrachte ich als suboptimal. Führe einen Test durch. Wähle ein Thema aus, verteile es auf Webseiten und schaue dann, wie Google darauf reagiert. Achte ebenfalls darauf, wie Internetnutzer auf die Neuerung reagieren.


16.06.2016, 17:18

Frage: Wir beobachten im CH-Markt eine stetig wachsende Sichtbarkeit von Spider-Webseiten im Google-Index. Diese Seiten besitzen keine eigenen Inhalte, sondern verlinken beispielsweise lediglich auf Inserate von fremden Domains. Ist dies im Sinne von Google bzw Duplicate Content?

Antwort: Das werden wir uns mal näher anschauen. Du kannst mir gern URLs zuschicken, die dir problematisch erscheinen. Ich leite das an mein Team weiter.


16.06.2016, 03:26

Frage: Innerhalb eines Landes gibt es mehrere Domains für verschiedene Filialen. Da bei den verschiedenen Filialen teilweise gleiche Leistungen angeboten werden, kann dies zu DC führen! Lösung: Domains zusammenführen oder Inhalte individueller gestalten?

Antwort: Die richtige Lösung variiert von Fall zu Fall. Ich empfehle, gemeinsame Inhalte an einem Ort zu platzieren und individuelle Inhalte separat zu präsentieren. Das bedeutet, dass allgemeine Informationen auf einem Teil der Webseite und spezifische Informationen auf eigenständigen Seiten publiziert werden. Somit stehen alle Inhalte für sich. Somit wird gewährleistet, dass allgemeine Inhalte strikt von Informationen über einzelne Filialen getrennt sind. Das hängt jedoch auch vom jeweiligen Unternehmensprofil ab. Ich denke, diese Vorgehensweise ist insbesondere bei Unternehmen mit vielen ähnlichen Filialen empfehlenswert. Besitzt eine Firma nur zwei oder drei Filialen mit speziellen Ausrichtungen, sind andere Methoden sinnvoll.


14.06.2016, 40:45

Frage: Wir teilen uns unsere Newsbeiträge mit einer anderen Seite. Dort reichen wir sie ein, sie veröffentlichen sie und teilen sie auch. Riskieren wir doppelte Inhalte, auch wenn die Inhalte bei uns zuerst erscheinen?

Antwort: Wenn ihr es teilt, dann ist das Duplicate Content. Es kann passieren, dass wir die andere Seite dann vor euch ranken. Wenn ihr das nicht wollt, müsst ihr die Inhalte bei euch behalten. Ihr müsst also abwägen: Ranken durch Einzigartigkeit oder Teilen für ein größeres Publikum.


02.06.2016, 23:45

Frage: In unserem Onlineshop kommt es zudem oft vor, dass Artikelseiten (bspw. bei vielen Gartenhäuser) identische Infos haben wie gleiches Zubehör, gleiche Highlights, gleicher Service. Sollten diese Infos ausgelagert werden bzw. wird das auch als DC gewertet?

Antwort: Ja, das sehen wir als DC. Aber problematisch ist das nicht. Man merkt das meistens als Websitebetreiber nicht mal. Sucht man aber gezielt nach den duplizierten Inhalten, dann zeigen wir nur eine oder zwei der Varianten. Wer den Hauptinhalt sucht, dem zeigen wir wenn möglich die passenden Hauptseiten.


20.05.2016, 47:48

Frage: Auf Grundlage meiner ersten Frage. Wenn ich Syndicated Content mit noindex, follow versehe und ein Canonical zum Original-Publisher einstelle: Würden diese sich in Google’s Augen gegenseitig behindern?

Antwort: Du gibt uns da konfliktreiche Signale. Du sagst uns: Das soll nicht in den Index, aber das dort schon. Wir versuchen aber, das zu erkennen und dem Canonical zu folgen. Das sollte in der Praxis meist funktionieren, aber theoretisch ist das nicht wirklich gut gelöst.


20.05.2016, 44:32

Frage: Muss ich Noindex, follow in meinen Sourcecode einbauen, wenn ich Syndicated Content nutze? Momentan nutze ich ein Canonical zum Original-Punlisher, aber meine Inhalte landen trotzdem im Index.

Antwort: Wir müssen erst einmal deine Seiten crawlen und indexieren, bevor wir dem Canonical folgen können. Dann leiten wir alle Signale weiter, aber vielleicht kann man deine Seite trotzdem noch finden.


19.05.2016, 22:10

Frage: Duplicate Content? Drei Domains verweisen auf einen Webshop, also folgendermaßen shop1.de auf shop1.de shop2.de auf shop1.de shop3.de auf shop1.de Duplicate Content?

Antwort: Das hängt von der Gestaltung ab. Sind es Weiterleitungen, dann wird nur Shop1 indexiert und alles ist ok. Sind es unterschiedliche Domains mit gleichen Inhalten, dann ist es DC und wird von uns zusammengeklappt.


15.04.2016, 21:26

Frage: Einige unserer Affiliates würden gerne Teile unserer Produktseiten scrapen. Könnte das negative Konsequenzen für uns haben?

Antwort: Das müsst ihr mit euren Affiliates besprechen. Sie könnten dann für die Inhalte ranken und vielleicht sogar besser ranken als ihr. Aber darum geht es ja bei Affiliates und wir garantieren nicht, dass wir euer Original immer zuerst zeigen. Weil Affiliates denken sich manchmal tolle zusätzliche Dinge aus, die wir hoch schätzen.


07.04.2016, 16:40

Frage: Wie viele gleiche Textbausteine sind auf verschiedenen Seiten erlaubt, wenn diese für den Besucher sinnvoll sind? Ein Tool gibt an, das ich 16% Duplicate Content habe, 14% Common Content und 70% Unique Content.

Antwort: Solche Tools können manchmal helfen, aber ich würde nicht auf solche Zahlen achten. Unsere Algorithmen verwenden solche Tools nicht und schauen nicht auf die Zahlen. Sehen sie identische Inhalte, dann werden sie vielleicht nicht indexiert. Werden einzelne Abschnitte dupliziert, dann kann das Sinn machen und wir überlegen uns, was wir am ehesten anzeigen sollen.


10.03.2016, 41:41

Frage: Duplicate Content: Sollen technische Daten (Technische Daten, Weiterverarbeitung, etc), welche Dubletten bilden, auf einer externen URL ausgelagert werden? Beispiel: https://goo.gl/E8t2Kj Wird Relevanz bei Entfernung der Dubletten auf der Seite entzogen?

Antwort: Grundsätzlich würde ich die weiterhin zeigen, wenn sie für euch relevant sind. Ich sehe da jetzt gar nicht so viele technische Daten. Solche Dinge gehören aber dazu und müssen daher nicht blockiert werden. Eure Seite wird deswegen nicht herabgestuft.


10.03.2016, 07:37

Frage: Wie handhabt es Google, wenn jemand ein identisches Inserat gleichzeitig auf 2 Portalen veröffentlicht? Sind dadurch Duplicate Content Probleme auf Seiten der Portal-Webmaster zu befürchten?

Antwort: Grundsätzlich ist es so, dass solcher DC erkannt wird – aber es verursacht nicht automatisch Probleme oder manuelle Maßnahmen. Solche Sachen passieren im Internet und wir können damit umgehen und das erkennen. Wenn jemand gezielt danach sucht, dann wählen wir eine der Seiten aus und zeigen sie in den SERPs an. Ich würde das nicht als problematisch ansehen, aber trotzdem solltet ihr die Nutzer dazu bringen, euch einzigartige Inhalte zur Verfügung zu stellen. Denn sonst bringt es euch ja wenig.


08.03.2016, 44:33

Frage: Wenn ich einen Teil einer Produktbeschreibung auf einer Kategorieseite anzeige, wie sollte ich das anstellen, damit es keinen negativen Einfluss hat – denn es könnte Duplicate Content sein?

Antwort: Das ist grundsätzlich kein Problem. Wir erkennen solche Snippets und versuchen dann, die relevanteste Variante des Inhalts zu zeigen.


25.02.2016, 51:27

Frage: Wir verwenden Teile von Kundenbewertungen, die bestimmte Produktkategorien betreffen, auf passenden Produkt- und Kategorieseiten. So entsteht zwar interner DC, aber es ist ein Mehrwert für die Nutzer in unseren Augen. Lieber entfernen?

Antwort: Wenn es für den Nutzer gut funktioniert, dann lasst es so. Ich sehe da keine großen Probleme.


25.02.2016, 32:15

Frage: Vertreiben eine Software, welche in mehrere Module geteilt ist. Diese Module werden für mehrere Branchen verwendet und haben somit den gleichen Content. Reicht eine Umstellung der Sätze (Synonyme), damit es nicht mehr als Duplicate Content getrackt wird?

Antwort: Grundsätzlich versuchen wir, solche Sachen zusammenzuklappen. Wir versuchen dann, in den SERPs eine relevante Seite zu bringen. Man muss solchen DC also nicht zwanghaft rausnehmen. Durch das künstliche Umschreiben habt ihr also keinen großen Vorteil.


25.02.2016, 08:53

Frage: Helfen strukturierte Daten/Attribute wie isSimilarTo, isRelatedTo etc. bei der Steuerung von Duplicate Content? Macht es Sinn, diese Attribute zu benutzen?

Antwort: So weit ich weiß, werden sie bei diesem Thema nicht von uns verwendet. Wir schauen uns da die Texte an. Aber wenn die Verwendung für euch Sinn macht, dann nutzt es. Für mich wären aber strukturierte Daten wichtiger.


25.02.2016, 00:35

Frage: Bei Blogübersichtsseiten oder Blogtagseiten gibt es meist mehrere paginierte Seiten. Ist das für Google DC und wie geht man am besten damit um?

Antwort: Damit kommen wir in der Regel gut zurecht. Man muss also nichts machen. Wir erkennen den DC, sehen aber auch den eigenständigen Wert der Seiten und indexieren sie trotzdem. Man braucht also kein Canonical oder Noindex. Sie haben vielleicht gleiche Titel, aber es sind ja verschiedene Beiträge auf der Seite. Wenn ihr sie aber nicht indexieren möchtet, dann macht das so. Das ist beides kein Problem.


23.02.2016, 08:26

Frage: Sind http://www.example.com:80/ und http://www.example.com/ aus Google’s Sicht Duplikate? Gibt es weitere Probleme, wenn beide erreichbar sind?

Antwort: Die 80 bezieht sich auf den Port und ist der Standardport. Technisch gesehen sind die URLs also identisch. Denn einmal sagt ihr: Nutzt den Standardport und einmal: Nutzt den Port 80, welcher aber auch der Standardport ist. Wir klappen die also zusammen, ihr müsst da nichts machen – könnt die 80 aber auch einfach entfernen.


11.02.2016, 09:18

Frage: Können Bilder Duplicate Content sein? Einerseits das gleiche Bild mehrfach auf der GLEICHEN Website oder das gleiche Bild auf VERSCHIEDENEN Websites? (Ist es bereits “unique”, wenn der Dateiname unterschiedlich ist?)

Antwort: Ja, Bilder können auch DC sein. Wir versuchen auch, das zu erkennen. Es ist etwas, was sehr oft passiert – und damit müssen wir arbeiten und wir müssen verstehen, wie die Bilder zusammenhängen. Wir können das erkennen, auch wenn die Bilder größenmäßig angepasst wurden. Es ist dann in der Bildersuche nicht gesagt, dass wir immer die Ursprungsversion nutzen. Wenn z.B. ein Fotograf es in einer Galerie hat und nur Nummern als Beschreibung hat und das Bild auch in einem Blogpost mit vielen Zusatzinformationen zu finden ist – dann zeigen wir unter Umständen die informativere Version.


28.01.2016, 22:51

Frage: Ist es schädlich, wenn man Produktbeschreibungen (vom Hersteller) im Shop anzeigt? Ist das ein DC Problem? Die werden ja auch in anderen Shops angezeigt.

Antwort: Wie eben schon gesagt können wir das erkennen.


28.01.2016, 19:35

Frage: Es gibt Produkte in unserem Shop, die nahezu identisch sind. Sie unterscheiden sich nur in der Farbe (Schuhe). Wir haben entsprechend >1 URLs, weil natürlich >1 Produkte. Das sind keine Varianten, sondern eigene Artikel. Ist das DC? Was kann man dagegen tun?

Antwort: Das ist zum Teil DC, aber meistens nichts, was man gezielt verändern muss. Wir erkennen da, dass es ähnlich ist. Sucht jemand nach dem Produkt allgemein, dann klappen wir es zusammen und zeigen eine der Seiten – und zwar die, dir wir für am relevantesten halten. Sucht jemand nach einer bestimmten Farbe, dann zeigen wir die Farbe. Die Seite hat dadurch aber keinen Nachteil. Man kann sich aber trotzdem überlegen, ob man eine starke Seite macht, auf der alle Infos zu allen Variationen stehen. Das hängt aber vom Produkt ab.


15.01.2016, 48:57

Frage: Wenn wir Guides veröffentlichen und diese sich nur in der Stadt unterscheiden, führt das zu Problemen?

Antwort: Wir schauen uns die Texte an und werden wohl sehen, dass sie ähnlich sind. Oft werden wir dann nur einen der Texte zeigen – außer wenn jemand genau nach der Stadt sucht.


15.01.2016, 43:51

Frage: Wie kann man mit Duplicate Content auf Plattformen wie YouTube oder SlideShare umgehen, wo die Öffentlichkeit Inhalte hochladen kann?

Antwort: Wenn andere Leute Kopien von eurem Inhalt hochladen, kontaktiert die Plattformen, um euer Copyright durchzusetzen. Wenn einfach nur doppelte Inhalte existieren, dann werden wir meistens trotzdem das Original oder das relevanteste Ergebnis zeigen.


12.01.2016, 24:03

Frage: Wenn zwei CMS Anbieter ähnliche Seiten verkaufen, kann dies zu DC führen?

Antwort: Wenn ihr die Inhalte kopiert, dann ja. Aber es gibt keinen Penalty für so etwas. Wir versuchen, immer die passenden für die entsprechenden Suchanfragen zu zeigen. Das kann zum Beispiel vom Ort des Suchenden abhängen, da wir immer das für ihn relevanteste zeigen möchten.


29.12.2015, 28:15

Frage: Wie geht Google mit SWF Inhalten um? Ich habe Flash Glücksspielseiten und die Spiele werden von Anbietern bereitgestellt. Wie misst Google die Doppelung von Flash Spielen? Die einzige Möglichkeit, die mir einfällt, ist eine einzigartige Beschreibung für jedes Spiel.

Antwort: Ja, ich denke wir können manchmal solche Inhalte herausziehen. Einzigartige Descriptions helfen aber immer. Ich würde aber aufpassen, dass die Seite im Hinblick auf UX und ähnliches dem Nutzer wirklich einzigartige Vorteile bietet. Das Ranken für die Spiele selbst ist dann vielleicht zu vernachlässigen, vor allem, wenn es sie schon so oft gibt.


29.12.2015, 25:10

Frage: Wie kann man Entity Pages für Google optimieren, wenn es zum Beispiel um einen Star oder ein aktuelles Thema geht? Was für Inhalte möchte Google hier sehen, die für den Nutzer wirklich relevant sind?

Antwort: Da gibt es keine einfachen Regeln. Ihr als die Experten müsst hier euer Wissen anwenden – über das Thema und eure Leser – um das anzubieten, was eure Nutzer suchen.


29.12.2015, 24:17

Frage: Verstehe ich es richtig, dass die Google Suche diejenigen bevorzugt, die in einem Feld zu Experten geworden sind, während sie diejenigen benachteiligt, die Universitätsabschlüsse oder einen journalistischen Schreibstil haben? Das vereinfacht die Übersetzung in viele Sprachen und führt zu viel Text für die Massen?

Antwort: Das verstehe ich nicht wirklich. Aber der Tenor ist ja: Warum gebt ihr nicht Journalisten mehr Sichtbarkeit, denn die wissen, worüber sie schreiben – im Gegensatz zu den Leuten, die nur für das Web schreiben. Und für uns ist beides gut. Solange es gute Inhalte sind, wollen wir es zeigen.


17.12.2015, 31:47

Frage: Gibt es Probleme wegen doppelten Inhalten, wenn ich eine Seite für Deutschland, Österreich und die Schweiz anbieten will und dabei je Land die entsprechende TLD oder Subdomain nutze. Was muss ich dabei beachten?

Antwort: Qualitätsprobleme sollte es deswegen nicht geben. Aber wenn ihr die Seiten vervielfacht, dann müssen wir das crawlen und indexieren und die Signale aufbauen. Es kann also auch einfacher sein, alles auf einer starken Seite zu haben. Da gibt es keine Antwort, die für alle funktioniert.


01.12.2015, 56:04

Frage: Was ist, wenn eine Website viele Seiten mit ähnlichen Produkten hat? Und Content? Hat das Einfluss auf die Rankings der gesamten Website? Z. B. Produkte für verschiedene Modelle und Produktionsjahre.

Antwort: Das hört sich in Ordnung an. Es ist nichts, was ich künstlich unterdrücken würde. Es könnte Sinn ergeben, eine Seite zu erstellen, auf der die verschiedenen Variationen des Produktes gelistet werden.


06.11.2015, 39:07

Frage: Sorgt Syndicated Content für Probleme bzw. eine Bestrafung?

Antwort: Nicht unbedingt, wir haben keinen DC Penalty dafür. Aber wenn deine ganze Seite nur aus Inhalten von anderen Seiten besteht, dann verbringen wir unter Umständen nicht so viel Zeit auf deiner Seite, sondern auf den Seiten der Quellen. Übertreib es nicht, auch wenn wir dafür keine Penalties verteilen.


06.11.2015, 20:06

Frage: Wenn Google eine Verbindung zwischen zwei Seiten sieht – werden dann beide gerankt oder sucht ihr euch eine aus?

Antwort: Das kommt darauf an. Wenn beide einzigartige Inhalte haben, die es wert sind, gezeigt zu werden, dann werden wir auch beide anzeigen. Aber wenn vieles gleich ist, dann sehen wir das vielleicht und zeigen dann nur eine in den SERPs an.


05.11.2015, 53:12

Frage: Die Seiten (http://goo.gl/kbThzU | http://goo.gl/MWFnPG) fallen seit 2 Monaten erheblich. Leider ist mir ein Grund völlig unklar. Könnten Sie mir auf die Sprünge helfen und mal danach schauen was hier schief läuft?

Antwort: Aus unserer Sicht werden die normal gerankt. Ich kann da nichts Bestimmtes sagen, außer dass die Inhalte sehr gleich sind und man das zusammenklappen könnte.


05.11.2015, 33:46

Frage: Wir hatten ziemlich viel Duplicate Content. Diese URLs geben jetzt einen HTTP 410 Status zurück. In Search Console sieht man, dass diese Seiten noch monatelang aufgerufen werden. Ist das schädlich? Wenn ja, was kann man dagegen machen?

Antwort: Das ist eigentlich normal. Wir nehmen die URLs aus dem Index, crawlen sie aber immer mal wieder, um sicherzugehen, dass wir nichts verpassen. Es kann ja immer mal sein, dass Seiten einmal wiederkommen. Wenn das für euch problematisch ist, dann könnt ihr mit robots.txt arbeiten und diese Teile der Seite blockieren. Aber für die normale Suche ist es kein Problem, wenn wir es immer mal wieder versuchen und dann 404 oder 410 sehen.


05.11.2015, 25:13

Frage: Wir wollen Duplicate Content durch URL Manipulationen vermeiden. Der Plan: künftig enden Kategorieseiten mit / , Produktseiten ohne / (per Canonical und Redirects für .html htm…). Allerdings wird dadurch der Pagespeed schlechter (Prüfschleife). Sinnvoll?

Antwort: Vielleicht, das ist schwierig zu sagen. Ich denke, es macht Sinn, wenn man die Inhalte konzentrieren kann. Auf welche Art ihr das macht, ist euch überlassen. Wenn die Seite dadurch sichtbar langsamer wird, dann wählt eine andere Variante.


15.10.2015, 33:13

Frage: Wie wirken sich Duplikate durch Appspot Proxies und der damit verbundenen Cross Domain Duplicate Content auf das Ranking einer Seite aus? http://goo.gl/74uGVB

Antwort: Inhalte, die noch auf einem Proxy zu finden sind, können auch praktische Gründe haben. Ihr müsst das also nicht technisch umbauen. Zerbrecht euch also nicht den Kopf wegen so etwas. Wenn ihr euch nicht sicher seid, dann schickt mir einen Link und ich schaue mir das mit dem Team einmal an.


15.10.2015, 31:42

Frage: Fremde Webseiten verwenden Inhalte der Mutterseite (Duplicate Content). Die Mutterseite hat den Ursprung der Inhalte. Dann wird die Mutterseite aber auf eine völlig andere Domain umgezogen. Ist die Mutterseite jetzt in der Position DC zu haben?

Antwort: Es gibt auf jeden Fall Duplicate Content. Es ist aber nicht so, dass dies immer zu einer Strafe führt. Das heißt also nicht automatisch, dass die ältere oder die neuere Version angezeigt wird. Wir versuchen, dass relevanteste anzuzeigen – auch wenn es auf einer neuen Domain ist. Meist zeigen wir das Original.


15.10.2015, 07:16

Frage: Wir sind ein Online-Shop und schreiben für jedes Produkt unique Produktbeschreibungen. Vor kurzem haben wir angefangen, auch über Amazon zu verkaufen, wo dann die gleichen Beschreibungen stehen, also Duplicated Content entsteht. Wie problematisch ist das?

Antwort: Wenn jemand spezifisch danach sucht, dann werden wir das erkennen und uns überlegen, ob wir nur eine Seite anzeigen. Grundsätzlich gibt es dafür keine Strafe oder Abstufung, und die Kunden sollten ja sowieso bei euch kaufen – entweder hier oder da. Das müsst ihr also nicht künstlich vermeiden, das ist ein normales Verhalten. Wir stellen die Relevanz in den SERPs sicher, indem wir immer abwägen, was wir zeigen.


25.09.2015, 05:28

Frage: Wir haben b2b Seiten mit Produktinformationen und Pressemitteilungen für Werber. Sollten diese bearbeitet werden, weil es sonst zu DC auf mehreren Seiten führt?

Antwort: Versucht einfach, Maß zu halten. Wenn ihr Pressemitteilungen braucht, dann nutzt sie – aber nicht zum Linkaufbau oder für erhoffte SEO-Vorteile.


25.09.2015, 01:57

Frage: Wenn eine Firma mit derselben Firmenbeschreibung (etwa 200 Wörter) in Verzeichnissen eingetragen wird: Ist dies DC oder muss die Beschreibung sogar identisch sein?

Antwort: Technisch gesehen ist das DC, aber es ist nichts, was wir als Problem ansehen würden. Wir werden versuchen, die passendste Quelle in den SERPs zu zeigen – aber nutzt es nicht zu oft.


25.09.2015, 01:01

Frage: Uns ist eine Seite aufgefallen, die Traffic durch Syndicated Content erhält. Obwohl diese Seite die Inhalte nicht selbst erstellt hat, rankt sie sehr gut. Müssen wir uns um Duplicate Content Penalties Sorgen machen?

Antwort: Das ist nichts, wo ihr euch wegen DC Penalties sorgen müsst. Dies wäre nur der Fall, wenn eine Seite nur Inhalte von anderen nutzt, ohne jemals etwas Eigenes zu haben. Seid also vorsichtig, wie viel Syndicated Content ihr nutzt.


24.09.2015, 32:29

Frage: Ich zeige als Affiliate “5 Produkte + allg. Infos” zu einer Suchanfrage. Darf der gleiche Text bei einer Suchanfrage “Produkt + Marke” erscheinen oder gilt es dann als interner DC? Wie viel Text darf intern DC sein, wenn es für den User Sinn macht?

Antwort: Wir sehen das wohl als DC, aber es ist nicht so, dass wir die Seite deshalb als schlechter sehen. Wir indexieren die Seite und zeigen dann nur eine der Seiten in den Suchergebnissen – hoffentlich die relevanteste. In so einem Fall kann DC Sinn machen.


24.09.2015, 00:30

Frage: Beschreibungen in Verzeichnissen sind meist gleich, so auch in G+. Ist das ein DC Problem?

Antwort: Nein, wir wählen dann eine der Seiten aus. Es ist zwar DC, man muss es aber nicht um jeden Preis vermeiden. Es führt zu keinem Problem für eure Seite.


08.09.2015, 11:56

Frage: Ist es sicher, bereits verwendeten Content, der sich auf 301er oder 404er Seiten befindet, zu nutzen? Wir bauen unsere Seitenstruktur um und haben sehr viel nützlichen Content, den wir behalten möchten, aber wir möchten uns natürlich keinen Penalty für Duplicate Content einhandeln.

Antwort: Es gibt keinen Penalty für Duplicate Content. Es ist legitim, Content auf einer neu gestalteten Website zu nutzen, wenn dieser Content gut ist.


28.08.2015, 02:25

Frage: Eine Website mit 190.000 Seiten ist – ohne Erlaubnis – kopiert worden. Hat der so entstandene Duplicate Content Einfluss auf die Rankings der Originalwebsite?

Antwort: Das ist kein Problem. Google ist ziemlich gut darin, festzustellen, welche Website das Original ist und zeigt diese dann auch in den Suchergebnissen an.


27.08.2015, 22:56

Frage: Wir haben Google Pagespeed integriert. Kompliziertere Servereinstellungen waren notwendig. Ein Resultat daraus ist, das Bilder nun mit & ohne www aufrufbar sind (Duplicate Content). In Search Console wurde die preferierte Domain mit www eingetragen. Reicht das?

Antwort: In der Regel reicht das aus. Google versucht, herauszufinden, welche Version auf der Website eingebunden wird.


27.08.2015, 20:03

Frage: Thema DC bei Master-Slave Artikeln: wie optimal vermeiden? Slaves haben eigene Seite. 1) Farbe (Dosengröße, Farbton): Beschreibung gleich. 2) Fahrräder: Modell mit Größenoption: Scott Aspect 740 RX-LH Optimierungsziel ist Modell (Scott Aspect 740)

Antwort: Man kann diese Seiten indexieren lassen, man kann aber auch mit dem Canonical arbeiten.


14.08.2015, 38:38

Frage: Da du es erwähnt hast – Buch Beschreibungen werden oft im ganzen Web genutzt. Wie geht Google damit um? Gilt das als Duplicate Content?

Antwort: Wir erkennen, dass ein bestimmter Abschnitt des Textes Duplicate Content ist. Die Page wird trotzdem indexiert und Google erkennt, dass diese Seite für ein bestimmtes Buch ist, dass es Duplicate Content gibt und dass dort auch einzigartiger Content vorhanden ist. Wenn ein Besucher nach etwas sucht, das Teil des DC Blocks ist, dann erkennt Google, dass es diesen Inhalt im Web häufig gibt und zeigt in den SERPs nicht alle Ergebnisse, sondern nur das, was Google als bestes Ergebnis für den Suchenden empfindet.


11.08.2015, 21:49

Frage: Würden folgende URLs als Duplicate Content zählen:

domain.com/product/item-25 <- reguläres englisches Produkt

domain.com/es/product/item-25 <- dasselbe Produkt auf Spanisch

Antwort: Übersetzungen sind kein Duplicate Content. Sobald etwas übersetzt wird, zählt es als einzigartig. Aber ein Hreflang kann uns helfen, bei Suchanfragen die jeweils passende Seite anzuzeigen.


31.07.2015, 12:36

Frage: Wir haben entdeckt, dass etwa 10 Websites unsere Website kopiert haben (Inhalt, Bilder, Text). Was würdest du ins diesem Falle empfehlen? Wenn die Websites uns alle als Original verlinken – ist das okay? Oder sollten wir die Websites mit Hilfe der DMCA schließen lassen?

Antwort: Ich kann keine Rechtsberatung geben. Google versucht kopierte Inhalte / gescrapte Websites zu erkennen und die Original-Website zu ranken.


31.07.2015, 10:29

Frage: Ich möchte bitte wissen, ob es eine spezielle Art und Weise gibt, Google mitzuteilen, dass wir auf einigen Seiten gesammelten Content bereitstellen? Wir haben bisher die Googleon- und Googleoff-Tags genutzt, da wir vermuten, dass wir für Duplicate Content einen Penalty erhalten haben.

Antwort: Der Googleon-Tag und Googleoff-Tag sind für die Google Search Appliance, sie haben keinerlei Auswirkungen auf Search. Das hat nur eine Auswirkung, wenn eine eigene Suchmaschine damit betrieben wird. Wir versuchen, gesammelten Content zu ignorieren, da dieser aus der Sicht von Google keinen großen Mehrwert bietet. Im Prinzip sollte der Aggregated Content nicht markiert werden – es sollte für einzigartigen Content gesorgt werden.


03.07.2015, 31:41

Frage: Wir nutzen Parameter zum Campaign Tracking. Ist es DC, wenn die Parameter auf jeder Seite einzigartig sind, die Inhalte aber identisch?

Antwort: Technisch gesehen ist das DC, aber in der Praxis ist das kein Problem. Wir können das meist herausfiltern, bevor wir es indexieren. Und wenn das nicht klappt, dann klappt es, bevor wir es in den Ergebnissen zeigen. Wir crawlen die Parameter aber nur, wenn sie in der URL stehen. Ihr könnt uns durch die Settings in Analytics vom Crawlen abhalten.


30.06.2015, 21:45

Frage: Was sollen wir mit doppelten Seiten – wie WordPress Autor Pagination Posts, machen? Sollen wir sie auf Noindex, Follow stellen, oder nur ein Canonical-Tag in die Hauptpagination einfügen?

Antwort: Das könnt ihr machen, wie ihr wollt. Wir versuchen, die Seiten zu indexieren – wenn ihr es also für guten Content haltet, dann lasst das geschehen. Ist es nur eine Kopie anderer Inhalte, dann verhindert die Indexierung.


19.06.2015, 35:05

Frage: Wir haben zwei zu 100% identische Websites auf zwei Domains (geschäftliche Gründe). Eine Website rankt auf der #1 für Markenkeywords, die andere Website hat einen Penalty für Thin Content erhalten und rankt nur im Bereich 50+. Ist der 100 % duplikate Inhalt Grund für diesen Penalty?

Antwort: Das sollte eigentlich nicht der Fall sein und ist kein Grund für eine manuelle Abstrafung. Wenn es sich um eine 100%ige Kopie handelt, sollte darüber nachgedacht werden, ob es nicht sinnvoll wäre, den Canonical-Tag einzusetzen – dann wird nur eine der Websites in den Suchergebnissen angezeigt. Betreffend des Thin Content Penalties: Hier würde ich mir eher Sorgen machen, dass der Inhalt insgesamt das Problem ist und nicht die Tatsache, dass die gleichen Inhalte auf zwei Domains zu finden sind. Das kann z. B. passieren, wenn auf einer Website News zusammengetragen werden, es aber nur wenig eigene Inhalte gibt.


05.06.2015, 17:07

Frage: Zählt Google die mehrfache Nutzung eines Bildes mit viel Text auf derselben Domain als DC? Wir haben dies nur aus Gründen der User Experience gemacht, da 95% unserer organischen Besucher es nicht finden würden, wenn wir es nur auf eine Seite packen.

Antwort: Ich bin mir nicht sicher, was du dort machst. Wir sehen das grundsätzlich als Bilder, aber wenn es beispielsweise eine Art Werbung ist – deinen Inhalten vorgeschaltet – dann kann es problematisch werden. Es gibt aber auch sinnvolle Gründe dafür, so etwas zu tun, also kann ich keine pauschale Aussage machen.

Inhaltsverzeichnis

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT