Cloaking

Werbung

 


02.12.2016, 59:21

Frage: Wir haben viel nutzergenerierte Inhalte und dadurch viele Spammer. Wir blocken dann viele IPs und haben auch mal versucht, ganze Länder zu blockieren – denn unsere Seite ist sehr Local ausgerichtet. Wir haben dann unsere Seite geklont und eine Liste mit Spam Ländern erstellt. US und Canada Nutzer wurden dann auf die richtige Seite geleitet, während die anderen eine Seite ohne gute Inhalte vorgesetzt bekommen haben. Das war dann Cloaking, hat aber funktioniert.

Antwort: Wir crawlen vor allem aus den USA, es gibt aber Ausnahmen wie China und Südkorea. Wir müssen also das sehen, was eure anderen Nutzer sehen. Und wenn eure Nutzer alle aus den USA kommen, ist das ok. Ihr könnt also auch andere Länder blockieren. Seid aber vorsichtig, denn Nutzer reisen und wollen dann vielleicht auch im Ausland eure Inhalte sehen. Und das geht auch nur, wenn ihr euch auf die USA fokussiert – denn wenn ihr die USA blockiert, dann sieht auch Googlebot nichts.


21.10.2016, 48:17

Frage: Wir haben Probleme mit unserer Indexierung. Kann das daran liegen, dass wir eine Altersabfrage vorgeschaltet haben? Der Nutzer sieht diese, Googlebot sieht aber die Inhalte dahinter. Ist das Cloaking?

Antwort: Da bräuchte ich mal eine URL, um mir das mal anzuschauen. Wir arbeiten gerade an einem Dokument, um solche rechtlichen Interstitials richtig einzubauen. Denn ihr müsst sie ja zeigen, und wir wollen ja trotzdem die Inhalte sehen.


25.08.2016, 09:23

Frage: Hallo John, wie geht Google mit prerender.io (angular JS SEO) aufgebauten Webseiten um, welche komplett auf JavaScript bassieren & nur für Google eine statische HTML Ausgabe erstellen? Werden diese Seiten gleich als Cloacking eingestuft? Ranking Chancen?

Antwort: Grundsätzlich sehen unsere Ingenieure das als Cloaking an, da wir andere Dinge sehen als der Nutzer. Das kann dann unter Umständen zu Problemen führen. Vielleicht sehen wir dann die internen Links nicht und können die Seite nicht richtig crawlen. Aber an sich sind diese Techniken gut ausgereift, sodass wir alles sehen können. Das meiste können wir auch gut selbst rendern, so dass ihr das gar nicht unbedingt auf der Seite braucht. Wir nutzen mittlerweile auch viel das isomorphe Rendern. Ich glaube bei Angular2 ist das relativ einfach zu machen.


08.07.2016, 39:00

Frage: Wenn man zomato.com das erste Mal öffnet, dann findet es deinen Aufenthaltsort heraus und zeigt Inhalte für die passende Region. Aber wenn man den Chache ansieht, dann sieht man eine Location Picker Page. Ist das nicht Cloaking?

Antwort: Ich kenne die Website nicht. Manchmal macht es Sinn, personalisierte Inhalte auf Grundlage der Location zu bieten. Googlebot muss aber als Erstnutzer behandelt werden und das richtige sehen. Wenn ihr aber in den USA und in Europa unterschiedliche Inhalte anzeigt, dann werden wir die Dinge für Europa wahrscheinlich nicht sehen, da wir meistens aus den USA crawlen. Wenn da gute Inhalte verloren gehen, dann solltet ihr das auf einer separaten Website zeigen, damit wir das auch sehen können.


24.03.2016, 12:39

Frage: Wir kennen einige Nutzerdaten von nicht eingeloggten Nutzern. Können wir diesen Nutzern individuelle Inhalte ausspielen, ohne dass es Cloaking wird?

Antwort: Passt auf, dass ihr das nicht zu weit treibt. Wenn Nutzer eingeloggt sind, dann könnt ihr Ihnen etwas anderes bieten als nicht eingeloggten Nutzern. Das geht z.B. bei Mailclienten. Geht es nur über Cookies, dann seid lieber vorsichtig. Denn der durchschnittliche Nutzer sollte das sehen, was Googlebot sieht. Haltet die Hauptinhalte also immer gleich.


08.03.2016, 43:11

Frage: Wir wollen auf einer Landingpage A/B Tests starten. Dabei wollen wir eine Art Inhalte für neue Nutzer ausspielen und eine andere Art für wiederkehrende Nutzer. Würde Google das als Cloaking ansehen?

Antwort: Wir würden die Inhalte für wiederkehrende Nutzer nicht sehen, da Googlebot keine Cookies speichert. Wenn es dort also spannende Sachen gibt, würden wir das verpassen – ich weiß nicht, ob das in eurem Interesse ist. Das ist außerdem kein traditioneller A/B Test, da ihr nicht dieselben Nutzergruppen vergleicht. Ich weiß nicht, ob ihr dabei also sinnvolle Ergebnisse sehen würdet.


29.12.2015, 19:31

Frage: Um mit Scrapern umgehen zu können, würde ich gerne ein x-robots Tag zu meiner XML Sitemap hinzufügen und nur dem Googlebot und anderen vertrauenswürdigen Crawlern das Crawlen erlauben. Könnte das als Cloaking angesehen werden?

Antwort: Das sollte kein Problem sein. Sitemap Files können auch gecloaked werden, denn diese Inhalte sind ja nur für Suchmaschinen. Und wenn es welche sind, denen ihr nicht vertraut, dann könnt ihr ihnen eine not allowed Seite präsentieren.


17.11.2015, 34:48

Frage: Einige Website blockieren Länder mittels der IP, aber gleichzeitig ranken sie in diesen Ländern in den Top 10…

Antwort: Google hat nur die Bedingung, dass der Googlebot die gleichen Inhalte sieht, wie der Nutzer sie sehen würde. Generell ist es so, dass wir den Content sehen können müssen, den US Nutzer sehen würden, da wir aus den USA crawlen. Ansonsten würden wir das als Cloaking ansehen und das wiederum ist gegen unsere Richtlinien. Wenn also z. B. Nutzer in Deutschland die Inhalte nicht sehen können, der Googlebot aber aus den USA crawlt, wo die Nutzer den Content sehen können, dann würden wir das ermitteln und den Nutzern zeigen, auch in Deutschland. Auch wenn die Nutzer beim Betreten der Website die Inhalte eventuell nicht sehen können. Der Grund dafür ist praktischer Natur: Wir können nicht alle Websites der Welt checken. Wir können auch nicht wissen, welche Websites von welchen Ländern aus erreichbar sind. Da Google aus den USA crawlt, ist es problematisch, wenn eine Website in den USA nicht aufgerufen werden kann.


27.10.2015, 52:43

Frage: Erhält eine Website einen Penalty für Cloaking, wenn Google das JavaScript anders interpretiert als die HTML Variante?

Antwort: Nein, das führt nicht zu einem Penalty. Wir sehen manchmal, dass Websites das falsch machen und eine Version bereitstellen, die sehr reduziert ist. Das ist erst problematisch, wenn sie keine Navigation enthält, sondern nur den Text. Dann kann Google die Website nicht korrekt crawlen.


27.10.2015, 42:21

Frage: Wenn wir via JavaScript lokalen Content bereitstellen (basierend auf der Location des Users) nachdem eine Page geladen wurde: Ist das Cloaking, da die Website diese Information normalerweise nicht beinhaltet?

Antwort: Das ist kein Cloaking. Es könnte allerdings sein, dass Google den Content nicht separat indexieren kann.


11.09.2015, 44:20

Frage: Können wir Schema so einstellen, dass es nur den Bots angezeigt wird, um die Ladezeiten gering zu halten?

Antwort: Wir empfehlen, kein Cloaking zu nutzen. Wenn möglich, zeigt euren Nutzern also dieselben Markups wie dem Googlebot.


11.09.2015, 10:25

Frage: Wenn wir JavaScript für Seiten nutzen und von dort 301-Weiterleitungen verwenden, und dann durch die Nutzung von lokalen H1/H2-Überschriften dafür sorgen, dass sie lokaler wirken… gilt das als Cloaking?

Antwort: Das ist schwierig zu sagen. Generell ist das eine Möglichkeit, wenn du denkst, dass das für Nutzer Sinn ergibt. Man sollte aber im Hinterkopf behalten, dass Google JavaScript auch crawlt und dementsprechend sehen kann, was da mit JS gemacht wird.


11.09.2015, 08:31

Frage: Ist es okay, unterschiedliches HTML und unterschiedlichen Content für verschiedene mobilen Browser zu verwenden, auch wenn die URL gleich ist? Beispiel: HTML für Safari ist unterscheidet sich zu HTML für Chrome.

Antwort: Generell würde ich eine solche Unterscheidung eher vermeiden. Für Google ist es wichtig, dass der primäre Content auf diesen Seiten äquivalent ist. Es dürfte schwer sein, herauszufinden, was der Googlebot sieht, wenn er crawlt. Die Wartung und Pflege einer solchen Website dürfte sehr aufwendig sein. Caching könnte auch ein Problem sein.


28.08.2015, 42:13

Frage: Kann ich – für das schnellere Crawling – dem Googlebot eine Textversion einer Website anbieten und dem User die gleiche Website inklusive CSS und JavaScript anbieten? Ist das Cloaking?

Antwort: Ja, das ist Cloaking. Wenn für Google eine saubere Version bereitgestellt wird, ist das Cloaking. Davon raten wir ab. Es ist empfehlenswert, dem Googlebot die gleiche Websiteversion anzubieten wie den Nutzern.


19.06.2015, 41:33

Frage: Wenn ich das Hauptkeyword zahlreich auf meiner Website platziere und dabei mit weißer Schrift auf weißem Hintergrund arbeitet, um dafür zu sorgen, dass die Keyworddichte steigt, ohne es unnötig häufig im Artikel zu nutzen – fange ich mir dann einen Penalty ein? Funktioniert das?

Antwort: Es geht hier im Prinzip um versteckten Text. Versteckter Text und Keywordstuffing verstoßen gegen die Google Webmaster Richtlinien. Ich würde empfehlen, diese Sachen nicht anzuwenden. Es gibt Algorithmen, die diese Art von Techniken automatisch erkennen: Diese Manipulationen werden also keine positiven Auswirkungen auf das Ranking haben. Es ist Zeitverschwendung, diese Techniken anzuwenden. Das sind Old School SEO Tricks, die vielleicht vor zehn bis 15 Jahren funktioniert haben. Heutzutage funktionieren sie nicht mehr.

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT