Werbung

John Mueller hielt heute einen weiteren Webmaster Hangout auf Deutsch ab. Wir haben die Diskussionen wie immer für euch mitgeschrieben. Viel Spaß beim Lesen!

 

Thema: Duplicate Content

Zeit: 00:30

Frage: Beschreibungen in Verzeichnissen sind meist gleich, so auch in G+. Ist das ein DC Problem?

Antwort: Nein, wir wählen dann eine der Seiten aus. Es ist zwar DC, man muss es aber nicht um jeden Preis vermeiden. Es führt zu keinem Problem für eure Seite.

 

Thema: HTTPS

Zeit: 03:33

Frage: Hallo John, wir haben gestern von http:// auf https:// umgestellt und bekommen nun die Anzeige, dass die robots.txt das Crawling verhindert (gestern bots kurz ausgesperrt). Verschwindet diese Meldung oder ist tatsächlich ein Fehler da (schornsteinmarkt.de)?

Antwort: Es scheint jetzt gut zu funktionieren. Aber Googlebot braucht vielleicht einen Moment, bis sich alles eingependelt hat.

 

Thema: Mobil

Zeit: 04:22

Frage: Kann eine mobile Webseite, welche in den Desktop SERPs aufkommt, also m.example.com die Rankings der Desktop Seite www.example.com negativ beeinflussen und wie kann man sicher gehen, dass m.example.com nicht im Desktop Search aufkommt?

Antwort: Wenn wir die Verbindung zwischen Desktop und Mobil erkennen, dann zeigen wir nur eine. Wenn beide angezeigt werden, dann kann man die Verknüpfung wohl nicht sauber sehen. Setzt also den Canonical, damit wir wissen, dass die Seiten gleich sind. Es hätte keinen negativen Einfluss, aber für den Benutzer ist es nicht hilfreich, wenn die falsche Version angezeigt wird.

 

Thema: Date Published

Zeit: 06:08
Frage: Artikel, die wir als zugehörig aus aktuellen Artikeln verlinken, heben wir nun mitsamt ihres VÖ-Datums hervor. Warum greift die Google Suche das Datum des verlinkten Artikels statt das mit schema.org als date published ausgezeichnete Datum des Artikels?

Antwort: Wir versuchen, das richtige Datum zu erkennen. Manchmal macht es Sinn, das wir das Änderungsdatum oder das Erstellungsdatum nehmen. Wir nehmen nicht immer dasselbe, aber wenn wir es total falsch interpretieren, dann gebt mir die Beispiele und ich leite es weiter.

 

Thema: JSON-LD

Zeit: 07:18

Frage: Hi, werden strukturierte Daten für Bewertungen in Javascript generell nicht mehr unterstützt, bis JSON-LD auch für Bewertungen verfügbar ist? Die Rich Snippets Sterne werden weder mit RDFa noch mit Microformats noch angezeigt….? Danke für jeden Tipp!

Antwort: Prinzipiell weiß ich das nicht. Wir unterstützen JSON-LD für einige Markups, aber noch nicht alle. Wir arbeiten aber daran, dass es für alle funktioniert. Wenn das Snippet gar nicht mehr gezeigt wird, dann ist es entweder falsch eingebaut oder die Qualität eurer Seite ist nicht gut genug.

 

Thema: Canonical

Zeit: 08:58

Frage: Momentan haben wir ein Subfolder System .com/de und werden nächstes Monat die Seite zu .de migrieren. Ist es besser auf der alten Seite Canonical Tags zu der neuen Seite zu setzen oder ab Tag 1 gleich die 301 Redirects URL by URL zu setzen?

Antwort: Im Grunde genommen ist das euch überlassen. Wenn man einen Domainwechsel macht, würde ich von Anfang an den Redirect einsetzen. Das können wir klarer erkennen und schneller verarbeiten. Das Canonical ist etwas schwammiger.

 

Thema: Abstrafungen

Zeit: 10:51

Frage: Wir (Geschenkidee.de) sind seit 6 Monaten mit unserem Shop live in England unter www.gifts.co.uk. Die Domain scheint jedoch durch den Vorbesitzer abgestraft und weder Disawov Files noch andere Maßnahmen greifen. Wie kann uns hier geholfen werden?

Antwort: Mit der Domain sind große Probleme bezüglich Webspam und Links verbunden, das kann noch mehr als ein halbes Jahr dauern, bis das sauber verarbeitet wurde. Das ist für euch erst mal problematisch, vielleicht solltet ihr für die Zwischenzeit eine andere Lösung finden. Ein Domainwechsel wird schwierig, aber es wird noch dauern, bis das bereinigt ist, da es von Algorithmen kommt und nicht von manuellen Maßnahmen. Es gibt keine Möglichkeit zu einer Reconsideration Request, ihr müsst disavowen und auf das nächste Update des entsprechenden Algorithmus warten. Vielleicht kann man die Inhalte in der Zwischenzeit woanders zur Verfügung stellen, um überhaupt sichtbar zu sein. Manche Algorithmen brauchen Zeit, bis sie wieder laufen (z.B. der Pinguin).

 

Thema: Fetch as Google

Zeit: 13:05

Frage: Für http://goo.gl/2NNB7R nutzten wir Fetch as Google, die Page ist inzwischen gelöscht. Uns irritiert die in SC angegebene URL für die Weiterleitung. Diese unterscheidet sich von der tatsächlichen und richtigen URL des Redirects. Hast Du eine Erklärung?

Antwort: Das muss ich mir mal in Ruhe anschauen. Wir arbeiten das JavaScript ab, und das kann für Googlebot immer mal zu Verwirrungen führen – beispielsweise wird er vielleicht als zu alter Browser erkannt. Vielleicht müsst ihr für Googlebot etwas Spezielles machen, aber ich schaue mir das mal an.

 

Thema: Referral Spam

Zeit: 14:59

Frage: Es wurde angekündigt, dass Google stärker gegen Referral Spam vorgeht. Dies ist für mich nicht erkennbar. Ich sehe eine Zunahme von Spammern – die Filtermöglichkeiten zum Ausschluss der Verweise oder Kampagnenquelle funktionieren selten. Ein Tipp?

Antwort: Das bezieht sich, denke ich, auf Analytics. Ich weiß, dass das Team an dem Problem arbeitet, aber da ich nicht in diesem Team bin, kann ich dazu nichts Genaueres sagen. Postet das vielleicht mal im Analytics Forum.

 

Thema: Breadcrumbs

Zeit: 15:59
Frage: Hi John, wie ist der beste Weg, Breadcrumbs auszuzeichnen? Bisher sollte das immer via data-vocabulary gemacht werden. Kann man für Google inzwischen auch schema.org nutzen, oder sollte man bei data-vocabulary bleiben? Vielen Dank!

Antwort: Das schema.org Markup für Breadcrumbs funktioniert für Google und sollte problemlos laufen. Aber achtet darauf, dass ihr das einheitlich macht – beide Versionen funktionieren gleich gut.

 

Thema: PageRank

Zeit: 17:00

Frage: Wieviel “link juice/page rank” leitet ein Canonical Tag weiter im Vergleich zu einem 301 Redirect ?

Antwort: Solche Fragen sind für uns schwierig zu beantworten, da mehrere Faktoren da rein spielen – und PageRank auch nur ein Faktor ist. Schaut einfach, dass es bei URL-Wechseln einen Redirect gibt, das ist sauberer. Das Canonical macht eher in bestimmten Situationen Sinn. Also achtet nicht auf Dinge wie PageRank, sondern beachtet das Gesamtbild.

 

Thema: 410

Zeit: 19:12

Frage: Warum werden URLs mit 410 von Google im Webmaster als Crawling Fehler ausgewiesen. Man sagt mit dem 410 doch, diese Seite gibt es nicht mehr. Das ist dann doch kein Fehler, oder?

Antwort: Aus unserer Sicht ist es ein Crawlingfehler, da wir die Inhalte nicht bekommen. Wir zeigen das an, falls es versehentlich passiert ist und der Webmaster dann Bescheid weiß – es ist kein Kriterium, dass eure Seite schlechter macht. Ihr müsst da nichts ändern.

 

Thema: Index

Zeit: 20:22

Frage: Warum ist es unmöglich, die Seite https://www.college-contact.com/mba in den Google Index zu bekommen? Versuche sie seit zwei Monaten ohne Erfolg manuell an den Index zu schicken, nachdem automatisch auch nichts passiert ist.

Antwort: Bei der URL wurde eingereicht, dass sie nicht in den SERPs erscheinen soll. Da ist also ein Konflikt auf eurer Seite. Wir können sie crawlen und indexieren, zeigen sie aber nicht an. Schaut in die URL Entfernungstools und zieht die Anfrage zurück, dann wird sie in den SERPs erscheinen. In den Entfernungstools werden immer alle Versionen einer Seite auf einmal beachtet, sei es mit oder ohne www oder http oder HTTPS, es werden immer beide rausgenommen.

 

Thema: Mobil

Zeit: 22:44

Frage: Ist das Mobile Friendly Label eine Voraussetzung für die positive Bewertung einer Seite in mobile? Hat das Test Tool eine höhere Aussagekraft?

Antwort: Im Testtool nehmen wir neue Sachen hinzu, beispielsweise um Intertestials zu erkennen. Im Prinzip sollten beide übereinstimmen. Wenn sie nicht übereinstimmen, dann wird meist ein Teil der Inhalte per robots.txt blockiert – beispielsweise JavaScript oder CSS. Das könnt ihr via Fetch as Google feststellen.

 

Thema: Sitelinks

Zeit: 30:18

Frage: Warum werden von mir herunter gestufte Seiten trotzdem in der Google Suche prominent hervorgehoben? Was muss ich tun, damit die herunterklassierten Seiten (z.B. Subdomains mit Log In Funktion für ein geschlossenes Publikum) nicht mehr hervorgehoben werden?

Antwort: Das bezieht sich wohl auf die Sitelinks, die unter den Suchergebnissen angezeigt werden. Da kann man in Search Console eingeben, welche Seiten weniger relevant sind – das heißt aber nicht, dass wir sie dann komplett entfernen. Sie werden aber heruntergestuft – das kann allerdings einige Zeit dauern. Bei Login Seiten kann auch ein Noindex helfen, dann werden sie gar nicht mehr in den SERPs angezeigt. Sollen sie trotzdem erscheinen, nur nicht als Sitelinks, da wird es schwieriger. Wenn nicht, schickt mir Beispiele, dann schaue ich mir das mit dem Team an.

 

Thema: Duplicate Content

Zeit: 32:29

Frage: Ich zeige als Affiliate “5 Produkte + allg. Infos” zu einer Suchanfrage. Darf der gleiche Text bei einer Suchanfrage “Produkt + Marke” erscheinen oder gilt es dann als interner DC? Wie viel Text darf intern DC sein, wenn es für den User Sinn macht?

Antwort: Wir sehen das wohl als DC, aber es ist nicht so, dass wir die Seite deshalb als schlechter sehen. Wir indexieren die Seite und zeigen dann nur eine der Seiten in den Suchergebnissen – hoffentlich die relevanteste. In so einem Fall kann DC Sinn machen.

 

Thema: URL

Zeit: 33:52

Frage: Wie reagiert Google auf nachträglich angepasste Seiten URL, z. B. das Einschieben eines Verzeichnisses?

Antwort: So etwas kann es geben, leitet einfach sauber von der alten auf die neue URL weiter. Ich würde das aber nicht zu oft machen, denn das Verarbeiten solcher Redirects dauert seine Zeit. Wenn es jede Woche anders aussieht, dann verwirrt uns das.

 

Thema: Mehrsprachigkeit

Zeit: 35:03

Frage: Hat es auf das Ranking Einfluss, wenn bei mehrsprachigen Seiten die URL nicht übersetzt ist lediglich die Inhalte und Meta Desc.?

Antwort: Das ist eigentlich kein Problem. Ich würde aber sicherstellen, dass pro Sprachversion eine eindeutige URL besteht. Legt es einfach auf eindeutige Subdomains und geht sicher, dass man die Sprachversionen unterscheiden kann. Wir schauen uns die Seite an und nicht die URL.

 

Thema: Qualität

Zeit: 36:08

Frage: Was macht für Dich eine qualitativ hochwertige Website aus?

Antwort: Das ist fast eine philosophische Frage. Wenn ihr euch nicht sicher seid, schaut euch den Blogpost 23 Fragen zur Qualität einer Webseite an oder macht eine Nutzerstudie, um mögliche Probleme zu finden. Wir machen das mit unseren Seiten auch regelmäßig, um immer eine hohe Qualität zu bieten – auch wenn solche unabhängigen Meinungen vielleicht große Dinge zu Tage fördern, die man vielleicht gar nicht hören will.

 

Thema: Redirect

Zeit: 39:06

Frage: Noch mal zum Redirect/Canonical – hältst du die Überlegung für sinnvoll, Canonicals zu verwenden statt des Redirects – weil es schneller geht und unerfahrenen #neulaendern nicht komisch vorkommt?

Antwort: Ich würde das eher nicht machen, da es ja an sich eine neue URL ist, die dort verwendet wird. Nutzt die Werkzeuge, die zur Verfügung stehen. Bei Canonicals müssen wir zudem beide Seiten crawlen und das dauert länger. Wenn ihr SEO-Wünsche habt, dann setzt eindeutige Signale dafür, damit Googlebot das problemlos erkennen kann.

 

Thema: Mobil

Zeit: 42:04

Frage: Hallo John, wir haben eine mobil optimierte Seite (laut dem mobile Test Tool) jedoch hat Google aufgehört die mobilen URLs in den SERPs anzuzeigen. Das mobile Test Tool zeigt keine Fehler an. Weiterleitungen funktionieren. Woran kann das liegen?

Antwort: Schwer zu sagen, schickt mit mal einen Link, damit ich mir das genauer anschauen kann. Ich tippe mal, dass wir die Verbindung zwischen Desktop und Mobil nicht sauber finden können und die mobile Version deshalb nicht in den SERPs erscheint.

 

Thema: Sonderzeichen

Zeit: 43:16

Frage: Siehst du ein Problem bei Sonderzeichen wie ( oder ) in Bilddateinamen? Also z.B. “martin(links)peter(rechts).jpg”

Antwort: Solange ihr nur Sonderzeichen nehmt, die im Browser funktionieren, ist das kein Problem.

 

Thema: Removal Request

Zeit: 45:50


Frage:
Wenn ein Removal Request das Indizieren blockiert, wie finde ich den entsprechenden Removal Request heraus? Warum wird diese Blockade bei Abruf wie durch Google nicht angezeigt?

Antwort: Fetch as Google ist eher ein technisches Hilfsmittel, keine Diagnose. Aber wir könnten das echt einfügen, es könnte Sinn machen, das auszubauen. Ich würde einfach die verschiedenen Varianten in Search Console aufnehmen. Ihr müsst es ja nur eintragen, der Rest wird in der Regel von selbst verifiziert. Es kann auch Removal Requests von nicht verifizierten Dritten geben, die angenommen werden, wenn es SInn macht.

 

Thema: Seiten tauschen

Zeit: 48:59

Frage: Wie sollen wir vorgehen, wenn wir zwei WordPress Wes, von denen das eine das Hauptweb mit der Index Seite ist, vertauschen möchten, ohne Probleme mit angepassten URL resp. unaufindbaren URLs zu bekommen? Kann Google manuell diese Anpassung verarbeiten?

Antwort: Hierfür haben wir momentan keine Hilfstools, vielleicht braucht ihr eine dritte oder vierte Seite, um dann sauber weiterzuleiten.

 

Thema: Search Console

Zeit: 50:38

Frage: Eine Adressänderung in der SC ist bei Protokolländerungen ja nicht möglich. Müssen wir außer den 301ern noch etwas beachten? Wir haben eine neue Property für die https:// Domain gemacht. Kann es hier zu Konflikten kommen?

Antwort: Das klingt gut, solange das Zertifikat korrekt funktioniert. Ansonsten muss man nicht mehr machen.

 

Thema: Subdomain

Zeit: 51:36

Frage: Eine Subdomain (Wörterbuch) woerterbuch.example.de steht auf <meta name=”robots” content=”noindex,follow” />, um ein Indexfluten zu vermeiden. Können starke Backlinks der Subdomain dennoch auf die Root-Domain vererbt werden? Profitiert die Root-Domain?

Antwort: Es ist schon so, dass Links, die auf diese Seite gehen, weitergegeben werden. Bezüglich Subdomain und Rootdomain ist es schwer zu sagen. Wenn wir feststellen, dass es eine Seite ist, dann behandeln wir sie gleich, andernfalls behandeln wir sie unterschiedlich. Beispielsweise einzelne Subdomains bei Blogspot.

 

Thema: Bildersuche

Zeit: 53:13

Frage: Hallo John, seit einigen Tagen gibt es ja in der deutschen Google Bildersuche den Fehler, dass die Seite wo das Bild enthalten ist, nicht angezeigt wird. z.B. goo.gl/tKzeQt, wie kann man hier vorgehen? Dachte, das wäre schon korrigiert worden.

Antwort: Ich dachte, das wäre korrigiert. Ich werde das nachher mal genauer mit dem Team besprechen. Da gab es vor zwei Wochen mal ein Problem und ich weiß nicht, was der aktuelle Stand ist.

 

Thema: Sitemap

Zeit: 54:12

Frage: Wir erhalten für die sitemap.xml Warnungen, dass die robots.txt Websiten blockiert. Wenn wir sie aber direkt testen, funktionieren sie. Wir haben gestern die Bots kurz aussperren müssen (Sperre aufgehoben). Wie lange dauert es, bis die Anzeige verschwindet?

Antwort: Wir cachen das an einem Tag. Wenn man schnell hin und her wechselt, haben wir vielleicht einen Tag lang gedacht, dass wir nichts crawlen dürfen. Wenn die Blockierungen aufgehoben wurden, dann verschwinden die Fehler beim nächsten Crawlen. Wenn es schnell gehen soll, gebt ein Änderungsdatum in der Sitemap an, dann dauert es 1 – 2 Wochen, bis es sich ändert.

 

 

Thema: Ranking

Zeit: 55:41

Frage: www.mein-gartenshop24.de ist größter Händler für Biohort mit Informationen und Produkten, wie sie kein Anderer hat. Bei dem Suchbegriff “Biohort” erscheinen wir erst auf der 6. oder 7. Seite. Konkurrenten erscheinen deutlich vor uns. Haben Sie einen Rat?

Antwort: Im Ranking gibt es viele Faktoren, daher ist es schwer, hier etwas Genaues zu sagen. Holt euch vielleicht Tipps in den Webmaster Foren.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT