Werbung

Nach dem englischen Transkript hier nun unsere deutsche Übersetzung des gestrigen Webmaster Hangout mit John Mueller. Wie immer hat John zahlreiche interessante Einblicke in das Denken der Suchmaschine Google gegeben und Webmastern bei ihren großen und kleinen Problemen geholfen.

Textbausteine

00:30

Frage: Du sagst, dass Google Textbausteine ignoriert. Auf meiner Seite gibt es einige davon, allerdings separat vom Text. Sind die Textbausteine damit komplett separiert?

Antwort: Wir sehen diese als Teil der Webseite an, aber nicht als primären Content der entsprechenden Seite. Wenn du das auf mehreren Seiten hast, versuchen wir, diese Seiten auf der Basis ihrer Inhalte zu ranken – nicht auf Basis der Textbausteine. Deine Inhalte werden nicht weniger wertvoll, wenn du Textbausteine benutzt.

 

01:48

Frage: ist es sinnvoll, nach den Textbausteinen mit einer H1 anzufangen, damit Google sieht, wo mein eigentlicher Inhalt losgeht?

Antwort: Sicher. Je nach Aufbau deiner Seite kann es jedoch passieren, dass wir die Textbausteine (wenn sie oben stehen) als Description verwenden. Daher solltest du immer darauf achten, eine gute Meta-Description zu haben, um dies zu verhindern.

 

Links

03:10

Frage: Wir haben viele Links durch eine Sitemap an unsere HTTPS-Seite gebunden und besitzen die dazu gehörende App-Seite in Search Console. Es sind keine Links im Index und alles wird als Content Mismatch oder Interner Google-Fehler angezeigt. Kann das daran liegen, dass wir Video-Inhalte haben?

Antwort: Ich denke, so ist es. Wahrscheinlich versuchen wir, die Inhalte mit der App zu verbinden. Aber da es kaum text gibt, sehen wir es als Mismatch. Ich werde das an das Team weiterleiten.

 

09:27

Frage: Wie sehr entwickeln sich Backlinks als primäre Quelle in der SEO?

Antwort:Wir nutzen sie in den Rankings, aber es gibt keine feste Regel wie “Immer 25% des Rankings sind Links”. Ihr müsst immer die richtige Balance zwischen allen Faktoren finden und das tun, was für eure Seite sinnvoll ist.

 

24:43

Frage: Einer unserer Kunden hat versehentlich alle Backlinks zu seiner Seite Disavowed. Wie können wir das in Search Console bereinigen. Müssen wir eine Neueinreichung machen Google anrufen damit sie sich darum kümmern?

Antwort: Ihr könnt ein leeres Disavow-File in Search Console hochladen – das wird dann über alle vorherigen gestellt. In eurem Fall könnt ihr auch eines hochladen, das nur die Links enthält, die wirklich disavowed werden sollten. Das wird dann automatisch durchgeführt.

25:25

Frage: Wenn jemand versehentlich zu viele Links Disavowed hat, wird dies doch keinen Effekt haben, wenn er schnell ein neues File hochlädt bevor es ein Update gab, oder?

Antwort: Es sollte keinen großen Effekt haben. Aber alle URLs, die in der Zwischenzeit gecrawlt wurden, wurden dann bereits Disavowed. Diese werden dann bald erneut gecrawlt, also sollte es keine großen Änderungen in der Suche geben.

26:10

Frage: Aber eines eurer Patente sagt, dass wenn man eine Seite erneut verlinkt, es weniger Wert hat.

Antwort: Ich habe keine Ahnung, von welchem Patent du sprichst. Aber wir haben viele Patente, und nur weil wir eines haben heißt es nicht, dass wir es auch nutzen. Es ist also immer interessant, sich die Patente anzugucken, aber geht nicht davon aus dass wir alles machen was darin steht.

 

Hrflang

04:52

Frage: Wir haben eine .com und eine .co.uk Domain. Die erste rankt in der UK-Suche und die zweite in der US-Suche. Ich habe das Hreflang mit einem Canonical-Tag ersetzt, und sofort hat die .com Seite in der UK-Suche besser gerankt als die .co.uk Seite. Wie kann das passieren, da doch eigentlich die .co.uk Seite in der UK-Suche besser ranken sollte.? Soll ich es so lassen oder das Hreflang wieder einfügen?

Antwort: Das muss ich mir mal anschauen, bitte schicke mir die Dokumentation zu damit ich dir etwas sinnvolles empfehlen kann.

 

Structured Markup Spam

07:00

Frage: Wenn man eine Manual Action wegen Spam in den strukturierten Markups bekommt, wird diese das Ranking beeinflussen oder nur das Rich Snippet entfernen?

Antwort: Es geht hier nur um das Rich Snippet. Diese geben keinen Ranking-Boost, daher würde es auch keinen Sinn machen, wenn es negativen Einfluss auf das Ranking hätte. Wir schalten in diesem Fall nur das Rich Snippet ab, bis wir uns sicher sind, dass wir dem Markup wieder vertrauen können.

 

Search Console

07:58

Frage: Wir haben mehrere HTTPS Domains, die auf verschiedene Länder abzielen. Also müssen wir in Search Console je zwei Versionen für http und HTTPS erstellen, oder?

Antwort: Das könnt ihr machen, wenn ihr wollt. Es macht vor allem Sinn, wenn ihr sicher gehen wollt, dass keine Daten fehlen. Aber normalerweise ist eine Version im Index, und das ist die, auf die ihr euch konzentrieren solltet.

 

37:34

Frage: Wir haben das Limit der anzeigbaren Webseiten in Search Console erreicht. An wen müssen wir uns wenden, um das Limit zu erhöhen?

Antwort: Es gibt ein Limit von 1000 Webseiten in Search Console. Wenn ihr das erreicht habt, braucht ihr einen weiteren Account. Oft macht es Sinn, einen Account als Archiv zu nutzen.

 

Unique Content

10:45

Frage: Wenn eine Firma in Hong Kong sitzt und eine .com und eine .hk Domain hat, macht es dann Sinn, für die .hk Domain neuen Content zu erstellen, der direkt auf diese Zielgruppe zugeschnitten ist?

Antwort: Das klingt nach einem guten Plan. Wenn ihr etwas erstellen könnt, das für eine lokale Zielgruppe gut funktioniert, dann macht das. Bedenkt aber immer, wie viel Arbeit so etwas macht.

 

Penalty

13:34

Frage: Wir haben eine Seite für Rezepte, und haben seit der letzten April_Woche 50% des Traffic verloren. Wir betreiben keinen Linkaufbau, aber einige Aggregatoren verlinken automatisch zu uns. Könnte dies der Grund für den Penalty sein?

Antwort: Das kann ich nicht mit Sicherheit sagen, ohne die Seite gesehen zu haben. Aber grundsätzlich sind Links von Aggregatoren kein Problem, da wir sie meist ignorieren. Ihr solltet daher kritisch hinterfragen, was ihr an eurer Seite verbessern könnt – beispielsweise die ausgehenden Links.

 

Interne Links

15:08

Frage: Wie sieht eine gute Seitenstruktur für SEO aus? Sollte man regelmäßig zu den wichtigsten Seiten interne Links setzen?

Antwort: Das könnt ihr strukturieren, wie ihr wollt. Aber eine klar aufgebaute Seite mit semantischer Struktur ist sowohl für Nutzer als auch Suchmaschinen zu empfehlen. Grundsätzlich werden wir jedoch alles, was wir verstehen können, auch crawlen.

 

22:41

Frage: Was schlägst du vor, wenn eine Seite 2-3 interne Links von einer anderen Seite bekommt? Der eerste kommt von einem Bild, der zweite aus dem Ankertext und der dritte aus dem Datum. Sollten wir den ersten und den dritten auf Nofollow setzen, damit durch den Ankertext mehr Page Rank vergeben wird?

Antwort: Nein, das ist nicht nötig. Wir sehen das und behandeln es sinnvoll. Wenn allerdings alle Links auf Nofollow sind, wird gar kein Page rank weitergegeben.

 

29:28

Frage: Wir haben einen Shop mit Faceted Navigation, der Kunde kann also auf die Kategorie, die Farbe und die Größe klicken und jede generiert eine eigene URL. Alle Noindex, Follow Katgorien werden in Search Console als weiche 404er angezeigt. Würde die Änderung zu Nofollow das interne Linkprofil schwächen?

Antwort: Hier werden wahrscheinlich die Noindex URLs vom Algorithmus als weiche 404er gesehen – also als Seiten, die ignoriert werden können. Es gibt keinen großen Unterschied, ob eine URL Noindex oder weiche 404er ist. Solange die Inhalte auf eurer Seite erreichbar und crawlbar sind, sollte es keine Probleme geben. Ihr solltet daher keine Zeit mit dem Versuch verschwenden, dass System zu umgehen. Die Seiten werden eh nicht in der Suche angezeigt.

 

31:15

Frage: Im E-Commerce nutze ich meist das Canonical-Tag anstattdes Noindex. Ist dieser Ansatz ok?

Sucher, das kann auch funktionieren. Es kommt aber immer darauf an, wie deine Seite aufgebaut ist. Unser HilfeCenter hat zu diesem Thema auch viele Infos zu bieten.

 

38:36

Frage: Der Ankertext der internen Links ist nicht in der Navigation. Ist der Text wichtig? Gibt es einen Penalty, wenn derselbe Text zu oft genutzt wird.

Antwort: Nein, das wiederverwenden von texten in der Navigation oder den Menüs ist kein Problem.

 

53:03

Frage: Eine unserer wichtigsten Artikelseiten wird von Google täglich gecrawlt. Wir haben einen Link (Follow) in den Textkörper eingefügt, aber dieser wurde von Google noch ni gecrawlt. Selbst die Metadaten sind auf Index, Follow gesetzt – wie kann man das erklären?

Antwort: Es ist schwer, das aus der Ferne zu beurteilen. Bitte schicke mir einen Link, damit ich mir das genauer angucken kann.

 

Local Targeting

16:25

Frage: Kannst du dir bitte die SERPs für “domestic cleaner Boston” anschauen? Wir haben auch ein Boston in UK, aber alle lokalen Ergebnisse kommen aus den USA und die organischen Ergebnisse sind ein Mix aus UK und USA.

Antwort: Das hört sich nach einem schwierigen Suchergebnis an. Ich habe das bereits an das Team weitergeleitet, kann aber nicht versprechen, dass das schnell geändert wird.

 

Top Level Domains

17:14

Frage: Welche Domain hat für ein Keyword wie “Example Guru” einen höheren Rankingfaktor: example.guru oder example-guru.com?

Antwort: Wir beziehen Top Level Domains nicht in das Ranking mit ein, daher würde man hier keine großen Unterschiede sehen. Nehmt einen passenden Namen für eure Inhalte, ob das Keyword enthalten ist spielt keine Rolle.

 

18:13

Frage: Werden alle dieser TLDs gleich behandelt? Weil manche von ihnen, wie .travel, sind sehr schwer zu bekommen. Ist es Google also wirklich egal?

Antwort: Ja, es ist uns egal.Wir behandeln sie wie andere TLDs. Das trifft auch auf die neuen Städteendungen wie .nyc zu. Wenn wir auf lange Sicht merken, dass diese starke lokale Signale senden, dann ändert sich dieser Ansatz vielleicht – aber ich glaube nicht, dass das bald passieren könnte. Wenn ihr einen komplizierten Domaintitel habt, dann macht es vielleicht Sinn eine neue TLD zu erwerben – aber tut das nicht aus reinen SEO-Gesichtspunkten.

 

Seitenqualität

21:00

Frage: Wenn ein paar Unterseiten / Artikel nur wenig Traffic aus der Suche erhalten, wird der Algorithmus ihre Qualität dann als minderwertig ansehen?

Antwort: Nur weil es momentan wenig Traffic gibt, muss dass nicht über die Qualität aussagen. Der Traffic kann sich immer ändern, ist also nicht die einzige wichtige Kennzahl.

 

Doppelte Seiten

21:45

Frage: Was sollen wir mit doppelten Seiten – wie WordPress Autor Pagination Posts, machen? Sollen wir sie auf Noindex, Follow stellen, oder nur ein Canonical-Tag in die Hauptpagination einfügen?

 

Antwort: Das könnt ihr machen, wie ihr wollt. Wir versuchen, die Seiten zu indexieren – wenn ihr es also für guten Content haltet, dann lasst das geschehen. Ist es nur eine Kopie anderer Inhalte, dann verhindert die Indexierung.

 

42:25

Frage: Ein Unternehmen hat viele Franchisenehmer, die das selbe Produkt in verschiedenen Städten verkaufen. Alle arbeiten mit einer Template-Webseite mit ähnlichen Inhalten. Sollten diese Seiten Noindex sein? Könnten sie einen Penalty erhalten?

Antwort: Grundsätzlich sehen wir das als Duplicate Content und verfahren entsprechend. Sie werden keinen automatischen Penalty erhalten, aber wir werden versuchen herauszufinden, welche Seiten relevant sind. Diese werden dann angezeigt, beispielsweise auf Baisis des Standortes. Ihr müsst allerdings aufpassen, dass diese Seiten nicht nur Doorway Pages sind.

 

Webseitenumzug

23:38

Frage: Wenn wir eine Webseite von einer Subdomain auf eine neue Domain migrieren, können wir Teile der Seite von der neuen und andere teile von der alten Domain ausführen? Die mobile Seite soll eine separate Seite sein und die Subdomain ist ein Unterordner.

Antwort: Ihr könntet das als teilweisen Umzug machen und nur Teile der Seite auf die neue Domain packen. Wir müssen diese dann Seite für Seite durchgehen, was es für uns sehr komplex macht. Wenn ihr einen kompletten Umzug durchführt, erleichtert ihr uns die Arbeit.

Ranking

26:46

Frage: Was sind die frühen Signale, die Google findet wenn eine Webseite bewertet wird? Wie funktioniert es zum Beispiel, dass für aktuelle Nachrichten neue Seiten auf der ersten Seite ranken? Wie entscheidet Google, ob diese Seiten genug Autorität haben?

Antwort: Das ist immer eine schwierige Situation. Wenn wir nicht viele Signale für eine Seite haben, ist es schwer, sie zu ranken. Ich habe darauf keine einfache Antwort, es ist komplett algorithmusbasiert und automatisch. Wenn ihr etwas Neues habt, geht sicher dass wir es sehen können – beispielsweise durch RSS.

 

HTTPS

28:24

Frage: Wie wichtig ist es für einfache Seiten, die Dienstleistungen anbieten, zu HTTPS zu wechseln? Wird es irgendwann gefordert sein? Hat es Einfluss auf die aktuellen Rankings?

Antwort: Wir nutzen HTTPS als kleines Rankingsignal – wenn wir also die Wahl zwischen zwei Seiten haben, wählen wir immer die, die HTTPS hat. Es ist keine Voraussetzung, aber ein meine Meinung nach unumkehrbarer Trend. Es macht also Sinn, dies auf lange Sicht zu nutzen.

 

39:16

Frage: Stimmt es, dass nur 2048-bit SLL Zertifikate einen Ranking-Boost für HHTPS bringen oder kann man ein beliebiges Zertifikat nutzen?

Antwort: Ihr könnt alle gültigen Zertifikate nutzen, die von Browsern anerkannt werden. Aber ich würde niemals empfehlen ein Zertifikat minderer Qualität zu nutzen.

 

Knowledge Graph

32:40

Frage: Die Firma eines Kunden ist unter zwei Namen bekannt. Einer ist der Name ausgeschrieben, der andere ein Acronym. Sie haben einen Knowledge Graph für das Acronym, aber nicht für den ausgeschriebenen Namen. Macht es Sinn, wenn ich Schema Markup für alternative Namen nutze, oder hast du eine andere Empfehlung?

Antwort: Das alternativer Name Markup ist sicher eine gute Idee. Aber grundsätzlich ist das algorithmusbasiert – man kann es also nicht einfach kontrollieren. Wir versuchen, immer das anzuzeigen, was was am besten zur Suchanfrage passt. Wenn nun beispielsweise niemand nach dem vollen namen sucht, dann gehen wir davon aus, dass dies nicht relevant genug ist. Aber mit dem Markup sollten wir verstehen, dass es sich um dieselbe Firma handelt und es vielleicht für beide Suchbegriffe anzeigen. Geht außerdem sicher, dass bei Wikipedia der Name entsprechend steht.

 

35:20

Frage: Ein anderer Kunde hat Informationen im Knowledge Graph, die er gerne gelöscht hätte. Allerdings kommen diese von Freebase, die man nicht mehr bearbeiten kann. Was kann man tun, um diese Informationen zu ändern?

Antwort: Dafür sollte der Feedback Link unter dem Eintrag genutzt werden. Dort können falsche Informationen angezeigt und Links zur richtigen Info gesetzt werden. Aber ich weiß nicht, wie schnell es dann geändert wird.

 

Folgefrage: Das problem ist in diesem Fall, dass die entsprechende Info nicht falsch ist – aber die Kunden möchten keine Aufmerksamkeit darauf lenken. Und die einzige Quelle, wo es noch steht, ist Freebase.

Antwort: In diesem Fall kannst du mir einen Link schicken. Ich werde es mir angucken und sehen, ob das Team hier manuell etwas tun kann. Aber das kann ich nicht versprechen.

 

Faceted Search

41:25

Frage: Auf einer Seite mit Faceted Search sehen die URL Parameter momentan immer so aus: search?facet=prod_jeans&facet=col_black. Ist das ein Problem für Google?

 

Antwort: Ja, das kann zu Problemen führen. Vor allem wenn ihr das URL Parameter Handling Tool benutzt. Hier ist es ein Problem, wenn sie alle gleich heißen – daher empfehle ich, einzigartige Parameter zu nutzen um diese zu tracken.

 

Desktop und Mobil

45:09

Frage: Wenn eine Desktop-URL als Noindex, Nofollow gekennzeichnet ist, während das mobile Äquivalent Noindex, Follow ist, wird trotzdem weiterhin die Desktop URL bei Desktop-Suchen angezeigt?

Antwort: Da beide Noindex haben, wird gar keine angezeigt. Aber grundsätzlich ist es immer gut, einheitliche Signale zu verwenden. Wenn ihr das nicht tut, dann treffen wir eine Entscheidung – und diese Entscheidungen können sich mit der zeit ändern.

 

Crawling

46:54

Frage: Wie können wir das Crawler-Budget für große Seiten (mit über 50.000 Seiten) erhöhen? Momentan sehe ich, dass viele der wichtigen Seiten nicht regelmäßig gecrawlt werden, obwohl wir sie in Sitemap zum täglichen crawlen priorisiert haben. Woran kann das liegen?

Antwort: Zuerst heißt crawlen nicht, dass wir die Seite auch für wichtig halten und in den Rankings zeigen. Wenn ihr Seiten habt, die sich nicht oft ändern, dann macht es keinen Sinnsie täglich zu crawlen. Wenn wir also bei mehreren crawls nichts neues entdecken, dann werden wir die Seiten danach seltener crawlen. Wenn ihr bestimmte Sachen geändert habt, auf die ihr uns hinweisen wollt, dann nutzt die Letzte Modifikationen Option in der Sitemap. Außerdem crawlen wir weniger, wenn wir während des Prozesses eine Verlangsamung des Servers feststellen.

 

Blockierte Inhalte

48:43

Frage: Ich habe in letzter Zeit viele Probleme mit blockierten Ressourcen gehabt (von der Domain, die das Trcking für meine Hauptseite macht). Kann dies meine Seite negativ beeinflussen?

Antwort: Wenn eingebettete Inhalte blockiert werden, dann können wir sie nicht crawlen. Wenn es sich nur un die Tracking-Seite handelt, ist es kein Problem. Handelt es sich allerdings um wichtige Inhalte, beispielsweise eine Karte mit JavaScript wenn JavaScript blockiert ist, dann können wir es nicht sehen und ihr könnt dafür nicht ranken. Ihr könnt das in Search Console testen.

 

50:51

Frage: Manchmal sehe ich, wenn ich das Fetch and Render Tool nutze, dass JavaScript von einer anderen Seite nicht lädt oder blockiert ist. Kann dies auf meiner Seite zu Rankingproblemen führen?

Antwort: Ja, das kann es. Wenn es Inhalte erzeugt, die es auf deiner Seite sonst nicht gibt, dann kannst du dafür nicht ranken.

 

Eine Seite pausieren und neu starten

51:55

Frage: Ich werde ein Produkt für zwei Jahre pausieren. Es liegt auf einer eigenen Domain, die ich auf eine übergeordnete Produktseite umleiten will. Wird sie die alte Power direkt wiedererlangen, wenn ich sie nach zwei Jahren wieder auf der Produktdomain zurückbringe?

Davon ist nicht auszugehen. Die Signale werden in der Zwischenzeit wohl verloren gehen. Aber das sollte nach dieser Zeitspanne kein Problem sein, da sich das Produkt bis dahin vielleicht eh ändert. Sollte es wieder ein identisches Produkt sein, solltet ihr die Seite behalten und mir einem Banner darauf hinweisen, dass es das Produkt zurzeit nicht gibt.

 

Werbung

TEILEN
Nach meinem Studium der Politikwissenschaften (Schwerpunkt Diplomatie) habe ich mich im April 2015 der imwebsein GmbH angeschlossen. Im Bereich Online-Marketing war ich zuvor für einige politische und sportliche Organisationen tätig - und unterstütze einige von ihnen immer noch im Ehrenamt. Ich freue mich auf einen regen Austausch, vor allem auf unserem neuen SEO-Portal!

HINTERLASSEN SIE EINE ANTWORT