Deutscher Google Webmaster Hangout vom 21. September 2017

Hier findet ihr das deutsche Google Webmaster Hangout vom 21. September 2017.

[00:40] Google MyBusiness und Ranking

Hat das neue Google MyBusiness auch mit dem Ranking zu tun?

Soweit ich weiß nicht. Soweit ich weiß, ist GMB eher mit der Maps Seite und mit der Ads Seite verbunden. Von daher ist das nicht etwas, was wir direkt mit den Suchresultaten zusammenbringen. Was einfach sein kann, ist, dass ein GMB Eintrag natürlich in den Suchergebnissen und vielleicht auch auf der Seite mit dem Knowledge Panel sichtbar sein kann. Aber es ist nicht so, dass ein GMB Eintrag das Ranking beeinflusst von der normalen Website.

Wenn ich jetzt aber MyBusiness mit „same as“ bei den strukturierten Daten eingebe, hat das mehr Erfolg?

Meines Wissens benutzen wir das nicht. Ich glaube das „same as“ hilft uns zu erkennen, welche Sachen zusammengehören. Aber es nicht so, dass wir da sagen würden, das gehört zum MyBusiness Eintrag und deswegen müssen wir diese Website auch ein bisschen höher platzieren in den Suchergebnissen.

[02:26]

In den Google Docs zum Thema „Data Type Article“ ist aufgeführt, dass ein Artikel „non-amp“ ein image object in den strukturierten Daten definieren sollte. Die Größe für das Bild wird angegeben, 696 Pixel Breite, ist dieses image object relevant und notwendig für die Anzeige in Google News. Habt ihr Probleme damit, wenn das Bild nicht genau die gleiche Breite ist. Was macht man stattdessen?

Ich weiß nicht, wie das bei Google News verarbeitet wird. Ich vermute, dass das bei Google News ein bisschen anders verarbeitet als bei uns in der Websuche. Was ich aber weiß ist, dass auf unserer Seite ein bisschen dran gearbeitet wird, diese ganzen Bildereigenschaften genauer zu definieren bzw. ein bisschen klarer zu definieren. Das heißt, dass man ein bisschen versteht, woher die unterschiedlichen Breiten kommen und für welches Objekt man welche Art von Bild braucht und wie das Bild optimal in der Größe, im Seitenverhältnis sein sollte, damit man das wirklich sauber aufnehmen kann. Das ist erstaunlich kompliziert, hat sich herausgestellt, einfach dadurch, dass über die Jahre hinweg sind viele verschiedene strukturierte Daten Elemente gekommen, die dann Bilder brauchen und jedes hat ein bisschen seine eigenen Eigenschaften und so hat sich ergeben, dass je nachdem welche Art von Rich Snippets man haben möchte, ganz unterschiedliche Bildeigenschaften gefordert werden. Wir versuchen das ein bisschen einfacher zu machen, damit man auch versteht, woher die einzelnen Breiten kommen und was man optimalerweise verwenden könnte, um wirklich die verschiedenen Elemente auch sauber abzudecken. Wir sind jetzt schon einige Zeit dran das ein bisschen zu vereinfachen oder besser zu dokumentieren zumindest.

[04:45] NoIndex und Linkjuice

Manchmal kann es sinn machen eine Seite auf NoIndex zu setzen, wenn diese Seite nun extern verlinkt wird, wie geht Google mit dem erhaltenen Linkjuice um? Wird dieser und natürlich über interne Verlinkungen erhaltene Linkjuice vollständig auf die verlinkte Seite weitergereicht oder bliebt etwas übrig

Das Ganze mit dem NoIndex ist ein bisschen kompliziert, denn einerseits kann man zwar angeben, dass eine Seite „NoIndex, Follow“ hat, das heißt, dass Links, die zu dieser Seite gehen, dazu führen sollen, dass diese Seite selbst nicht indexiert wird, aber das quasi der PageRank und Signale weitergegeben werden. Andererseits ist es natürlich so, dass der NoIndex-Befehl uns sagt, dass diese Seite nicht indexiert werden soll. Wenn eine Seite nicht indexiert ist, dann sind da auch keine Links, die irgendetwas weitergeben können. Und da ist es dann oft eine Balance zwischen diesen beiden Varianten, in dem Sinne, dass wir teilweise diese Seiten indexieren und einfach nicht in den Suchergebnissen zeigen und dann können wir diese Links weitergeben. Und teilweise sagen wir „Noindex ist Noindex“ und lassen die Seite und alles, was wir darüber wissen, aus dem Index fallen und dann geben diese Links eigentlich nichts weiter. Das heißt, wenn etwas wirklich wichtig ist und indexiert werden sollte, dann würde ich schauen, dass es normal verlinkt ist und nicht nur über Noindex-Seiten. Das heißt, wenn man eine saubere Struktur auf der Website hat und über die Links von einer indexierten Seite zur anderen kommen kann, dann finden wir in der Regel diese Links. Und wenn etwas nicht so wichtig ist oder wenn eine Seite jetzt auf Noindex gesetzt werden soll, weil es z.b. eine Kategorieseite ist, die man nicht indexiert haben möchte, dann muss man einfach damit rechnen, dass diese Seite und die Links, die von dieser Seite ausgehen, unter Umständen nicht gezählt werden.

[07:43] Schwankende Benutzerzahlen bei neuen Websites

Mir ist bei drei großen Online-Shop Projekten aufgefallen, dass meine Besucherzahlen anfangs sehr gut waren, nach einigen Monaten sind die Zahlen zurückgegangen. Nach einem weiteren Monat sind sie wieder da, wo sie am Anfang waren. Die Besucher kommen zu 99% über den Longtailbereich auf einzelnen Produktseiten. Die Frage ist also, ob Google eine Art Spamschutz hat, wenn eine neue Website sehr viel Seiten – z.b. 100.000 oder mehr – an den Index schickt.

Wir haben schon verschiedene Systeme, die versuchen, einen großen „Run“ Spam rechtzeitig abzufangen. Und das könnte unter Umständen auf so etwas auch zutreffen. Aber in den meisten Fällen ist es einfach wirklich so, dass eine Website wenn sie bei uns im System ganz neu ist, dann haben wir gar keine oder sehr wenige Signale für diese Webseite und dann müssen unsere Algorithmen erstmal eine grobe Einschätzung machen. Und dann sagen wir, diese Website ist wahrscheinlich etwa da anzusiedeln. Und nach einer gewissen Zeit haben wir mehr und mehr Signale und wissen dann ein bisschen besser, wo wir diese Website ansiedeln sollen. Dann kann es sein, dass es erst einmal ein bisschen runter geht oder ein bisschen hoch geht oder dass es ein paar Monate dauert, bis es sich wirklich sauber eingependelt hat. Und von daher vermute ich, dass es weniger eine Frage bezüglich Spam ist oder der Anzahl der Seiten, die da indexiert werden, sondern einfach weil es jetzt eine größere neue Website ist, wissen wir nicht genau, wo wir sie ansiedeln sollen und dann machen wir erstmal eine Abschätzung am Anfang. Und im Laufe der Zeit pendelt sich das dann ein und nach einigen Monaten ist es dann meistens einigermaßen stabil.

[09:36] Linkjuice und Disavow

Wenn ich eine Domain per Disavow entwerten lasse und später die URL wieder aus der Disavow entferne, wird der Linkjuice wieder gewertet. Wie lange dauern solche Disavow Änderungen?

Das wird das sofort verarbeitet. Das heißt, wenn man etwas in die Disavow Datei aufnimmt, wird das nächste Mal, wenn wir diese Seite, diese einzelne URL oder die Domain crawlen – je nachdem was angegeben ist – diese Links nicht gezählt. Und wenn ein Eintrag aus der Disavow Datei herausgenommen und die Datei wieder eingereicht wird, werden die Links wieder normal gezählt, wenn wir das nächste Mal Seiten von dieser Domain crawlen. Das heißt, das geht eigentlich direkt. Das ist ein sehr schneller Vorgang. Es hängt aber natürlich davon ab, wann die Seiten gecrawlt werden und das ist meisten unterschiedlich.

[10:34]

Wenn ich einen Text schreibe, wo z.B. das Keyword „blaue Socken“ sehr oft drin vorkommt, wird dieses Vorgehen ja als Keyword-Stuffing angesehen. Wie aber verhält sich das, wenn ich einen Shop habe mit der Kategorie „blaue socken“? Dann sind dort z.B. 100 bis 200 Produkte aufgelistet, welche im schlimmsten Falle alle das Keyword „blaue Socken“ enthalten. Ist das ein Problem oder nicht?

In den meisten Fällen ist das unproblematisch. Was wir in solchen Fällen algorithmisch versuchen zu machen ist es einfach so zu behandeln, dass dieses Wort oder dieser Term auf dieser Seite drauf ist. Und wir erkennen, dass es übermäßig oft auf dieser Seite vorhanden ist. Also versuchen wir das ein bisschen in einem normalen Rahmen zu behandeln und dem jetzt nicht übermäßig viel Wert zu geben, sondern sagen „das ist jetzt auf dieser Seite und auf den anderen Produkten auch vorhanden“. Vielleicht ergibt es unter Umständen Sinn, eine Produktseite für diesen Term zu zeigen, vielleicht die Kategorieseite. Von daher würde ich mir da nicht so viele Sorgen machen. Wir haben recht viel Erfahrung, gerade im E-Commerce Bereich ist das ja gang und gäbe, dass man eine Kategorieseite hat und alle Produkte haben dieses Wort auch in der Beschreibung oder im Titel dabei. Das ist halt einfach so. Und von daher würde ich mir da nicht so viele Sorgen machen.

[12:13]

Die strukturierten Daten eines Kundenshops werden zu weniger als 30% in der Search Console erfasst. Wir übermitteln 12.000 URLs. Davon sind etwa 3.000 indexiert. Im Indexstatus stehen etwa 8.000. Und in der Search Console bei dem Produkte-Markup stehen nur etwa 800. Woher kommt dieser Unterschied?

Das ist schwierig zu sagen, da müsste man sich die Webseite etwas genauer anschauen. Aber grundsätzlich sind es verschiedene Sachen, die da wahrscheinlich zusammenkommen.
Einerseits – bezüglich der Anzahl indexierter Seiten – ist es immer eine Frage davon welche URL effektiv indexiert wird. Das heißt, wenn ich eine Sitemap-Datei einreiche, dann werden in den Sitemapeigenschaften in der Search Console angezeigt, welche URL aus der Sitemap wirklich 1:1 so indexiert sind. In manchen Fällen ist es so, dass wir eine leicht andere URL indexieren als die in der Sitemap angegebene. Und in solchen Fällen zählt das bei der Sitemap Datei nicht. Meistens ist das ein Anzeichen, dass man mit der Kanonisierung (canonical) ein bisschen arbeiten kann. Das heißt, dass vielleicht intern etwas anders verlinkt ist als in der Sitemap Datei angegeben ist oder dass der rel=“canonical“ leicht anders ist oder dass man vielleicht mit einem Schrägstrich am Ende der URL gearbeitet hat. Das macht für uns den Unterschied, dass die URL nicht wirklich identisch ist und dass die nicht so als indexiert gezählt wird. Ich vermute, dass hier der Unterschied zwischen diesen 3.000 in der Sitemap und den etwa 8.000 im Indexierungsstatus ist. Zudem kann natürlich auch sein, dass im Indexierungsstatus URLs dabei sind, die gar nicht in der Sitemap erwähnt werden. Das sind Unterschiede, die es oft gibt. Grundsätzlich finde ich bei diesen Größenordnungen von Zahlen – also 12.000 eingereicht und 3.000 im Index – könnte man das wahrscheinlich genauer anschauen, wo diese Unterschiede genau herkommen. Man kann das ein bisschen untersuchen, in dem man kleinere Sitemap-Dateien erstellt und das so ein bisschen eingrenzen kann.

Bezüglich des Produkte-Markups ist es schwieriger, weil sich die Search Console gerade für diese Auswertungen auf die wichtigsten Seiten der Website beschränkt. Wir versuchen da mit einigen Algorithmen etwas zu erkennen und selbst wenn alle Seiten, die wir indexiert haben, mit Produkte-Markup versehen sind, kann es sein, dass die Anzahl, die in diesem Bericht angezeigt werden, nicht übereinstimmt. Ich würde dann eher auf die Fehler da achten. Wenn man diese beheben kann, dann sollte das eigentlich in Ordnung sein. Gerade wenn die Anzahl geradlinig weitergeht und keine großen Schwankungen hat, dann würde ich davon ausgehen, dass wir das Produkte-Markup auf allen Seiten gefunden haben.

[16:56]

Trotz echter Bewertungen wurden bei mir die Sterne in den Suchergennissen entfernt. Technisch ist alles ok. Unsere Konkurrenten haben trotzdem noch die Sterne. Was kann man da tun?

Grundsätzlich ist es so, dass gerade für Rich Snippets schauen wir drei Sachen an. Einerseits ob es technisch korrekt implementiert ist. Das kann man mit dem Structured Data Testing Tool gut testen. Andererseits muss es gemäß unseren Policies zusammenpassen. Das heißt, dass die Bewertungen wirklich für die richtigen Elemente gemacht werden. Das heißt, dass man z.B. nicht eine Firmenbewertung auf jeder Seite der Website hat, sondern dass man die Firmenbewertung passend zur Firma hat und auf den einzelnen Seiten dann Produktbewertungen macht. Und drittens, was wahrscheinlich am schwierigsten ist, dass die Qualität der Website insgesamt einigermaßen ok sein muss. Wenn sie nicht sicher sind, ob die Website wirkliche einem qualitativ hohen Standard entspricht, dann zeigen wir die Rich Snippets eher nicht an. Mann kann das einigermaßen testen, indem man eine Site-Abfrage macht und dann schaut, ob in der Site-Abfrage die Rich Snippets gezeigt werden. Wenn sie dort gezeigt werden und in den normalen Suchergebnissen nicht, dann ist das in der Regel ein Zeichen, dass unsere Qualitätsalgorithmen nicht so ganz mit der Qualität der Website zufrieden sind.

[19:13]

Bei einem Projekt ignoriert Google zum Teil die gesetzten Canonicals und indexiert neben der richtigen URL auch die parametrisierte Version. Der Canonical ist korrekt gesetzt und kommt auch nur einmalig im Code vor. Die korrekte URL wird allerdings aus der Sitemap verlinkt, während die interne Verlinkung auf die Parameter-Version verweist. Kann hier ein Zusammenhang bestehen oder was könnte da passieren?

Grundsätzlich ist die Wahl der kanonischen URL ein kompliziertes Thema. Wir versuchen da verschiedene Signale zu nehmen und überlegen uns, welches dieser Signale am stärksten sind und versuchen dann den Signalen entsprechend ein Canonical auszuwählen. Wenn wir verschiedene URLs haben und erkennen können, dass alle zusammengehören und alle die gleichen Inhalte haben, dann nehmen wir verschiedene Dinge zusammen und entscheiden dann, welche URL von diesem Satz von URLs die beste ist. Einerseits schauen wir den rel=“canionial“ an, wir schauen Redirects an, wir schauen die interne Verlinkung an, die externe Verlinkung, wir href=“lang“ und die Sitemapdateien an. Alle diese Signale versuchen wir zusammenzunehmen und bestimmen dann aufgrund der Signale die URL, von der wir vermuten, dass es die ist, die der Webmaster in den Suchergebnissen sehen möchte. Die zeigen wir dann an. Gerade wenn am einen Konflikt hat in der Art und Weise wie man auf die URL verweist, wenn z.B. eine Version intern verlinkt ist und in der Sitemap eine andere und vielleicht noch ein rel=“canonical“ da ist und vielleicht noch ein Redirect, dann ist es manchmal schwierig für uns zu erkennen, welche Variante ihr wirklich wollt. Für uns ist rel=“canonical“ ein Signal, kein Befehl. Wir müssen dem nicht immer folgen. Der Grund ist, dass viele das Canonical auch falsch setzen. Wir sehen immer noch Fälle, in denen der rel=canionical“ auf die Startseite einer Website zeigt, obwohl das vielleicht eine Produktseite ist. Das Praktische an dem Ganzen ist, dass es keinen Einfluss auf das Ranking von diesen Seiten hat. Das heißt, wenn wir veschiedene URLs haben und wir wissen, die sind alle ein Teil vom gleichen Cluster und suchen eine aus, dann wird diese URL gleich gerankt, als wenn wir eine andere aussuchen würden.

[23:07]

Die Sitelinks werden normalerweise anhand der internen Linkstruktur angezeigt. Uns ist aufgefallen, dass bei einigen Suchanfragen oft die Anzahl an Produkten aus interner Navigation angezeigt wird, und bei den meisten Sitelinks nicht. Warum ist das so und wie können wir die Sitelinks beeinflussen? Derzeit ist die Anzahl von Produkten im Anchortext verlinkt.

Was auf jeden Fall passiert ist, dass wir den Anchortext genommen haben, um ein bisschen mehr über die Seite zu erfahren und manchmal fließt das auch in den Titel ein, den wir in den Suchergebnissen zeigen. Und das kann der Titel der Seite in den normalen Ergebnissen sein. Es kann auch der Titel in den Sitelinks sein, wo wir einfach viel weniger Platz zur Verfügung haben. Und wenn die Anzahl da jeweils verlinkt ist mit dem Anchortext, dann kann es schon sein, dass unsere Systeme das aufnehmen und sagen, diese Zahl ist irgendwie wichtig für diese Seite, also zeigen wir in den Sitelinks.

[25:51]

Eine Frage zum Thema Pagebrowser: wir haben Produktergebnisseiten, z.B. Südafrika-Rundreisen, dessen Produkte auf mehreren Seiten aufgeteilt sind. Z.B Seite 1 bis 5 mit rel=“prev“ und rel=“next“. Den Canonical auf Seite 1 haben wir nach deinem Hinweis entfernt, da die Inhalte – sprich die Produkte – auf den Seiten unterschiedlich sind. Title und Description, H1 und Einleitungstext sind natürlich auf den Seiten 2 die gleiche wie auf Seite 1. Dieses Vorgehen wird in unserem Analysetool als DC ausgewiesen, spricht Seite 2 von Südafrika-Rundreisen soll DC von Seite 1 sein. Kann ich das ignorieren.?

Ich weiß jetzt nicht, welches Tool ihr da verwendet. Aber wenn das wirklich nur den Titel der Seite verwendet, ist das wahrscheinlich etwas, was ihr ignorieren könnt. Und das ist natürlich immer ein bisschen so, wenn man solche Tools verwendet, muss man die Auswertungen die da rauskommen, auch einigermaßen interpretieren und auch wissen, wann die Tools die Eingaben, die man bringt, vielleicht missverstehen könnte oder falsch verarbeiten könnte und wann die Ausgaben wirklich relevant sind und wann sie weniger relevant sind. Und ich vermute, dass ist jetzt der Fall hier, dass das Tool vielleicht DC sonst relativ gut erkennt, aber gerade in dieser Situation erkennt es das irgendwie falsch. Und von daher würde ich gerade in dieser Situation würde ich das durchaus so sein lassen.

[27:40]

Ich habe 814 URLs übermittelt, aber bisher wurden laut SC nur 28 indexiert. Zwischenzeitlich waren es schon über 50. Mit welchem Zeitraum muss ich etwa rechnen, bis alle URLs indexiert sind?

Einerseits hängt natürlich die Anzahl, die dargestellt wird, davon ab, wo man jetzt nachschaut. Wenn man bei der Sitemaps-Abfrage schaut, kann das unterschiedlich sein, als wenn man im Indexierungsstatus nachschaut. Andererseits ist es so, dass wir nicht alle URLs indexieren, die wir kennen. Das heißt, wenn eine Sitemapdatei eingereicht wird mit vielen URLs, und wir das Gefühl haben, es lohnt sich nicht, alles von dieser Website zu indexieren, dann kann es durchaus sein, dass wir nur einen kleinen Teil der Website indexieren. Das hängt ein bisschen von der Website an, was wir von der Website wissen, welche Signale wir von der Website bekommen. All das kann dazu führen, dass wir vielleicht weniger indexieren, als eingereicht wurde. Ich finde allerdings der Unterschied gerade bei der Größenordnung von 800 URLs, die eingereicht worden sind und gerade 28 indexiert, macht da schon einen komischen Eindruck. Ich vermute, dass da vielleicht eher ein technisches Problem vorliegt, dass wir die Seiten nicht sauber crawlen können. Das könnte sein, weil vielleicht Serverfehler zurückgegeben werden, dass wir vielleicht Noindex für einige der URLs gesehen haben. Andererseits kann es auch sein, dass die Website auf einem sehr langsamen Server steht, wo wir einfach sehr langsam crawlen können. Und da kann es durchaus sein, dass wir wirklich nur ein paar Seiten am Tag crawlen, weil wir das Gefühl haben, dass wir sonst den Server überlasten.

[30:50]

Wie bewertet ihr externen DC? Wird bei euch irgendwie gewertet, wann der Content zum ersten Mal auf einer Domain gesichtet wurde. Was passiert zum Beispiel, wenn eine andere Domain Textteile übernimmt und die Originalseite einen Relaunch durchführt und eine Weiterleitung einrichtet?

Es ist ein bisschen unklar, wo die Weiterleitung hingehen soll. Wenn das auf die externe Website geht, dann ist das natürlich ein bisschen anders. Grundsätzlich versuchen wir schon zu erkennen, wo Content zum ersten Mal gefunden wurde. Und je nachdem versuchen wir das auch dafür zu verwenden, welche Version wir in den SERPs zeigen. Allerdings muss man auch sagen, nur weil Textteile auf einer anderen Website dupliziert sind, heißt das nicht, dass die andere Website deswegen schlechter bewertet werden soll als die Originalquelle. Manchmal ist es ja auch so, dass irgendwas publiziert wird und jemand schreibt eine große Abhandlung dazu und nimmt dann einzelne Zitate heraus. Und dann ist vielleicht diese größere Abhandlung über das andere Thema eigentlich relevanter für viele als die Ursprungswebsite. Und das sind manchmal schwierige Situation, wo wir dann nicht genau wissen, welche dieser Varianten wir in den Suchergebnissen zeigen sollen.

[32:53]

In einer früheren Sprechstunde haben wir über internationale SEO gesprochen. Trotz Beachtung der Guidelines, Sitemap, Search Console, Landauswahl, HREF-lang Auszeichnung, URL Struktur werden teilweise bei Google.de Inhalte eingeblendet, die eigentlich für .at vorgesehen sind. Unsere Landeseiten sind vom Content her fast gleich, aufgrund unseres E-Commerce Angebots benötigen wir aber verschiedene Länderversionen. Was können wir machen, um wirklich nur die deutschen Inhalte in Deutschland und die österreichischen Inhalte in Österreich anzuzeigen.

Das Problem, was ich hier an erster Stelle sehe, ist, dass die Seiten wirklich so gut wie identisch sind. Das heißt, für uns sieht die österreichische Seite fast gleich aus wie die deutsche Seite. Was wir dann intern machen: wir falten diese Seite zusammen und sagen, beide diese Seiten sind eigentlich gleich. Wir nehmen eine, wählen die als die kanonische Seite und indexieren die entsprechend. HREF-lang hilft uns ein bisschen das auseinander zu halten, aber wenn es wirklich so aussieht, als wenn diese Seiten gleich sind, dann kann es trotzdem sein, dass wir diese als eine Version behandeln. Das heißt, was man am ehesten machen kann in einem solchen fall, ist wirklich sicherstellen, dass die Seiten deutlich unterschiedlich sind, so dass unsere Systeme gar nicht auf die Idee kommen, dass wir die zusammenklappen können. Dass ist vielleicht die eine Variante.
Das andere, was ich in einem solchen Fall machen würde, ist, einfach davon ausgehen, dass Besucher auf eure Website unter Umständen aus dem Falschen Land kommen. Das heißt, man muss damit einfach rechnen, dass Besucher über Google aus dem falschen Land kommen. Oder dass sie über Facebook oder andere Social Media Kanäle auf die falsche Version der Website kommen. Dann könnte man vielleicht oben auf der Website per Javascript einen Balken einblenden und dem Besucher sagen „es sieht so aus, als ob du aus Österreich kommst. Wir haben für Dich speziell die österreichische Version, willst Du nicht hier hin gehen.“ Und dann kann man die Wahl vom Besucher auch in einem Cookie speichern, so dass beim nächsten Besuch auf die österreichische Website weitergeleitet wird.

 [37:09]

Bei meiner Seite ist mit aufgefallen, dass ich für den Begriff „Steuerberater“ für Stadt auf der ersten Seite ranke, jedoch mit dem Begriff „Steuerberatung“ aber abgeschlagen auf der zehnten Seite stehe. Woran kann das liegen? Sind beide Begriffe nicht stark verwandt?

Das kann durchaus sein, dass wir da einen Unterschied zwischen diesen Wörtern erkennen und diesen nicht 1:1 als synonym betrachten. Das ist normalerweise etwas, was wir nicht manuell beeinflussen, sondern etwas, was wir versuchen automatisch zu erkennen. Und in den meisten Fällen können wir das relativ gut erkennen, in manchen Fällen klappt das vielleicht nicht so gut. Es kann auch sein, dass u.U. die Nutzer auch unterschiedliche Sachen suchen, wenn sie mit leicht veränderten Wörtern suchen. Von daher ist es nicht unbedingt etwas, wo ich sagen würde, das ist ein Fehler auf unserer Seite, sondern das ist einfach wie unsere Algorithmen eure Seiten und die Suchanfragen, wie wir sehen, einschätzen. Und das kann sich auch im Laufe der Zeit verändern. Das kann aber auch sein, dass ihr sagt, diese beiden Suchbegriffe sind für mich relevant, dann könnt ihr die auf der Seite benutzen und könnt es so ein wenig beeinflussen. Ich weiß nicht, ob in Deutschland ein Unterschied gemacht wird zwischen Steuerberater und Steuerberatung und ob das eine eher für Privatpersonen und das andere eher für Firmen gedacht ist. Vielleicht gibt es so subtile Unterschiede und dann macht es auch Sinn, das getrennt zu betrachten. Wenn es solche subtilen Unterschiede gibt, macht es vielleicht auch Sinn für euch, das gezielt anzuschauen und zu überlegen, welche dieser beiden Varianten möchte ich anpeilen und wie kann ich das auf meiner Seite am besten präsentieren, dass die Suchmaschine das erkennt, das eine oder beide Varianten für mich die wichtigere ist.

[39:25]

Wir haben eine Website, für die relativ viele Crawlingfehler vom Typ „nicht gefunden“ angezeigt werden, aktuell etwa 10.000. In der Regel handelt es sich um Seiten, die im Verlauf der letzten Monate gelöscht wurden und deren Aufruf jetzt einen 404 Fehler zurückgibt. Wenn ich die einzelnen Fehler im Detail anschauen, stelle ich fest, dass für viele Fehler unter „verlinkt von“ interne Links von Seiten angegeben werden, die ebenfalls nicht mehr existieren. Was kann man da machen? Ist das ein Problem?

Erst einmal: wenn diese Seiten nicht existieren und wenn da keine Inhalte existieren, die ihr indexiert haben wollt, ist das ganz ok. Dann könnt ihr das so lassen. Es hängt nicht davon ab, wie viele Crawlingfehler man hat. Für uns sind Crawlingfehler eigentlich ein Zeichen, dass die Website soweit gesund ist, dass sie die Standards einhält, dass Seiten die entfernt werden einen 404 Fehler zurückgeben ist eigentlich die richtige Sache, die man machen sollte. Von daher würde ich mir da gar nicht so viele Gedanken machen über die Anzahl der Fehler, die angezeigt werden. Es beeinflusst das Ranking nicht. Was man machen kann, ist bei den Crawlingfehlern nachzuschauen, welche URLs an erster Stelle in diesem Bericht gezeigt werden. Wir versuchen so eine Art Priorität darzustellen für die Crawlingfehler, so das man erkennen kann, welche Seiten vielleicht aus Versehen einen 404 zurückgeben. Das heißt, das sind meistens URL, die in der SM sind, die noch intern verlinkt sind. Wenn solche Seiten da als 404 erscheinen, würde ich mir überlegen, habe ich da die richtigen Seiten gelöscht oder wollte ich die Inhalte behalten. Oder gibt es eine neue URL, die diese Seite ersetzt? Wenn es eine neue Sete gibt, dann einfach einen Redirect einrichten. Es ist egal, ob es 10.000, 100.00 oder eine Million 404er sind, aus unserer Sicht ist das unproblematisch.

[41:58]

Ist SEO in Zukunft relevanter Content erstellen um die Kosten sowie die Anzeigeposition zu verbessern (SEA) ?

Fast eine philosophische Frage. Wie verändert sich SEO?

[42:25]

Wie viel Einfluß hat Google MyBusiness fürs Ranking? und macht es Sinn My Bussinnes Webseite anzulegen?

Wie bereits gesagt, MyBusiness hat eigentlich keinen Einfluss auf das Ranking. Ob man eine MB Seite einrichten möchte, hängt davon ab, ob ihr das braucht oder nicht. Viele dieser GMB Seiten sind mehr oder Platzhalter mit der Adresse, den Öffnungszeiten, der Telefonnummer und ein paar Bildern. Wenn man keine andere Website hat, ist das sicher eine gute Variante. Wenn man hingegen ohnehin schon eine Website hat, dann einfach die bestehende Website nehmen.

[43:15]

Frage zu schema.org: Wenn die Seite unter https läuft, sollte dann die Referenz auf schema.org auch mit https bestehen?

Das könnt ihr machen, wie ihr wollt. Grundsätzlich ist dieser Verweise auf schema.org einfach eine Referenz, wie eine Art von ID oder Name, den man angibt. Das ist ja nicht so, dass die Seite selbst die schema.org-Website öffnet und nach den Inhalten schaut, sondern es ist nur ein Referenzwert. Man muss nicht die https-Version angeben. Wir akzeptieren beide Schreibweisen.

[44:03]

Woran kann es liegen, dass Search Action nicht in den Suchmaschinenergebnissen angezeigt wird, trotz Brand-Suche?

Search Action ist für dieses Suchfeld, was man in den SERPs manchmal sehen kann, wenn man z.B. bei einer größeren Website nach dem Namen der Website sucht und wir erkennen können, dass der Nutzer wahrscheinlich irgendetwas innerhalb der Website sucht. Wenn ich z.B. nach Youtube suche, dann kommt dieses Suchfeld, wo ich angeben kann, was für eine Art von Video ist suche. Ich gehe wahrscheinlich nicht nach Youtube, um irgendwas anzusehen, sondern suche gezielt etwas. Grundsätzlich kann man mit Search Action angeben, welche Art von Untersuchseite man angeben möchte. Meistens wird das verwendet, um eine interne Suche dazustellen in den Suchergennissen. Bei uns ist es so, dass einerseits braucht es eine gewisse Zeit, bis wir Search Action Markup verarbeitet haben. Das kann mehrere Wochen dauern. Andererseits verwenden wir dieses Markup nur, wenn wir sowieso dieses Suchfeld zeigen würden. Das heißt, wenn man nach der Marke sucht und wir zeigen dieses Suchfeld an, dann können wir das unter Umständen austauschen gegen eines, was mit dieser Search Action verbunden ist. Aber es ist nicht so, dass wenn Search Action Markup verwendet wird, automatisch dieses Suchfeld erscheint. Manchmal macht es keinen Sinn. Wenn die Website überschaubar ist und mit den Sitelinks die Benutzer auf die richtigen Seiten bringen können, braucht man dieses Suchfeld in der Regel nicht. Ich würde dieses Markup nur einrichten, wenn ihr seht, dass Google dieses Suchfeld bereits anzeigt und ihr möchtet die Besucher in eine bestimmte Richtung leiten.

[46:57]

Unser Shop hat nach dem letzten Google Update leider wieder deutlich an Sichtbarkeit verloren, obwohl wir deutlich an unserem Content gearbeitet haben. Woran könnte es liegen?? Ist unsere Domain beschädigt?? Wenn ja sollten wir das Risiko eingehen, den Shop auf eine neue Domain zu legen, ohne 301.

Wenn ich mir das anschaue, sehe ich da keine Probleme mit der Domain. Von daher denke ich, eine Weiterleitung oder ein Wechsel auf eine andere Domain würde nicht viel bringen. Was ich machen würde, ist, das Ganze mit einer Benutzer-Studie anschauen und überlegen, was man insgesamt machen könnte, um die Website einen Schritt weiterbringen. Ich sehe jetzt nichts Spezielles, was ein Problem sein könnte. Wenn ich die Website öffne, sehe ich viele verschiedene Sachen, die passieren. Sehr langer Text mit verschiedenen hervorgehobenen Wörtern, interne Links, und ich vermute, dass man das Ganze etwas vereinfachen könnte, so dass es einerseits für Besucher einfacher zu verstehen ist, was man machen kann. Andererseits verstehen dann auch die Suchmaschinen das Ganze einfacher und sehen ein wenig besser. Ich würde versuchen eine kleine Gruppe von Personen zu finden, die sich ein wenig für das Thema interessieren und denen die Website vorlegen. Meistens sieht man dann sehr schnell, wo die Probleme in der Nutzung der Seite liegen. Eine neue Domain würde ich nicht wählen, weil man dann die gleichen Probleme nur auf einer anderen Domain hat. Größere Probleme würden die Fluktuationen in Zusammenhang mit dem Umzug machen.

[51:20]

Thema schema.org: würde es Sinn machen, alle Produktdetails mit schema-Produktmarkup in einer gesonderten Sitemap zusammenzufassen.

Wenn man kleinere Sitemaps erstellt, die passend zu einem bestimmten Thema sind, so dass man logische Gruppen der Website zusammenfassen kann, so dass man sagen kann, dass sind alle Kategorieseiten, das sind alle Produktseiten, dass sind alle News-Seiten und das sind alle allgemeinen Informationsseiten. Wenn man das getrennt aufnimmt, sieht man dann auch ein bisschen besser, wo die Probleme mit den URLs liegen. Dann kann man sehen, bei den Kategorieseiten funktioniert alles bestens, bei den Detailseiten ist die Anzahl indexierter Seiten sehr klein, dann kann man eingrenzen, wo das Problem liegt. Man kann auch eine große Sitemap behalten und die kleineren dann hinzufügen. Für uns sind Sitemaps ein technisches Hilfsmittel, um neue und veränderte Seiten zu erkennen. Ihr könnt also ein bisschen experimentieren und schauen, wo kann ich die Informationen herausholen, die für mich relevant sind.

Werbung

TEILEN
Klaus Wockenfoth

Klaus Wockenfoth ist gelernter Softwareentwickler und seit etwa 4 Jahren im Bereich Suchmaschinenoptimierung tätig. Seit 2016 arbeitet er als SEO Projektleiter in der Exklusiv-Abteilung bei FAIRRANK und betreut dort in erster Linie größere Kundenprojekte.

Hinterlasse eine Antwort