Werbung

Heute Mittag fand ein deutscher Hangout mit Johannes Mueller von Google statt. Nachfolgend findet ihr unser Transkript – viel Spaß beim Lesen!

Thema: Indexierung

Zeit: 00:29

Frage: Wir haben einen Shop und folgendes Problem: Es gab ein Duplicate Content Problem, welches vergangene Woche behoben wurde – die Seiten werden jetzt sehr langsam indexiert. Dies ist der Fall, obwohl die Seite sich auf der zweiten Ebene befindet und auch sehr gut verlinkt wird. Die Website ist sehr gut strukturiert, daher verstehen nicht, warum diese Seiten nicht mehr indexiert werden.

Antwort: Meistens deutet das auf ein technisches Problem hin, d. h. das wir die Seiten irgendwie nicht richtig crawlen können. Vielleicht war zuvor ein noindex auf diesen Seiten oder es wurde ein 404er ausgelöst. Google versucht grundsätzlich alle Seiten zu indexieren und schaut erst im zweiten Schritt, wie die Qualität ist und welche Signale es gibt. D. h. ich würde eher auf ein technisches Problem tippen. Ich würde alles durchgehen und prüfen (z. B. mit “Fetch as Google”) ob man darüber alle Seiten sauber holen kann und ob nicht z. B. irgendwo ein noindex vorhanden ist.

Frage: Wir haben all diese Sachen schon einmal überprüft, es ist alles in Ordnung. Es handelt sich um eine große Website, allerdings sind nur 100 Seiten auf index gestellt.

Antwort: Schwierig. Ihr könntest es noch mit einer info-Abfrage versuchen (info:url), um zu sehen, ob die URL(s) Google bekannt ist / sind.

Thema: Mobile URLs

Zeit: 06:51

Frage: Wir haben bei einem Kunden auf mobile URLs umgestellt (Kunde nutzt separate mobile URLs auf einer Subdomain). Mobile User werden per JavaScript an diese URLs weitergeleitet. Das hat alles einwandfrei funktioniert bis der Dienstleister auf der mobile Subdomain das Canonical Tag eingebaut hat. Danach ging nach und nach das mobile Label verloren. Obwohl das Testtool von Google immer noch sagt, dass in dieser Hinsicht alles in Ordnung ist.

Antwort: An und für sich klingt das richtig. Wir raten eher von JavaScript Weiterleitungen ab bzw. empfehlen eher dies auf der Serverseite zu verwenden, wenn aber der rel=alternate Tag für die mobile Version vorhanden ist, wenn von der mobilen Version ein Canonical auf die Desktop-Version zeigt – dann sollte für Google eigentlich klar sein, dass diese Seiten zusammengehören.

Thema: Länderdomains

Zeit: 09:23

Frage: Wir haben in Österreich eine Reihe von Hotelseiten, die alle ein .at-Domain haben. Wie sieht es dann aus, wenn jemand in Deutschland nach einem Hotel in Österreich sucht – sind die .at-Domains da in Ordnung?

Antwort: Das ist in Ordnung. Google versteht, das diese Nutzer nicht etwas Lokales suchen, sondern etwas in Österreich.

Thema: Länderdomains

Zeit: 10:36

Frage: Was ist denn mit Leuten in Südtirol, die ja in Italien leben, aber Deutsch sprechen. Bringt es etwas, ein Unterverzeichnis /de-it anzulegen, damit diese Nutzer die Websites besser finden? Oder ist das bei einer Länderdomain (.at) überflüssig?

Antwort: Mit einer Länderdomain kann man kein Geotargeting einschalten. Wie die Seiten oder Unterverzeichnisse benannt werden, ist den Webmastern überlassen. Für Google ist nur wichtig, dass die Bezeichnungen eindeutig sind.

Thema: Disavow Datei 

Zeit: 12:19

Frage: Habe kürzlich die URLs einer Site per 301 geändert. Muss eine vor langer Zeit eingereichte und bereits von Google verarbeitete Disavow-Liste nochmal neu eingereicht werden, damit die Entwertung der Links auch für die neuen URLs zählt? Domain blieb gleich.

Antwort: Wenn die URL gleich bleibt, muss man das nicht machen, da die Linkquellen gleich bleiben.

Thema: Search Console

Zeit: 13:35

Frage: Ihr habt Ende 2014 die *Webmaster Tools Benutzer* nach Vorschlägen zu *Verbesserungen* befragt. Was wurde aus diesen Vorschlägen? Sieht man jene die umgesetzt werden? Gibt es hier nochmals Feedback? Wann startet die nächste Runde?

Antwort: Ich habe mir die Ergebnisse angesehen und festgestellt, dass Google einige Sachen noch nicht gemacht hat. Es sind aber viele Dinge dabei, die in nächster Zeit angegangen werden. Google versucht diese Vorschläge zu priorisieren und dann umzusetzen, wobei es unabhängig von diesen Befragungen auch immer noch andere Dinge gibt, die gemacht werden müssen. Es gibt auch verschiedene Sachen, die aktuell eher nicht umgesetzt werden können.

Thema: Gehackte Website

Zeit: 15:32

Frage: Nach einer 1:1 Kopie (Hack) wurde unsere Seite komplett aus dem Index entfernt. Nachdem das Copycat gesperrt wurde hat sich unsere Seite auch nach 4 Monaten nicht von dem Schaden erholt. Der Vorfall wurde Google gemeldet. Was können wir noch tun? Danke.

Antwort: Sehr schwierig zu sagen, ohne den aktuellen Zustand zu kennen. Stellt auf jeden Fall sicher, dass die Seiten bereinigt sind und da nirgends irgendwelche versteckten Texte vorhanden sind. Auch sollte es keine Inhalte geben, die via Cloaking von Nutzern versteckt den Suchmaschinen aber gezeigt werden. Wenn aber wirklich nur eine Kopie der Website erstellt wurde, sollte sie sich eigentlich erholen. Wenn die Website im Ranking gefallen ist, ist das eher wegen der Website an sich der Fall und nicht, weil sie gehackt wurde.

Thema: Rich Snippets

Zeit: 17:20

Frage: Wie wichtig sind momentan die RichMediaSnippets für Google? Und ab welchem Faktor bekommt man die rechte Box mit Fotos etc. z. B. für Kunden hin? https://www.google.de/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=rihanna

Antwort: Bei den Rich Snippets spielen mehrere Faktoren eine Rolle. Einerseits müssen sie technisch sauber hinterlegt werden. Andererseits müssen sie den Google Richtlinien entsprechen. Die Website muss von ansprechender Qualität sein. Rich Snippets beeinflussen das Ranking nicht. Die Informationen, die im Knowledge Graph angezeigt werden, werden nicht aus einer Quelle bezogen. D. h. man kann jetzt nicht sagen, dass sie alle aus entsprechend markierter Structured Data entstammen. Es werden verschiedene Quellen genutzt.

Thema: Online Shop

Zeit: 19:19

Frage: Wir betreiben 18 Shops (koempf24.de). 20% unserer Artikel werden in mehreren Shops angeboten – z. T. in bis zu 4 dieser 18 Shops. Ergeben sich daraus negative SEO-Konsequenzen? Wenn ja, wie können wir diese vermeiden? Danke!

Antwort: In so einem Fall würde ich grundsätzlich versuchen, die Artikel einem Hauptshop zuzuordnen und dann per rel-Canonical auf diesen Shop zu verweisen. So kann vermieden werden, dass eine Situation wie Doorway Pages vermieden wird. Andererseits können dann auch alle Signale auf diesen Artikel einem Shop zugeordnet werden.

Thema: Serverumzug

Zeit: 22:49 

Frage: Rankingverlust nach Serverumzug: http://www.ra-croset.de/ bis zum 03.09.2015 normaler Traffic. Nach dem Serverumzug am 04.09.2015 kein organischer Traffic mehr. Es gab keinen Ausfall der Webseite. Der neue Server ist deutlich schneller als der alte und einen aktuelle Sitemap hochgeladen. Leider ohne Erfolg. Es sind nur 9 URLs indexiert worden, aber 63 übermittelt. Die Seite selber ist gut gemacht, mit viel Mehrwert. Manuelle Maßnahmen liegen nicht vor. Vor dem Servierwechsel waren alle Seiten im Index.

Antwort: Ich habe mir das angesehen und habe gesehen, dass es da echt technische Probleme gibt – die alten Seiten haben 404 zurückgegeben, was mehrere Tage lang der Fall war. Vermutlich wurde gleichzeitig auf eine andere URL gewechselt, ohne die alten Seiten mit einer Weiterleitung zu versehen. Daher wurden wohl die alten Seiten aus dem Index genommen und die neuen Seiten muss Google erst einmal verstehen – das kann ein wenig dauern, sollte sich aber wieder einpendeln. Es sollte immer sichergestellt werden, dass alle alten URLs auf entsprechende neue URLs weitergeleitet werden, um so etwas zu vermeiden.

Thema: Google News

Zeit: 26:27

Frage: Wir versuchen seit Monaten wieder bei Google News gelistet zu werden. Die Anträge werden immer ohne Information abgelehnt. Frage: Ist die Artikel ID (einzigartige Zahl) in der URL mittlerweile Pflicht um in Google News gelistet zu werden?

Antwort: Ich kenne mich bei Google News nicht ganz aus. Ich würde da einfach mal im englischen Google News Publisher Forum nachzufragen. Meines Wissens ist es so, dass man diese ID im URL haben oder die News-Sitemap haben muss.

Thema: Navigation

Zeit: 27:25

Frage: Spielt es eine Rolle, bei einer seitlichen Navi Menü-Unterpunkte besser per Ajax nachzuladen oder aber die Unterpunkte zu Beginn per CSS auszublenden? Menge Menüpunkte: ca. 140. Ist die Weitergabe des Linkjuice bei einer der Varianten vorteilhafter? Danke!

Antwort: Schwierig zu sagen. Ich schätze beide Varianten ähnlich ein. Was passiert, wenn Google erkennt, dass es sich um eine Navigation (oder einen Teil der Website, der sich immer wieder wiederholt) handelt, nennen wir das Boiler Plate – und berücksichtigen das weniger stark. Google folgt diesen Links, schätzt sie aber nicht als kritischen Bestandteil dieser Website ein. Wenn da einige Menüpunkte via Ajax nachgeladen werden und für Google nicht direkt erreichbar sind, Google die Website dennoch regulär crawlen kann, dann ist das okay. Es sollte auf jeden Fall sichergestellt werden, dass die Hauptpunkte der Navigation per normaler Links erreichbar sind, damit Google diese regulär crawlen kann.

Thema: Apps

Zeit: 29:33

Frage: Der crawlbare Artikel einer App und der mobiloptimierten Website sind inhaltlich vergleichbar. Kann ein Admin Einfluss nehmen, ob in den mobilen SERPs priorisiert die jeweilige App oder Site angezeigt wird? Evtl. über Canonicals?

Antwort: Mit der App-Indexing ist es so, dass wir passend zu den Webseiten eine URL in der App haben. Das heißt wir kennen die Verbindung zwischen der Webseite und der Seite in der App. Wenn wir erkennen können, dass der Benutzer diese App installiert hat oder es sinnvoll ist, zeigen wir ein Snippet direkt mit der URL zu der App. Dann hat der Nutzer die Wahl, ob er die Seite in der App anschauen möchte. Wenn man möchte, dass bestimmte Seiten nur als Webseite angesehen werden können, sollte man sie per App-Indexing ausschließen. Das geht einerseits durch die Manifest-Datei in der App, wo man bestimmte Seiten für die App blockieren kann. Wenn alle Seiten per App erreichbar sind, denken wir, dass der Betreiber die App für die beste Lösung hält. Oft sind die Apps von der Bedienbarkeit besser und wenn ein Nutzer die App schon installiert hat, kann man davon ausgehen, dass er die Inhalte auch lieber auf der App sehen möchte. Wenn einige Seiten nicht per App erreichbar sind, ist das für uns völlig ok und wir zeigen das in den Suchergebnissen als normale URL zur Webseite und nicht zur App an.

Thema: Wörterbuch indexieren

Zeit: 31:56

Frage: Wir möchten ein Wörterbuch (Datenbank) mit vielen qualitativ hochwertigen Datensätzen als Subfolder in die Rootdomain (Sprachreisen) integrieren, über die Menüs verlinken. Der Shop weißt ca. 5000 Seite auf, das Wörterbuch viele Millionen. Ist das riskant?

Antwort: Es ist schwerig zu sagen. Auf der einen Seite sind es viele hochwertige Datensätze auf der anderen Seite ist es ein Wörterbuch und all diese Wörter sind sicherlich schon irgendwo im Internet definiert, mit einer ähnlichen oder gleichen Definition. Wenn man alles zum Indexieren freigibt, hat man eine große Menge an Inhalten auf der Website, der keinen wirklichen Mehrwert für das Internet bringt. Ich würde mir überlegen, ob diese Inhalte wirklich so spannend sind, dass sie indexiert werden sollen. Erst, wenn man merkt, dass sich Benutzer für diese Inhalte interessieren, sollte man einen Teil oder das ganze Wörterbuch freischalten.

Thema: SEO

Zeit: 34:53

Frage: Hallo John, ich bin auf der Suche nach DEM SEO Guru in Deutschland, um eine kompetente Beratung für meine Webseite zu erhalten. Es geht wirklich nur um die Beratung, also keine Agentur, die dann die SEO Optimierungen vornehmen will. Danke!

Antwort: Ich habe da keine Empfehlung. Ich würde im Hilfeforum oder in einer SEO-Community nachfragen.

Thema: Doppelte Meta-Tags

Zeit: 35:42

Frage: Hi John, unsere Sessions ID wurden in Google indixiert. In der Zwischenzeit haben wir den Schalter dafür gefunden. Wie lange kann es dauern, bis Google das sieht? Wichtig, weil wir dadurch doppelte Meta-Tags, Title und Content haben.

Antwort: Es gibt da keine genaue Antwort. Eine Seite schauen wir öfter an, eine andere schauen wir nur alle paar Monate an. Bei einigen werden wir es dadurch schnell erkennen, bei anderen kann es bis zu einem halben Jahr dauern. Doppelte Meta-Tags etc. sind für uns ein technisches Problem und werden von uns nicht bestraft.

Thema: Keyword definieren

Zeit: 37:14

Frage: Kann man mit mehreren Seiten seiner Domain im Ranking für ein Keyword eingetragen sein? Wenn nein, wie kann man Google dazu bringen, eine andere Seite für dieses Keyword zu nutzen, statt der, die schon geranked ist?

Antwort: Man kann mit verschiedenen Seiten bei der gleichen Suchanfrage sichtbar sein. Es gibt keine Grenze, wie viele Seiten von einer Seite stammen dürfen. Wir zeigen die Seiten an, die für den Nutzer relevant sein könnten. Wenn man für ein anderes Keyword ranken will, kann man das nicht selbst eintragen, sondern muss die gesamte Webseite darauf ausrichten, zum Beispiel durch interne Verlinkung von der Startseite aus.

Thema: Indexierung

Zeit: 38:43

Frage: Noch eine Frage: Wie lange dauert die komplette Indexierung einer neu eingetragenen Sitemap (Größe ~2000) in der Google Search Console?

Antwort: Da gibt es keine genaue Antwort. Das kann Tage, Wochen oder Monate dauern. Bei 2000 Seiten wird das wahrscheinlich relativ schnell erledigt sein.

Thema: Logo bei Google Maps

Zeit: 39:37

Frage: Was können wir tun, wenn ein falsches Logo bei Maps angezeigt wird? Das Logo ist bereits auf der Seite ausgezeichnet. Wenn man auf Logo klickt, kommt man auf eine USA Karte und nicht Google Local Seite.

Antwort: Ich weiß nicht genau wie das bei Google Local gemacht wird. Ich würde dort im Hilfeforum nachfragen.

Thema: Rich Snippets

Zeit: 40:18

Frage: Auf unserer Seite sind die Skripte für die Darstellung von Rich Snippets in den Suchergebnissen eingebunden. Das Webmaster-Testing-Tool meldet 0 Fehler. Leider werden bis heute keine unserer Sucheinträge mit Rich Snippets angezeigt. Wo ist der Fehler?

Antwort: Das kann an mehreren Dingen liegen. Ich würde im Webmaster Forum nachfragen und die URL angegeben, damit sich andere die Seite mal anschauen können. Es könnte zum Beispiel an der Qualität der Seite liegen, die für Rich Snippets sehr hoch sein muss.

Thema: Lokale Domains

Zeit: 41:49

Frage: Ist .at/ch-de/ besonders gut geeignet für deutschsprachige Schweizer? Oder ist dies alles aufgrund der .at nicht mehr als Signal in irgendeiner Weise zu werten, wenn jemand aus Zürich ein Hotel in Salzburg (Österreich) sucht?

Antwort: Wenn der Benutzer etwas Lokales sucht, versuchen wir schon, Ergebnisse in der Umgebung anzuzeigen. Wenn jemand ein Hotel in Salzburg sucht, ist es klar, dass er das nicht in Zürich sucht. Wenn jemand etwas Globales sucht, ist es also egal. Wenn man dagegen zum Beispiel speziell Kühlschränke in Zürich verkaufen will, macht es dagegen schon Sinn.

Thema: Serverumzug

Zeit: 43:29

Frage: Nach Serverumzug und kurzzeitig (ca. 2 Tage) falschen URL-Endungen (php/html) sind nun nach einer Woche ca. 50 von 80 Seiten aus dem Index und die Besucher sind von durchschnittlich 1000 Besucher / Tag auf 20 Besucher zusammengebrochen.

Antwort: Wenn man einen Umzug macht, ist es wirklich wichtig, dass man eine Weiterleitung einrichtet. Sonst werden die alten Seiten nicht mehr in den Suchergebnissen angezeigt und wie müssen die Neuen erst bewerten. Jetzt sollte man eine Weiterleitung von den neuen Falschen auf die Alten einrichten, dass deutlich wird, dass diese nicht die richtigen Seiten waren. Die Seite sollte sich dann relativ schnell wieder holen. Etwa zwei bis drei Wochen kann man da rechnen. Für uns ist das eher ein technisches und kein Qualitätsproblem, daher können wir die Seiten wieder genau gleich bewerten.

Thema: Neue Descriptions

Zeit: 45:28

Frage: Wie lange dauert es bis Google die neu verfassten Discription erkennt? Bei unserer Website werde zu kurze Discription anerkannt, obwohl diese vor 2 Wochen geändert wurden. Indexierte Seite 482, Tag gecrawlte Seiten: ~ 146.

Antwort: In der Regel geht es relativ schnell, aber nicht alle Seiten werden gleich schnell gecrawlt. Man kann auch nicht erwarten, dass Änderungen 1 zu 1 wiedergegeben werden, da wir das anzeigen, was für den Nutzer am sinnvollsten ist.

Thema: Disavow – Datei

Zeit: 47:10

Frage: Wenn man eine neue disavow-Liste einreicht, die gegenüber der vorigen zusätzlich einige neue Domains enthält, betrachtet Google dann die gleich gebliebenen Domains wie Neue? Werden diese noch mal über Monate neu gecrawlt, obwohl das früher bereits geschah?

Antwort: Nein, wir nehmen nur die neuen Sachen dazu.

Thema: Indexierte Seiten entfernen

Zeit: 47:41

Frage: Wir haben seit letzter Woche, das Problem, dass plötzlich über 300.000 indizierte Seiten vorhanden sind, nachdem versehentlich robots.txt deaktiviert wurden. Wir haben die robots wieder aktiviert, wie bekommen wir am besten die 300000 Seiten aus dem Index?

Antwort: Ich würde mir die URL-Struktur anschauen. Wenn alle URLs im selben Unterverzeichnis sind, kann man sie gut mit dem URL-Entfernungstool entfernen lassen. Wenn die Struktur nicht klar erkenntlich ist, müssen wir die Seiten erst neu crawlen, um zu merken, dass sie blockiert sind. Das kann gut ein halbes Jahr dauern. Wenn es ein kritisches Problem ist, weil auf der Seite zum Beispiel persönliche Daten vorhanden sind, dann würde ich die ganze Seite entfernen lassen und alles Schritt für Schritt durchgehen. Persönliche Seiten sollten am besten durch ein Passwort oder durch noindex geschützt werden, falls wieder ein Problem mit der robots.txt auftritt.

Thema: Google Search Console

Zeit: 50:36

Frage: Wir haben alle unsere 1.5Mio Seiten mittels schema.org (Produkte, Preise, etc.) bzw. data-vocabulary (breadcrumb) ausgezeichnet und validiert. Google zeigt in den WMTs aber nur ca. 150.000 an, eher sogar mit fallender Tendenz. Was kann den hier falsch laufen?

Antwort: Ich denke, dass das einfach die Auswahl ist, die wir anzeigen. Wir zeigen eben nicht alle Seiten an, sondern nur die, die relevant sind. Das würde ich nicht als schlechtes Zeichen nehmen.

Thema: Neuer Tab

Zeit: 51:12

Frage: Hallo John, aktuell stellt sich mir die Frage, ob es aus SEO-Sicht nachteilig sein kann, interne Links einer Seite grundsätzlich in einem neuen Browser-Tab öffnen zu lassen. Aus Usability-Sicht scheiden sich hier die Geister.

Antwort: Das ist dir überlassen. Für uns ist das egal.

Thema: Search Box

Zeit: 51:48

Frage: Wir haben Search Box Code integriert, der zeitlange von Google anerkannt wurde und auf interne Suche verlinkte. Seit ein paar Wochen ignoriert es Google und zeigt eigene Ergebnisse. Code ist laut Testing Tool richtig. Was können wir machen?

Antwort: Es braucht einige Zeit, bis der Code wirklich sauber sichtbar ist. Wenn er sichtbar war und jetzt nicht mehr funktioniert, würde ich auf ein technisches Problem tippen. Schick uns den Link einfach mal zu.

Thema: Adult Content

Zeit: 52:50

Frage: Wir haben eine Ratgeberdomain, die schon vorher bestand und in die Richtung Adult-Content ging. Nun haben wir die Seite überarbeitet und sehen aber, dass wir kaum organischen Traffic bekommen. Muss man bestimmte Maßnahmen berücksichtigen, damit Google merkt, dass es sich nicht mehr um Adult-Content sondern um seriösen Content handelt?

Antwort: Ich würde probieren, ob die Ergebnisse mit Save-Search genauso sind. Wenn die Seite wirklich gefiltert wird, würde ich mich im Hilfecenter melden und angeben, dass die Seite fälschlicherweise gefiltert wird. Dort gibt es ein Formular. Es ist keine normale Frage des Crawlings, da bei gefilterten Seite manuell nachgeschaut werden muss.

Thema: Hreflang

Zeit: 55:10

Frage: Wir haben einen Shop in mehreren Sprachregionen. Und die .de Domain rankt gut in der Schweiz und Österreich. Bei den anderen Seiten ist es genauso, dass sie in den anderen Ländern gut ranken. Wir haben die Texteintellungen schon überprüft. Was können wir tun, damit es richtig erkannt wird?

Antwort: Ich würde in der Search Console nachschauen, ob der hreflang richtig gesetzt ist. Wenn das der Fall ist, schick mir das einfach mal zu. Dann schaue ich mir das genauer an.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN
Nach meinem Studienabschluss in den Fächern Geschichte / Germanistik B. A. an der Carl von Ossietzky Universität Oldenburg bin ich seit Oktober 2013 Teil des Teams der imwebsein GmbH in Oranienburg. Im Sommer 2014 habe ich den Lehrgang zur Online Marketing Managerin an der IHK Potsdam erfolgreich abgeschlossen. Nach ersten Erfahrungen im Blogging im imwebsein-Blog bin ich nun Teil des Redaktionsteams von seo-portal.de.

HINTERLASSEN SIE EINE ANTWORT