Hier findet Ihr das deutsche Google Webmaster Hangout vom 2. November 2017.
Thema: HTTPS
Zeit: 0:40
Frage: Seit dem Umstieg auf HTTPS sind die Crawl-Aktivitäten von Google so stark angestiegen, dass mein Host-Provider mich um eine Reduzierung des Traffics gebeten hat. Was kann man als Webmaster hier tun?
Antwort: Beim Umstieg auf HTTPS crawlt der Googlebot diese Website besonders schnell und intensiv, damit die Umstellung suchmaschinenseitig schneller verarbeitet werden kann. Neben den neuen werden während der Übergangszeit auch die alten URLs gecrawlt. Im Hilfecenter der Search Console hat man die Möglichkeit, ein Formular auszufüllen und dieses Problem an Google zu melden.
Thema: Crawl-Budget
Zeit: 4:38
Frage: Wenn man Anfragen vom Google-Bot serverseitig abfangen würde, geht das Crawl-Budget dann verloren oder wird das Budget für später aufgehoben?
Antwort: HTTP-Code 503 stellt in diesem Fall eine Möglichkeit dar. Wenn der Googlebot diesen Code als Antwort erhält, wird die Crawling-Frequent vorübergehend reduziert. Ein Aufsparen ist nicht möglich, sondern das Crawl-Budget wird täglich bemessen.
Thema: Noindex und Canonical
Zeit: 5:59
Frage: Stimmt die folgende Aussage: „Ein Noindex-Verweis sollte niemals mit einem Canonical-Tag verwendet werden“?
Antwort: Bei der Kombination aus Noindex und Canonical besteht das Problem, dass bei einer der als kanonisch angegebenen Seiten eine Indexierung nicht erwünscht ist, während sie gleichzeitig als äquivalente Seite angegeben wurde. Das kann dazu führen, dass Google eine Seite verwenden möchte, die aber auf Noindex gesetzt ist. Allerdings ist der entsprechende Algorithmus so „intelligent“, dass er die Intention des Webmasters zu erkennen versucht und entsprechend handelt. Wichtig ist, die interne Verlinkung sauber zu gestalten, also z. B. nicht auf Noindex-Seiten zu verlinken, sondern auf diejenige, die im Canonical-Tag als bevorzugte URL angegeben wird. Klare Signale unterstützen Google an dieser Stelle.
Thema: Staging-Domain blockieren
Zeit: 9:28
Frage: Es ist sinnvoll, eine Staging-Domain für den Googlebot zu sperren. Man kann IP-Adressen blockieren, die Robots.txt-Datei entsprechend anpassen oder im Robots-Metatag „Noindex“ setzen. Macht es Sinn, alle diese Möglichkeiten gleichzeitig zu nutzen?
Antwort: Wichtig bei einer Staging-Domain ist einfach nur, dass sie nicht im Google-Index landet. Je mehr der genannten Blockierungs-Elemente verwendet werden, umso höher ist die Gefahr, dass bei der Liveschaltung der Website versehentlich eines dieser Elemente nicht entfernt wird und die Live-Domain dann für den Googlebot gesperrt ist. Das Team um John Müller sieht solche Fälle sehr häufig. Ein IP-Blocker mit einer IP-Whitelist ist laut John Müller in dieser Hinsicht die beste Methode, weil es schnell nach dem Relaunch auffällt, wenn sie versehentlich nicht deaktiviert wird. Ein .htaccess-Verzeichnisschutz ist ebenso eine gute Möglichkeit.
Thema: Text above the Fold
Zeit: 12:26
Frage: Ist Text above the Fold immer noch wichtig? Heute ist der Design-Trend eher bildlastig.
Antwort: Hier ist das Problem, dass Besucher oft nicht wissen, auf was für einer Website sie eigentlich gelandet sind. Wenn die Bilder jedoch zu den Seiteninhalten passen, ist das weniger problematisch. Ein Nachteil ist es, wenn above the Fold überwiegend Werbung zu sehen ist, weil dadurch die User Experience sinkt.
Thema: Mobile Rendering-Engine
Zeit: 13:52
Frage: Welche Rendering-Engine kommt beim „mobile First Index“ zum Einsatz?
Antwort: Die Rendering-Engine ist dieselbe wie bei der Desktop-Version, basierend auf Chrome 41.
Thema: Domain-Scripting Errors im Google-Cache
Zeit: 17:04
Frage: Wenn ich meine Seite im Google-Cache aufrufe, werden Domain-Scripting Errors angezeigt. Ist das bedenklich?
Antwort: Nein, insbesondere beim Einsatz von JavaScript-Frameworks kann das passieren. Beim Aufruf einer Seite über den Google-Cache liegt eine andere Domain zugrunde, weshalb domainspezifische Skripte hier Fehlermeldungen erzeugen können.
Thema: Servers-Worker
Zeit: 18:26
Frage: Darf man mit Servers-Worker Inhalte manipulieren?
Antwort: Das kann man theoretisch machen, Google führt Servers-Worker allerdings gar nicht aus. Google ignoriert diese.
Thema: Doppelte H1-Tags
Zeit: 18:45
Frage: Darf eine Seite doppelte H1-Tags enthalten, z. B. einen für die mobile Version und eine für die Desktop-Version, die dann mithilfe von CSS entsprechend angezeigt werden?
Antwort: Das kann man so machen. Google erkennt beide H1-Tags und versucht, beide entsprechend zu verarbeiten.
Thema: .com-Domains
Zeit: 19:33
Frage: Welche Vorteile bietet eine .com-Domain im Bereich SEO?
Antwort: .com-Domains bieten keine speziellen Vorteile. Seiten, die unter einer .com-Domain liegen, werden als kommerziell kategorisiert und Google zählt diese zu den generischen Domains. Ebenso ist dies mit den ganzen neuen Top-Level-Domains (.shop usw.). Über die Search Console können diese Domains jedoch einem bevorzugten Land zugeordnet werden.
Thema: Content-Delivery-Network
Zeit: 21:42
Frage: Wie wichtig ist ein Content-Delivery-Network? Macht das für jede Website Sinn?
Antwort: Für SEO ist die Nutzung eines CDN irrelevant. Für Besucher macht es möglicherweise Sinn, wenn das Aufrufen der Webseiten dadurch beschleunigt wird. Wenn der CDN-Anbieter gewechselt wird, crawlt der Googlebot die Seiten möglicherweise in der ersten Zeit etwas langsamer.
Thema: Title und Alt-Attribut bei Bildern
Zeit: 24:06
Frage: Title und Alt-Attribut bei Bildern: welches Attribut sollte man bevorzugen?
Antwort: Das Title-Attribut sollte dann verwendet werden, wenn es sich bei den Bildern um Links handelt oder sie als Anker dienen. In allen anderen Fällen bietet sich eher das Alt-Attribut an. Aber unter dem Strich tut sich beides nicht weh.
Thema: Abruf wie bei Google
Zeit: 25:23
Frage: Was hat es mit „Abruf wie durch Google“ in der Search Console auf sich, wenn eine Seite trotz HTTP-Code 200 nicht abgerufen werden kann. Sollte man es dann direkt nochmal versuchen oder besser warten? Warum passiert so etwas?
Antwort: Hier spielen zwei Aspekte eine Rolle: die Verzögerung kann auf der Seite des Webservers oder auf der Seite von Google liegen. Ein paar Minuten zu warten und es dann nochmal zu versuchen, macht hier Sinn. Wenn der Webserver jedoch selbst so sehr an seinem Limit ist, dass er Anfragen kaum noch bearbeiten kann, merkt Google das und reduziert das Crawl-Budget. In diesem Fall sollte man seinen Server entweder aufrüsten lassen oder das Caching der Seiten optimieren.
Thema: Singular und Plural
Zeit: 29:28
Frage: Warum rankt Google meine Produktseite mit dem Long-Tail-Keyword „Produktname + Produkterfahrung“ auf Platz 1, jedoch nicht unter dem Plural „Produkterfahrungen“?
Antwort: Das hängt immer vom Einzelfall ab. Seitens Google wird nicht explizit analysiert, ob ein Wort innerhalb der Suchanfrage als Singular oder Plural eingegeben wurde. Hier ist eher die Reaktion der Nutzer auf eine Suchanfrage entscheidend, die von Google ausgewertet wird – also ob bei einer bestimmten Suchanfrage die jeweilige Seite auch in der Trefferliste angeklickt wird.
Thema: Kategorieseiten erzielen keine Rankings mehr
Zeit: 31:35
Frage: Wir können kein Ranking mehr für unsere Kategorieseiten erzielen. Angezeigt werden nur noch einzelne Produkte.
Antwort: In diesem Fall haben sich die URLs häufig geändert, so dass sich Google auf die ständig verändernden Signale einlassen muss. Bei jeder größeren URL-Umstrukturierung innerhalb einer Website dauert es seine Zeit, bis sich die Rankings wieder einpendeln. Es ist daher zu empfehlen, grundlegende URL-Umstrukturierungen nicht zu häufig vorzunehmen. Manchmal kann es einige Monate dauern, bis die neue Struktur erfasst wurde.
Thema: Search Console: „Links zu Ihrer Website“
Zeit: 36:02
Frage: Wir sind von einer .net- zu einer .de-Domain umgezogen. Der Umzug wurde von uns in der Google Search Console bekanntgegeben. Jetzt sind in der Search Console unter „Links zu Ihrer Website“ über 1 Mio. Links von der alten zur neuen Domain aufgelistet. Ist das problematisch?
Antwort: Das ist nicht ungewöhnlich. Wenn die URL-Weiterleitungen technisch sauber eingerichtet sind, kann diese Angabe ignoriert werden. Nach einigen Wochen normalisiert sich die Anzeige für gewöhnlich wieder.
Thema: Markups
Zeit: 37:07
Frage: Wir betreiben ein Eventportal mit einem Eventkalender. Alle Events sind mit Markups ausgezeichnet, in der Search Console werden jedoch nicht alle diese angezeigt.
Antwort: Wenn Seiten auf „Noindex“ gesetzt sind, kann das passieren. Aber gerade bei einer großen Anzahl an Events mit Markup kann es passieren, dass bestimmte Policies beachtet werden müssen und an dieser Stelle einige Einträge rausfallen. Auch können sehr ähnliche Events fälschlicherweise als ein einziges Event interpretiert werden.
Thema: Subdomains
Zeit: 40:01
Frage: Ist es sinnvoll, bestimmte Inhalte auf Subdomains zu hosten (z. B. shop.domain.tld)?
Antwort: Es ist unerheblich, ob Inhalte in einem eigenen Unterverzeichnis oder auf einer eigenen Subdomain liegen. Für welche Variante man sich entscheidet, ist eine Frage des Einzelfalls und eine Frage des Geschmacks.
Thema: Interne Links
Zeit: 42:04
Frage: Wenn ich über mein Logo auf meine Startseite verlinke und von einigen Unterseiten zusätzlich auf die Startseite mit einem Anker-Text, wird dem Anker-Text dann noch ein Wert beibemessen?
Antwort: Google sieht beide Links und verwendet den Anker-Text im Kontext mit dazu.
Thema: Keywords im Footer
Zeit: 42:55
Frage: Haben Keywords im Footer einen negativen Einfluss auf SEO?
Antwort: Oft werden Keywords im Footer als Keyword-Stuffing eingestuft, so dass ihnen kein besonderer Wert beibemessen wird. Stattdessen sollte man diese Links lieber innerhalb des Contents setzen und zwar dort, wo sie für den Benutzer Sinn machen.
Thema: Search Console: „Links zu Ihrer Website“
Zeit: 44:58
Frage: Nach einem Domainumzug habe ich die alten URLs auf die passenden neuen URLs weitergeleitet. In der Search Console werden jetzt alte und neue Links angezeigt.
Antwort: Dieselbe Antwort wie bei 36:02, Search Console: „Links zu Ihrer Website“
Thema: Drei Rankings von einer Domain auf einer SERP
Zeit: 46:48
Frage: Mit dem Keyword „Wörterbuch“ rankt seit einiger Zeit eine Firma mit drei Positionen auf Seite 1. Diese Firma ist sehr stark. Hat sie einen Bonus von Google erhalten und was kann man hier tun?
Antwort: Boni werden an dieser Stelle nicht vergeben. Es handelt sich um normale, organische Ranking-Algorithmen, die hier aktiv sind. Es existiert seitens Google keine Beschränkung, wieviele URLs von einer Domain auf einer SERP erscheinen dürfen. Eine gezielte Herabstufung dieses Mitbewerbers ist seitens Google nicht möglich. Wenn man hier ebenfalls ranken möchte, sollte man der eigenen Kreativität freien Lauf lassen, insbesondere in stark umkämpften Märkten.
Thema: Ranking-Schwankungen
Zeit: 50:00
Frage: Wir ranken abundzu mit dem Keyword „Fotobuch“ auf Seite 1. In Q4/2016 hatten wir sehr gute Rankings und seitdem sind sie schwächer geworden. Woher kommen diese Schwankungen und was kann man dagegen tun?
Antwort: Ranking-Schwankungen sind vollkommen normal. Die Algorithmen werden immer wieder angepasst, so dass sich Schwankungen gar nicht vermeiden lassen. Auch Mitbewerber passen ihre eigenen Internetauftritte an, wodurch sich die Rankings ebenfalls verändern. Auch hier muss man selbst kreativ sein.
Thema: Bevorzugte Domain bei HTTP/HTTPS
Zeit: 51:38
Frage: Für eine HTTPS-Website möchte ich eine bevorzugte Domain festlegen. Die dazugehörige HTTP-Domain muss hierfür verifiziert werden, diese existiert aber nicht mehr. Was kann ich tun?
Antwort: Eine Möglichkeit besteht in einer DNS-Verifikation, hierbei werden die HTTP- und HTTPS-Domains gleichermaßen verifiziert. Google erkennt eine Umstellung auf HTTPS aber auch von alleine recht gut, weshalb die Angabe einer bevorzugten Domain hier nicht immer notwendig ist.
Thema: Mehrere Websites zu einem Thema
Zeit: 53:18
Frage: Ich betreibe eine Reihe von Websites zum selben Thema. Kann man den Google Quality Ratern mitteilen, dass diese Websites zusammengehören?
Antwort: Hier muss man nichts Spezielles machen. Google erkennt von alleine recht gut, ob Websites zusammengehören.
Thema: Meta-Description und Rich Snippets
Zeit: 54:50
Frage: Wenn ich auf einer Seite die Meta-Description vorgebe und gleichzeitig Rich Snippets einsetze (Stichwort: „item-prop“), wie hoch ist Wahrscheinlichkeit, dass Google sich eigenmächtig ein beliebiges anderes Element als Description heraussucht?
Antwort: Google verwendet nicht die Angaben aus den Rich Snippets als Description, sondern greift in diesem Fall auf die Meta-Description zurück. Google verwendet diese aber nicht immer 1:1 für die SERPs. Die auf den SERPs tatsächlich verwendeten Descriptions hängen auch von der Suchanfrage ab.
Thema: Backlinks auf Hash-URLs
Zeit: 56:10
Frage: Eine Seite verwendet Overlays, die mit Hashs angesprochen werden. Die Hash-URLs wurden jetzt indexiert. Wenn Backlinks aufgebaut werden, die auf diese Hash-URLs zeigen, wird dann die dahinterstehende Seite gestärkt oder nur die Hash-URL an sich?
Antwort: Es ist selten, dass Hash-URLs indexiert werden. Falls das dennoch passiert, werden durch die Backlinks die Hash-URLs gestärkt.
Thema: hreflang
Zeit: 58:00
Frage: Ein Kunde hat eine .com-Domain und die Sprachen werden über Unterverzeichnisse abgebildet. Die hreflang-Informationen wurden in der XML-Sitemap hinterlegt. Trotz korrekter Implementierung ranken beispielsweise in der US-Version von Google kanadische Seiten der Website, was so nicht gewollt ist. Was kann man tun?
Antwort: Wenn Google hreflang-Informationen aus der XML-Sitemap ausliest, werden diese erst dann angewendet, wenn die jeweiligen Seiten an sich ebenfalls gecrawlt wurden. Erst wenn alle Sprachversionen einer Seite gecrawlt wurden, wird der hreflang-Tag angewendet, was – je nach Größe des Internetauftritts – durchaus einige Monate dauern kann. Wenn länderspezifische Inhalte in derselben Sprache verfasst sind, fasst Google diese unter Umständen schonmal zusammen, was diese Problematik verursachen kann. In diesem Fall kann es sinnvoll sein, gleiche Inhalte ein wenig unterschiedlich zu formulieren.
Kategorie(n): Wissenswertes
Datum: 4. Dezember 2017