Deutsches Google Webmaster Hangout Transkript, 31.07.2015

von Anja Baltrusch

Kategorie(n): Google Webmaster Hangouts Datum: 31. Juli 2015

Auch heute haben wir den englischen Webmaster Hangout für euch verfolgt. Viel Spaß beim Lesen!

Thema: Panda 

Zeit: 00:38 Frage: Unsere Website leidet seit Monaten unter einem Penalty, aber wir sind uns nicht sicher, ob wir vom Panda getroffen wurden. Kannst du dir das anschauen und uns Informationen dazu geben, was mit unserer Website los ist? Ich habe außerdem das Gefühl, dass unser Content von Besuchern als gut wahrgenommen wird, während Google da anderer Meinung zu sein scheint. Antwort: Da kann ich dir keine schnelle Antwort geben. Die gute Nachricht ist aber, dass ein Panda Refresh am laufen ist. Es ist aus technischen Gründen ein langsameres Rollout. Wenn die Website unter einem alten Panda leidet und am Content der Website gearbeitet wurde, sollte sich das bald widerspiegeln. Wir geben keine spezifischen Informationen in Bezug auf diese algorithmischen Penalties darüber hinaus, was genau das Problem auf einer Website ist.

Thema: Hreflang

Zeit: 06:46 Frage: Seit dem 13. Juli sendet Google Nachrichten über inkorrekt implementierte Hreflang-Tags an Webmaster. Ich habe alle Hreflang-Probleme auf meiner Website vor sieben Monaten behoben und alle Beispiele, die in der Google Nachricht gelistet werden, sind falsch. Google scheint dies irgendwie falsch zu verarbeiten... . Crawlt Google die gelisteten Seiten gezielt? Antwort: Ein Problem, das ich häufig sehe, ist, dass Hreflang korrekt eingebunden wird, aber an einer Stelle, wo Google es nicht finden und verarbeiten kann. Das ist z. B. der Fall, wenn der Hreflang im Head unterhalb von JavaScript/CSS hinterlegt ist, denn damit wird aus technischer Sicht der Head-Bereich geschlossen. Nein, Google crawlt die in der Nachricht gelisteten Seiten nicht gezielt.

Thema: CDN & JavaScript/CSS

Zeit: 09:26 Frage: Meine Website hat in der Google Search Console eine Nachricht darüber erhalten, dass JavaScript und CSS blockiert wird. I nutze ein CDN für alle meine Dateien. Ich habe gelesen, dass Google diese nicht crawlt. Wie kann ich dem Googlebot erlauben Dateien zu crawlen und sie gleichzeitig im CDN zu haben? Antwort: Wir crawlen generell Dateien in CDNs. Google blockiert das auf keine Art und Weise. Sie werden wir jeder andere Content gecrawlt. Ich habe einige Websites gesehen, die den Googlebot von den Dateien im CDN fern halten - das sollte geprüft werden.

Thema: Aggregated Content

Zeit: 10:29 Frage: Hi John, ich möchte bitte wissen, ob es eine spezielle Art und Weise gibt, Google mitzuteilen, dass wir auf einigen Seiten gesammelten Content bereitstellen? Wir haben bisher die Googleon- und Googleoff-Tags genutzt, da wir vermuten, dass wir für Duplicate Content einen Penalty erhalten haben. Antwort: Der Googleon-Tag und Googleoff-Tag sind für die Google Search Appliance, sie haben keinerlei Auswirkungen auf Search. Das hat nur eine Auswirkung, wenn eine eigene Suchmaschine damit betrieben wird. Wir versuchen gesammelten Content zu ignorieren, da dieser aus der Sicht von Google keinen großen Mehrwert bietet. Im Prinzip sollte der Aggregated Content nicht markiert werden - es sollte für einzigartigen Content gesorgt werden.

Thema: Custom Search Engine

Zeit: 11:44 Frage: Können geschützte Seiten gecrawlt, gerendert und indexiert werden, sodass Nutzer bestimmte Informationen, wenn sie die Custom Search Engine nutzen, nur Ergebnisse unserer Website erhalten? Antwort: Ich habe mir das angeschaut und die Custom Search Engine crawlt genauso wie die Crawler für Search crawlen. Wir müssen den Content öffentlich sehen, um ihn indexieren zu können. Du musst die Google Search Appliance nutzen, um die richtigen Resultate zu erhalten,

Thema: Kopierter Content

Zeit: 12:36 Frage: Wir haben entdeckt, dass etwa 10 Websites unsere Website kopiert haben (Inhalt, Bilder, Text). Was würdest du ins diesem Falle empfehlen? Wenn die Websites uns alle als Original verlinken - ist das okay? Oder sollten wir die Websites mit Hilfe der DMCA schließen lassen? Antwort: Ich kann keine Rechtsberatung geben. Google versucht kopierte Inhalte / gescrapte Websites zu erkennen und die Original-Website zu ranken.

Thema: JavaScript/CSS 

Zeit: 14:55 Frage: Hi John, ich habe in der Search Console eine Nachricht erhalten, dass Google keinen Zugriff auf JavaScript/CSS hat. Warum benötigt Google Zugang zu diesen Dateien? Nach welchen Daten schaut Google in diesen Dateien? Antwort: Google sucht nicht nach irgendwas Verrücktem. Google möchte die Seiten im Prinzip so rendern, wie Browser es auch machen, um zu sehen, was Nutzer sehen. Google möchte sichergehen, dass Google den gleichen Content sieht wie die Besucher. Das hat auch etwas mit dem Mobile-Friendly Update zu tun. Wenn die Crawler erkennen können, das die Website mobile-friendly ist, dann kann sie in der mobilen Suche und mit dem Mobile-Friendly Label angezeigt werden. Dafür benötigen wir Zugriff auf JavaScript/CSS. Ich habe das Gefühl, dass unsere Benachrichtigungen in diesem Falle etwas verwirrend waren. Ich habe festgestellt, dass viele Websites, die eine solche Benachrichtigung erhalten haben, mit Hilfe von JavaScript/CSS kleine Datenmengen gezogen haben, z. B. durch Plugins. Viele Plugins wurden dahingehend bereits geupdatet.

Thema: SSL

Zeit: 17:51 Frage: Hey John, muss man, um von dem kleinen SSL-Ranking-Bonus zu profitieren, ein SSL-Zertifikat für die ganze Website einrichten oder lediglich für den Checkout-Prozess. Antwort: Aus meiner Sicht kann das für die gesamte Website gemacht werden. Google schaut jede einzelne URL an und nicht den Checkout-Prozess. Ich kenne keinen Grund, warum das nicht für die gesamte Website eingerichtet werden sollte.

Thema: Affiliate Websites

Zeit: 19:24 Frage: Wie können Affiliate Websites gut ranken? Vertraut Google diesen Websites? Kannst du uns irgendwelche Tipps geben? Antwort: Affiliate Websites können sehr hilfreich sein. Sie können viele Informationen bereitstellen und wir zeigen sie gerne in den SERPs. Gleichzeitig sehen wir viele Affiliate Websites, die nur Feeds per Copy und Paste verwenden. Das ist Low Quality bzw. dünner Content. Wir wollen aber einzigartigen, hochwertigen Content sehen. So etwas wollen wir ranken!

Thema: URL-Änderungen

Zeit: 20:51 Frage: Eine Firma möchte die URLs umstellen. Es soll von /-en-us/ auf /-en-US/ umgestellt werden. Die /-en-us/ Version verfügt aktuell über Canonicals. Die internen Links sind gemixt. Besteht die Gefahr von irgendwelchen negativen Folgen? Antwort: Man muss auf jeden Fall beachten, dass jede kleine URL-Änderung eben das darstellt: Eine URL-Änderung. Google muss alles re-crawlen und re-indexieren. Das kann eine Weile dauern. Innerhalb der Website sollte das eher kein Problem sein. Was ich empfehlen würde ist, dass die Änderungen konsequent durchgeführt werden. Google muss erkennen, was die alten URLs und was die neuen URLs sind, um sich auf die neuen URLs zu fokussieren.

Thema: Analytics Daten

Zeit: 22:43 Frage: Nutzt Google Analytics Informationen für das Ranking von Websites? Antwort: Wir nutzen keine Informationen aus Analytics für die Websuche. Einige Informationen werden anderweitig genutzt, hierfür muss im Analytics Account allerdings die Zustimmung erteilt werden.

Thema: Pagination 

Zeit: 23:33 Frage: Hi John, ich habe bemerkt, dass Google Seiten crawlt und indexiert, die eigentlich gar nicht existieren. Was sind deine Gedanken dazu? Antwort: Es ist ein recht verbreitetes Phänomen, dass die Pagination für Seiten eingerichtet wird, die eigentlich gar nicht existieren. Google folgt den "next"-Links so lange bis die Crawler irgendetwas Interessantes für die Indexierung finden. Webmaster sollten sicherstellen, dass es keinen Verweis via "next" auf Seiten gibt, die nicht existieren.

Thema: Panda

Zeit: 25:29 Frage: Hi John, meine Frage bezieht sich auf Panda. Erstens: Warum hat sich Google entschieden, dieses Update langsam laufen zu lassen? Zweitens: Kannst du uns bitte sagen, inwiefern dieses Update anders ist im Vergleich zu den vorherigen Updates? Wird auf mehr als nur Content gezielt? Antwort: Dieses Update ist den vorherigen Panda Updates eigentlich sehr ähnlich. Der langsame Rollout hat technische Gründe. Wir versuchen nicht, Leute damit zu verwirren.

Thema: Versteckter Content

Zeit: 26:07 Frage: Wir haben viele Inhalte im unteren Bereich unserer Website. Wir nutzen Click-To-Expand, um das Site-Design zu verbessern. Müssen wir diese Links entfernen, um die Bewertung durch Google zu verbessern? Antwort: Dies ist im Prinzip eine Frage über versteckten Inhalt. Google klassifiziert Inhalt, der als versteckt gilt, als unwichtiger als sichtbaren Content. Ob dieser Content entfernt wird, liegt am Webmaster. Wenn der versteckte Content ranken soll, muss er anders platziert werden.

Thema: Weiterleitungen

Zeit: 27:54 Frage: Hallo John, kannst du den technischen Unterschied zwischen einem 302er und einem 303er erklären? Wann würde man einen 303er nutzen? Antwort: Das ist eine häufige Frage. Google unterscheidet nur zwischen temporären und dauerhaften Weiterleitungen. Google versucht herauszufinden, welche Kategorie jeweils passt. Google versucht bei temporären Weiterleitungen die Original-Seite im Index zu behalten, während bei permanenten Weiterleitungen versucht wird, die neue Seite in den Index zu holen. Wenn Google feststellt, dass eine temporäre Weiterleitung permanent ist, handelt Google entsprechend.

Thema: Hacking

Zeit: 29:27 Frage: Nachdem unsere Seite gehackt wurde, war sie für einen Tag down. Wir hatten mehr als 200 500er-Fehler in Search Console. Nun läuft alles wieder ok – aber wie lange dauert es, bis wir unsere alten Rankings wiederbekommen? Antwort: Wenn es geht, nutzt in solchen Fällen immer 503er. Dies zeigt uns an, dass es eine vorübergehende Situation ist. Wenn der Server aber ganz down ist, dann denkt Googlebot, dass die Seite komplett weg ist. Aber lasst den 503er nicht zu lange da. In eurem Fall wird eure Seite wieder ranken, wenn wir sie wieder gecrawlt haben. Das kann bis zu 3 Wochen dauern.

Thema: Hacking

Zeit: 32:54 Frage: Die Seiten sind sogar noch im Index, sie ranken nur viel schlechter. Wir haben auch das Design etwas geändert, kann das daran liegen? Antwort: Das kann man schwer sagen. Vielleicht hat jemand Spam in eure Seiten eingefügt. Aber normalerweise gibt sich das schnell wieder. Wenn es nächste Woche noch so aussieht, dann schick mir ein paar Links. Manchmal nutzen Hacker Cloaking, das nur Google sehen kann. Dann können wir euch vielleicht helfen.

Thema: Panda

Zeit: 37:11 Frage: Panda ist in den letzten Jahren oft gelaufen. Dieses Mal geht es wohl langsam vonstatten. Sind die Auswirkungen trotzdem sofort zu sehen? Antwort: Wir crawlen nicht langsam, wir rollen die Informationen nur aus technischen Gründen langsamer aus. Das ist ein interner Vorgang und passiert nicht absichtlich.

Thema: Crawling

Zeit: 37:43 Frage: Verbessern absolute URLs in der Navigation die Crawlrate, indem sie das Crawl Budget senken? Antwort: Nein, absolute und relative URLs haben keinen Einfluss auf das Crawling.

Thema: RSS Feed

Zeit: 40:04 Frage: Laut rssboard.com braucht man die Elemente <link> und <title> zwingend in der RSS Sitemap. Laut Google Webmaster Central sind jedoch <link> und <pubDate> genug. Wird es ohne <title> und <description> Crawling-Probleme geben? Antwort: Du brauchst nur die URL und das Datum eintragen. Wenn du einen RSS Feed bastelst, stelle sicher, dass er gut ist und auch für andere Dinge verwendet werden kann.

Thema: Knowledge Graph

Zeit: 41:10 Frage: Wie lange dauert es normalerweise, bis sich Knowledge Graph Markups im Knowledge Graph widerspiegeln? Der Markup-Tester zeigt es richtig an. Antwort: Das kann ein paar Wochen dauern. Wenn es nach einem bis anderthalb Monaten nicht angezeigt wird, dann schick uns ein paar Links, damit wir es überprüfen können.

Thema: Indexierung

Zeit: 42:05 Frage: Wir haben gesehen, dass einige URLs für einen Tag den 404er Status hatten - dies wurde am nächsten Tag angezeigt. Ist das vorübergehend oder muss ich die Indexierung meiner Seite überprüfen? Antwort: Das kann immer mal passieren. Wenn ihr euch sicher seid, dass es keine Probleme auf eurer Seite gibt und alles richtig indexiert ist, dann macht euch keine Sorgen.

Thema: Analytics

Zeit: 42:52 Frage: Gibt es ein Update bezüglich des Blockierens von spammigem Traffic in den Google Analytics Daten? Antwort: Darüber habe ich in letzter Zeit nicht viel gehört. Ich weiß aber, dass das Team daran arbeitet.

Thema: Panda

Zeit: 43:36 Frage: Läuft Panda seitenweit oder für jede Unterseite einzeln? Antwort: Wir versuchen, das seitenweit zu machen. Wenn du also gute und schlechte Inhalte hast, dann schmeiß die schlechten aus dem Index oder werde sie noch besser ganz los.

Thema: Hacking

Zeit: 44:02 Frage: Viele Hacker versuchen, GOV-Links zu bekommen, kannst du das erklären? Antwort: Links durch Hacking zu sammeln ist natürlich ein Problem. Ich weiß nicht, was ich dazu sonst sagen soll.

Thema: Apps

Zeit: 45:14 Frage: Kann man den Traffic der internen Seite einer App messen? Antwort: Ich weiß es nicht, aber in Analytics könnte das gehen. In wenigen Wochen halten wir außerdem einen Hangout zum Thema Indexierung von Apps ab.

Thema: Reporting

Zeit: 46:01 Frage: Wie kann ich eine Spam SEO-Kampagne reporten? Antwort: Du kannst das Spam Report Forum nutzen. Wenn es etwas Größeres ist, kannst du uns außerdem eine Mail schicken oder uns bei Google+ darauf hinweisen. Wir können aber nicht versprechen, dass wir auf alles antworten.

Thema: Indexierung

Zeit: 46:24 Frage: Wir haben auf einmal sehr viel weniger indexierte Seiten. Wir haben mit SEO angefangen, eine Sitemap eingereicht und Fetch as Google genutzt. Aber es gibt noch keine Veränderung – was kann man tun? Antwort: Hier gibt es einige Punkte zu beachten. Site Query ist ein schlechter Weg, um die Anzahl der indexierten Seiten herauszufinden. Die Nummern in Search Console beziehen sich immer nur auf die Seiten, die ihr verifiziert habt – nutzt also in jedem Fall die Canonical Tags und schaut euch alle Variationen eurer Seite an. Bei einem solchen Abfall weiß man selten direkt, woran es liegt. Vielleicht haben wir bisher Session IDs genutzt und viel zu viele Seiten indexiert. Ihr müsst euch also mehrere Faktoren ansehen. Es ist nicht garantiert, dass wir alles direkt in den Index nehmen und dann auch für immer darin behalten.

Thema: Kommentare

Zeit: 49:15 Frage: Ist es möglich, dass viele paginierte Kommentare im Index zum Problem werden können? Barry sagt, er hätte lediglich die Kommentare zu JavaScript geändert, um sich aus dem letzten Panda zu befreien. Antwort: Ich weiß nicht, was mit Barry’s Seite passiert ist. Aber wir lesen auch JavaScript, daher ändert das vielleicht gar nicht so viel. Schlussendlich hängt es immer von der Qualität der Kommentare ab. Sind sie gut, dann helfen sie dem Nutzer und der Seite. Sind sie durchschnittlich, kann es in beide Richtungen gehen. Leute zum Mitmachen zu bewegen ist gut, aber vielleicht sollte man die besten Kommentare hervorheben und die anderen aus dem Index entfernen.

Thema: Search Console

Zeit: 54:13 Frage: Search Console zeigt Links zwischen unseren beiden Seiten an (eine alte und eine neue), obwohl es keine gibt. Antwort: Das sieht nach einem Darstellungsfehler in Search Console aus.    

Thema: Search Console

Zeit: 55:45 Frage: Habt ihr darüber nachgedacht, die dreimonatigen Reportingintervalle zu verlängern? Antwort: Darüber diskutieren wir die ganze Zeit. Aber wir müssen das mit unserem Ziel, immer wieder neue Features hinzuzufügen, ausbalancieren. Es ist außerdem nicht so einfach, den Speicherplatz so sehr zu erhöhen und dabei die Geschwindigkeit beizubehalten. Bei einigen Daten spielt auch die Angst vor Missbrauch eine Rolle – aber in den seltensten Fällen. Den ganzen Hangout könnt ihr euch hier ansehen: https://youtu.be/TN72HFWdoBY