Deutsches Google Webmaster Hangout Transkript, 16.10.2015

von Michael Schöttler

Kategorie(n): Google Webmaster Hangouts Datum: 16. Oktober 2015

Zum Wochenausklang hat John Mueller noch einmal zu einem Webmaster Hangout geladen. Wir sind der Einladung gefolgt und haben wie immer fleißig für euch mitgeschrieben. Viel Spaß beim Lesen.

Thema: Disavow

Zeit: 00:32 Frage: Wir haben zwei Marken in GB und fügen diese nun zusammen. Wenn wir die Seiten via 301 weiterleiten - brauchen wir dann ein Disavow File für beide oder nur für die neue Version? Antwort: Nur für die Neue, also die wo die Redirects hinführen.  

Thema: Domain Authority

Zeit: 03:20 Frage: Wie kann man die Domain Authority ohne Linkaufbau erhöhen? Wir haben uns gerade von einer manuellen Abstrafung wegen unnatürlicher Links erholt. Antwort: Domain Authority ist nichts, was wir auf unserer Seite definieren, daher kann ich euch nicht sagen wie man das verbessern kann. Wenn ihr gerade eine manuelle Abstrafung hinter euch habt, dann ist es keine gute Idee, wieder Links aufzubauen.  

Thema: Weiterleitung

Zeit: 04:18 Frage: Googlebot und Spider erstellen URLs von unserer Seite, die nicht von uns stammen. Wir erstellen daher viele 301er, kann das unser Ranking verschlechtern und können wir etwas anderes tun, um diese aus dem Index zu halten? Antwort: Zu viele 301er sind kein Problem. Wir folgen bis zu fünf nacheinander, und wenn wir die Zielseite dann nicht finden, versuchen wir es beim nächsten Mal erneut. Wenn wir Seiten crawlen, die ihr nicht erstellt habt, dann solltet ihr euch das mal genauer anschauen und gegebenenfalls aufräumen - denn andernfalls verirren wir uns vielleicht und crawlen die wichtigen Teile eurer Seite nicht schnell genug. Nutzt Crawler wie Screaming Frog, um so etwas zu prüfen. Wenn zu viele Seiten auf dieselbe Zielseite weiterleiten, ohne dass es erkennbaren Sinn ergibt, dann sehen wir diese vielleicht als 404er. Zum Beispiel, wenn Inhalte gelöscht wurden und nun einfach auf die Homepage weiterleiten.  

Thema: Affiliate

Zeit: 10:42 Frage: Es gibt zwei Affiliate-Seiten für denselben Hersteller mit identischem PageRank und identischer Domain Authority. Beide haben einzigartige Produktbeschreibungen. Meine Seite hat mehr einzigartige Inhalte, hat sich aber gerade erst von einer manuellen Abstrafung erholt. Wie kann das sein? Antwort: Das ist schwer zu sagen, denn zwei Seiten kann man immer schwer vergleichen. Wir updaten PageRank nicht mehr und ich kann zur Domain Authority nichts sagen, daher kann man diese Zahlen erst recht nicht zum Vergleichen nutzen. Ansonsten weiß ich nicht, was genau die Frage ist. Nur weil ein paar Zahlen übereinstimmen, heißt das nicht, dass alle Zahlen gleich sind und Seiten genau gleich ranken müssen.  

Thema: Plural und Synonym

Zeit: 12:17 Frage: Bei Google.de sehen wir unterschiedliche Ergebnisse für "Fähre" und "Fähren" für unsere Domain AFerry.de Wir verstehen das Singular und Plural verschieden sind, aber die Unterschiede sind enorm (Seite 1 vs. Seite 5). Weißt du woran das liegen kann? Antwort: Wir haben kein semantisches Modell, um Singular und Plural herauszuarbeiten - wir versuchen, das durch algorithmisches Lernen zu erreichen. Es kommt also darauf an, was Nutzer als Ihr Suchziel angeben. Ihr seht vielleicht einfach das Ergebnis des deutschen Suchverhaltens - da könnt ihr nicht viel dran ändern.  

Thema: Absprungrate

Zeit: 13:45 Frage: Wenn zwei Seiten dieselbe Absprungrate haben, würde dann diejenige besser ranken, auf der die Nutzer mehr Zeit verbringen oder mehr Klicks ausführen? Antwort: Wir nutzen keine Daten aus Analytics für die Suche. Wir schauen uns das nur an, um unsere Systeme zu verbessern.  

Thema: Seitenstruktur

Zeit: 13:38 Frage: Übernimmt Google es sofort, wenn man die Struktur einer Seite ändert? Oder wartet Google etwas, um sicherzugehen, dass keine weiteren Änderungen folgen? Antwort: Wenn ihr eure Seite ändert, dann übernehmen wir das direkt für jede URL, die wir crawlen - es passiert also mit der Zeit. Wir werden eure Seite nicht einfrieren oder aus dem Index nehmen. Das kann nur passieren, wenn ihr die Richtlinien nicht befolgt.  

Thema: Search Console

Zeit: 16:18 Frage: Was können uns die Crawl-Statistiken in Search Console aus SEO-Sicht sagen? Und sind zu viele interne Links vielleicht ein Problem? Antwort: Ich glaube nicht, dass die meisten Seiten sich um interne Links kümmern sollten. Diese werden nur relevant, wenn wir die Seite nicht vernünftig crawlen können. Die Crawlstatistik: Die durchschnittliche Crawldauer einer Seite sollte nicht zu hoch sein, am besten unter einer Sekunde.  

Thema: Landing Pages

Zeit: 18:19 Frage: Ich hatte ortsspezifische Landing Pages mit Unique Content, die Google aber als mögliche Doorway Pages angesehen hat. Ich habe sie gelöscht und jetzt stark an Rankings verloren. War die Entfernung eine schlechte Idee? Antwort: Ich denke, dass ihr vielleicht eine manuelle Abstrafung auf diesen Seiten hattet. Dann ist es gut, dass ihr aufgeräumt habt, aber euer Traffic ist vielleicht niedriger, weil ihr vorher unnatürlich hoch gerankt habt. Stellt sicher, dass alle Landing Pages gute, einzigartige Inhalte haben. Vielleicht kann man sie nach Gegenden anstatt nach Städten aufbauen, um weniger Landing Pages haben zu müssen.  

Thema: Publisher Tag

Zeit: 20:15 Frage: Wir nutzen das Publisher Tag - sollte es mit Google+ für unsere Geschäftsstelle oder mit denen für die Filialen verbunden sein? Antwort: Das weiß ich nicht, fragt lieber beim Google+ oder Google My Business Team nach.

Thema: Schema.org

Zeit: 20:49 Frage: Unsere Schema Markups wurden aus den SERPs entfernt, nachdem wir sie falsch eingebunden hatten. Wie können wir sie wiederkriegen? Antwort: Wenn sie manuell entfernt wurden, dann könnt ihr das in Search Console sehen, das Ganze aufräumen und dann einen Reconsideration Request starten. Auch wenn es algorithmisch war, solltet ihr es aufräumen. Sobald die Algorithmen dann verstehen, dass sie jetzt gut sind, werden sie auf lange Sicht wieder angezeigt - das kann aber dauern.  

Thema: 302

Zeit: 22:10 Frage: Wird Linkjuice weitergegeben, wenn unsere Seite einen 302 Redirect von der .com zur .co.uk Version hat? Und wenn ich nach der Marke suche, kommt die .com Seite als Ergebnis. Warum ist das so und was können wir tun? Antwort: 302er sind für eure Seite kein Problem. Wenn wir sie sehen, verstehen wir, dass sie nur vorübergehend sind, und gehen entsprechend damit um. Aber wenn wir sehen, dass sie lange bleiben, dann werden wir sie als 301er sehen und die Zielseite indexieren. Das führt zu keinen Problemen, es sagt uns nur, welche Seite wir indexieren sollen.  

Thema: Hangouts

Zeit: 23:49 Frage: Planst du mal wieder einen Hangout, in dem du kurze Site-Audits durchführst, wie du es vor ein paar Jahren getan hast? Antwort: Das machen wir, ich muss nur einen Zeitrahmen finden.  

Thema: HTTPS

Zeit: 24:10 Frage: Wir wollen HTTPS einbauen, wollen aber durch die entstehenden Weiterleitungen keine Probleme bekommen. Denn wenn man einen Link weiterleitet, verliert dieser etwas an Wert, oder? Antwort: Durch die Weiterleitung verliert ihr ein bisschen an Wert, aber ihr solltet trotzdem auf HTTPS umstellen. Ihr solltet keine sichtbaren Verluste im Ranking erleiden.  

Thema: 301

Zeit: 25:12 Frage: Wir haben mehrere Fälle von 301-301-200 auf unserer Seite. Führt das zu Verlusten von Ranking oder Linkjuice? Antwort: Das ist ok, wir folgen den Weiterleitungen bis zur Zielseite. Aber habt nicht mehr als 5 Weiterleitungen. Wir versuchen immer, schlau zu sein und die Intention des Webmasters zu verstehen, daher führen Kombinationen aus 301 und 200 nicht zu Problemen.  

Thema: Inhalte

Zeit: 27:09 Frage: Wir hören immer, dass man gute Inhalte braucht. Aber jetzt haben viele Seiten lange Texte, die nie jemand liest. Antwort: Das ist ein guter Punkt. Wir sagen nicht, dass Webseiten viel Text brauchen. Inhalte sind das, was ihr zur Verfügung stellt - Dienstleistungen, Bilder oder Videos zum Beispiel. Ihr braucht keine langen Texte, um in den SERPs angezeigt zu werden.  

Thema: Weiterleitung

Zeit: 28:11 Frage: Wie soll ich Seiten mit vergriffenen Produkten behandeln? Antwort: Das kommt auf eure Situation an. Wenn es auf Kategorieebene guten Ersatz gibt, dann nutzt das. Wenn ihr an anderer Stelle guten Ersatz habt, dann das. Manchmal kann auch eine 404er sinnvoll sein. Macht euch keine Gedanken wegen der Unterschiede zwischen 404 und 410, die sind für uns sehr ähnlich. Wir bearbeiten 410 vielleicht etwas schneller, aber ihr solltet keine Unterschiede sehen.  

Thema: Ranking

Zeit: 30:49 Frage: Was hat den größten Einfluss auf die Rankings? Panda, Penguin oder die 200 anderen Faktoren? Antwort: Es kommt immer darauf an, worum es geht. Manchmal merken wir, dass die Nutzer etwas Neues angezeigt bekommen wollen, dann zeigen wir das. Alles ändert sich immer wieder, es gibt nicht den EINEN Faktor, um den ihr euch kümmern müsst.  

Thema: Search Console

Zeit: 31:47 Frage: Beeinflussen interne Serverfehler (500) das Ranking? In Search Console werden mir viele solcher Fehler angezeigt, die von Seiten kommen, die ich per Noindex, Nofollow geblockt habe. Was kann ich tun? Antwort: Ja, sie können das Ranking beeinflussen. Diese Fehler zeigen uns vielleicht, dass wir die Seite zu schnell crawlen, daher verlangsamen wir den Prozess dann. Vielleicht sehen wir sie auch als 404er und lassen sie aus dem Index fallen, wenn sie immer wieder auftreten. Wenn sie blockiert sind, dann werden wir das nicht sehen. Also versuche herauszufinden, wo die Fehler herkommen.  

Thema: Title Tag

Zeit: 33:57 Frage: Beeinflusst es das Ranking, wenn man das Title Tag zu oft ändert? Antwort: Wir nutzen es für das Ranking, aber vor allem für den Titel in den SERPs. Wenn ihr es ändert, sollte das nicht zu Problemen oder einem Drop in den Rankings führen.  

Thema: Seitenstruktur

Zeit: 34:55 Frage: Macht es Sinn, auf einer Reiseseite Produkte zu priorisieren (Seitenstruktur), indem wir einzigartigen Content auf den Seiten der verschiedenen Unterkünfte platzieren, z. B., weil wir wissen, dass diese Unterkünfte auch auf vielen anderen Seiten angeboten werden? Antwort: Ihr könnt sicherlich euren richtig guten Content auf euren sichtbareren Seiten platzieren. Das ist logisch und hilft uns zu erkennen, welche Seiten wichtig sind - z. B. wenn sie von der Homepage verlinkt werden.

Thema: Robots.txt

Zeit: 36:34 Frage: Das Updaten der Robots.txt ist in der Search Console nicht gut dargestellt. Dort steht nur, "einreichen" und es wirkt, als ob es sich nur eine Testeinreichung handelt und nicht um eine Anfrage, die neueste Version zu ziehen. Antwort: Ich werde das mit dem Team diskutieren. Die Idee dahinter ist, dass man mit Hilfe der Search Console testen kann - danach kann man sie dann downloaden und implementieren. Wir versuchen, einmal täglich zu crawlen und dann zu updaten. Wenn ihr sie eingereicht habt, kann es sogar schneller gehen.

Thema: URL-Entfernung

Zeit: 37:52 Frage: Wir haben 9.000 unserer 10.000 Seiten entfernt, um alles sauberer zu machen. Ich habe diese ins URL Removal Tool gegeben. Muss ich darüber hinaus auch die Robots.txt nutzen und wie lange wird es dauern, bis sie entfernt wurden. Die Seiten wurden mit "noindex" und "nofollow" markiert. Antwort: Kombiniert "noindex" und "nofollow" nicht miteinander - wir sehen die Seiten dann nicht mehr und wissen nicht, dass sie nicht mehr indexiert werden. Bedenkt, dass das Removal Tool nur eine temporäre Geschichte ist - die URLs könnten also wieder auftauchen. Wenn sie auf "noindex" stehen sollte das aber in Ordnung sein. Pflegt euren neuen Content ein, auch wenn aktuell noch der alte Content in den SERPs auftaucht - wenn die Inhalte nicht 100 % gleich sind. Wir können versteckte Seiten und ihre Links immer noch sehen, aber wir zeigen sie in den Suchergebnissen nicht an. (Gilt sowohl für URLs im Removal Tool als auch für Seiten, die mit "noindex" markiert sind.

Thema: AJAX

Zeit:  44:36 Frage: Die Bekanntmachung hinsichtlich AJAX diese Woche war ein bisschen vage. Kannst du das neu formulieren? Danke! Antwort: Aber wir haben uns mit der Bekanntmachung doch so viel Mühe gegeben! :-) Wir arbeiten daran, so viele Seiten wie möglich zu rendern. Viele Webmaster nutzen AJAX, um uns dabei zu helfen, das ist aber nicht mehr notwendig. Wir empfehlen die Nutzung von AJAX nicht mehr, aber wir respektieren diese URLs nach wie vor. Ihr könnt mit dem Fetch and Render Tool prüfen, ob wir alles sehen. Stellt sicher, dass JavaScript nicht durch die Robots.txt blockiert wird. Wenn es Probleme gibt, dann postet diese bitte in den Hilfeforen. Wenn ihr für JavaScript und den Googlebot unterschiedliche URLs nutzt, könnte das zu Problemen führen.

Thema: Ranking

Zeit: 50:52 Frage: Was sind einige Wege, die dafür sorgen, dass kleine Firmen in den Suchmaschinen nach vorne kommen und mehr Aufmerksamkeit für ihre Websites erhalten? Antwort: Besonders lokale Firmen erklären oft nicht genau genug, was sie anbieten oder sie kopieren große Seiten. Z. B. ein kleines Buchgeschäft, das versucht wie Amazon auszusehen. Fokussiert euch stattdessen auf euer Alleinstellungsmerkmal und findet eure eigene Nische!

Thema: Index

Zeit: 51:51 Frage: Ich möchte meine Seite ohne #! indexieren lassen und meine Firma liefert keinen HTML Snapshot an Suchmaschinen. Nach der gestrigen Bekanntmachung - Soll ich daran arbeiten, dass der Server HTML Snapshots liefert oder wie? Antwort: Wir brauchen individuelle URLs. Du könntest das #! mit HTML5 in eine sauberere Struktur überführen. Die Schnappschüsse kommen später. Ansonsten kann das Fetch and Render Tool genutzt werden, um zu testen, wie das mit den Snapshots funktioniert.  

Thema: Traffic

Zeit: 54:38 Frage: Ist es möglich die Wartezeit zwischen Änderungen und der Zeit, bis Google das crawlt, zu überlisten? Es macht Sinn, dass verstärkter Traffic dafür sorgt, dass früher gecrawlt wird. Liege ich da sehr falsch? Antwort: Ich empfehle, die Sitemap zu nutzen und dort Änderungsdaten einzutragen, um diese Änderungen anzuzeigen. Alternativ kann auch das Submit to Google Tool verwendet werden. Wir nutzen die sozialen Netzwerke nicht, um das Crawling zu beschleunigen, da dort Nofollow-Links genutzt werden.  

Thema: Index

Zeit:  56:06 Frage: Was ist der Unterschied zwischen dem Googleindex und dem Googlebot? Wie wirkt sich das auf die SERPs aus? Antwort: Der Googlebot ist der Crawler, der losgeschickt wird, um die Seiten zu crawlen. Der Index ist der Platz, wo diese gespeichert werden.

Thema: Mobil

Zeit: 56:54 Frage: Für meine Website werden 55 Seiten angezeigt, die Probleme mit der mobilen Nutzerfreundlichkeit haben. Allerdings werden keine Probleme angezeigt, wenn ich diese Seite individuell teste. Wann wird aufgehört, sie in der Search Console anzuzeigen? Kann ich sie dort manuell entfernen? Antwort: Wir re-crawlen solche Seiten regelmäßig, abhängig von der Größe eurer Website. Alles zwischen einigen Tagen bis zu einem halben Jahr ist möglich. Wenn dieser Prozess beschleunigt werden soll, kann das Fetch and Subit Tool genutzt werden.  

Thema: gTLDs

Zeit: 57:44 Frage: Bald wird es neue gTLDs geben, .law. Bei den .edu-Domains muss man nachweisen, dass man aus dem Bildungssektor ist, bei den .law-Domains muss man nachweisen, dass man als Anwalt zugelassen ist. Wird sich die Nutzung dieser Domains positiv auf den Faktor "Vertrauen" auswirken? Antwort: Nicht aus unserer Sicht. Gerade zu Beginn werden wir sie wie ganz normale TLDs behandeln. Das kann sich natürlich ändern, wenn wir Grund dafür sehen. Es gibt z. B. auch noch viel Spam im .edu-Bereich - oftmals durch Hacking.  

Thema: Schema

Zeit: 1:00:02 Frage: Wenn wir Multiple Entities Schema Mark Up nutzen, zeigt die Search Console an, dass all diese Properties doppelt markiert wurden. Wie passiert das? Das Tool für strukturierte Daten versteht diese doppelten Mark Ups nicht. Antwort: Das ist normal und sollte in Ordnung sein. Bezüglich der zweiten Problematik werde ich mit dem Team sprechen.  

Thema: Knowledge Graph

Zeit: 1:04:11 Frage: Wie erhalten wir einen Knowledge Graph? Antwort: Der Knowledge Graph wird mit Hilfe von Algorithmen erstellt. Dafür werden strukturierte Daten genutzt, aber ihr könnt nichts tun, um so einen Knowledge Graph zu generieren.  

Thema: Noindex

Zeit: 1:05:42 Frage: Wenn Inhalt, der mit dem Noindex-Tag versehen wurde, in der Sitemap gelistet wird - führt das dazu, dass Crawlbudget verschwendet wird? Antwort: Man kann das temporär einfügen, vielleicht für ein oder zwei Wochen - um den Wegfall aus dem Index zu beschleunigen. Danach könnt ihr diese Inhalte aus der Sitemap entfernen.   Den ganzen Hangout könnt ihr euch hier ansehen: