Google Webmaster Hangout Transkript, 24.08.2017

Werbung

Thema: Crawling

Zeit: 01:06

Frage: Sollte Start-, Kategorie- oder ProduktDetailSeite am häufigsten gecrawlt werden? In wie fern können wir es beeinflussen bzw. die Crawl-Prioritäten setzen?

Antwort: Schwer zu sagen, wir versuchen das automatisch anzupassen. Wir versuchen festzustellen, welche Seiten sich am häufigsten verändern, damit wir das mitbekommen. Wir wollen aber auch merken, welche Seiten am wichtigsten sind, damit wir dort nichts verpassen. Normalerweise werden Seiten wie die Homepage oder die Kategorien am häufigsten gecrawlt, da wir dort neue Inhalte schnell finden. Die Reihenfolge in der Siteabfrage hat mit dem Crawlen eigentlich nichts zu tun, aber wir bewerten da schon ein wenig die Relevanz. Am besten hilft uns da eine klare Struktur mit einer guten internen Verlinkung. Wenn ihr etwas ändert und wir das Crawlen sollen, könnt ihr das auch in der Sitemap angeben.

 

Thema: Überschriften

Zeit: 05:04

Frage: Wir haben viele Fahrzeug-Produktdetailseiten wie z.B. “AUDI A4 Cabriolet 2.4 V6” & “AUDI A4 Avant 3.0 V6”.

Welche Headline-Kennzeichnung wäre aus Sicht für Google am besten?:
<h1>AUDI A4 Cabriolet 2.4 V6</h1>
&
<h1>AUDI A4 Avant 3.0 V6</h1>

ODER:

<h1>AUDI A4</h1>
<h2>Cabriolet 2.4 V6</h2>

&
<h1>AUDI A4</h1>
<h2>Avant 3.0 V6</h2>

Da es sich bei beiden Produktdetailseiten primär um einen “Audi A4” handelt, klingt es für uns sinnvoller, nur “AUDI A4” als H1 und die unterschiedlichen Versionen als H2 zu kennzeichnen. Wir befürchten allerdings, dass Google dann Schwierigkeiten mit den doppelten/gleichen H1-Headlines auf unterschiedlichen Seiten/URLs haben wird.
Wie siehst Du das?

Antwort: Schaut einfach, was für euch am meisten Sinn macht. Das ist für die Suche eher unwichtig. Wir nutzen die Überschriften nur, um zu erkennen, worum es auf der Seite geht. Aussagekräftige Überschriften helfen also.

 

Thema: Interne Verlinkung

Zeit: 06:45

Frage: Werden Navi-Links, die mit ein Mouseover eingebunden wurden von Google gefolgt und indexiert? Wenn ja, werden diese als versteckte Links bewertet und dementsprechend weniger relevant eingestuft?

Antwort: Ich vermute das hängt von der Art des Mouseover ab. Wir bauen die Seite auf und versuchen, das auszulesen. Wenn die Verlinkung also schon da ist und durch das Mouseover nur sichtbar gemacht wird, dann ist das ok. Wenn der Link aber erst dann aufgebaut wird, wenn man mit der Maus drübergeht, dann geht das nicht. Da Googlebot sowas nicht macht, würden wir den Link dann nicht sehen.

 

Thema: Search Console

Zeit: 10:26

Frage: Laut Search Console sind ein paar Dinge wie Scripts gesperrt – und dann gibt es den Hinwreis, dass Google die Seite nicht so sehen kann wie der Benutzer. Ein Kunde möchte das allerdings nicht freigeben, da er meint, dass Google das ja nicht braucht. Was soll ich da entgegnen?

Antwort: Dinge wie Tracking Pixel oder Werbung aus Iframes brauchen wir nicht. Wenn darüber aber Inhalte eingebunden werden, dann müssen wie die Crawlen können, sonst können wir das nicht indexieren. Wir sehen oft, dass Karten mit Filialen nicht freigegeben sind, und dann sehen wir die ganzen Inhalte und Links nicht.

 

Thema: AMP

Zeit: 12:59

Frage: Ist es möglich, AMP Traffic auch in Search Console zu sehen?

Antwort: Ja das sieht man direkt in der Suchanalyse.

 

Thema: Canonical

Zeit: 14:03

Frage: Gibt das Canonical Linkjuice weiter wie eine 301 Umleitung und wenn ja, gilt das auch über die Domain hinaus? Beispielsweise eine große Gesellschaft veröffentlicht eine Pressemitteilung auf ihrer Webseite, die sie auf allen ihren Firmen Domains ebenfalls veröffentlicht. Alle Firmen Domains setzten jetzt einen Canonical zum Original Artikel der Gesellschaft um externes DC zu vermeiden. Wird dann Linkjuice oder gar Usersignale auf den Original Artikel übertragen?

Antwort: An und für sich werden wie bei einer Weiterleitung nutzen wir das, um das Canonical für die Inhalte festzustellen. Denn wir wollen die richtige URL zeigen. Und die bekommt dann auch alle Signale.

 

Thema: Disavow

Zeit: 17:31

Frage: Ich habe zwei Fragen zum Thema Disavow:
1. Werden disavowte Backlinks, die – aus Google Sicht – nicht schädlich sind auch entwertet? oder werden diese mittlerweile vom Google ignoriert und beeinflussen weiter hin das Ranking?
2. Sollte man Domains, die mittlerweile ein 301er, 410er oder 500er Status Code liefern aus der Disavow-Datei entfernen?

Antwort: 1. Alle Links, die du ins Disavow packst, werden von uns ignoriert. 2. Kann man machen, muss man aber nicht. Die stören da nicht.

 

Thema: JavaScript

Zeit: 20:00

Frage: Wie gut kommt der Crawler zurecht, wenn die gesamte Seite mittels Javascript aufgebaut wird?

Antwort: Meistens relativ gut, es kann aber auch schwierig werden. Das kannst du mal auf der Developer Seite nachlesen. Wir empfehlen, dass ihr Feature Detection verwendet, damit alles in den Browsern dargestellt wird.

 

Thema: Seitenstruktur

Zeit: 22:41

Frage: Was sicherlich viele Blogger interessiert: Wie viele Beiträge sollte man in einer Liste pro Seite anzeigen? Ist es tendenziell besser, mehr Artikel anzuteasern oder eher weniger?

Antwort: Das könnt ihr machen, wie ihr wollt. Testet einfach, was euren Nutzern am besten gefällt.

 

Thema: Httos

Zeit: 24:30

Frage: Aufgrund der angekündigten Warnung in Chrome innerhalb von Formularen, bei nicht vorhandener https Verbindung, kommen wir um eine Umstellung auf https nicht mehr drum herum, trotz der Sorge um “Sichtbarkeitsverlust”, wie in deinen Hangouts bereits mehrfach von Usern thematisiert. Wie schaut es aus?
– Wird die Umstellung inzwischen auf Google Seite richtig interpretiert, so dass keinesfalls trotz eingerichteter Weiterleitungen von einer neuen Website bzw. einem Relaunch ausgegangen wird? Wie vielfach von Usern berichtet wurde…
– Gibt es ggf. einen aktuellen Artikel im Forum/Blog auf den du verweisen kannst zur Umstellung? Ich kann nichts finden.
– Gibt es einen Fehler, den viele machen den man zur Info für alle nochmal herausstellen soll?
– Muss in der SC sowohl eine property für die Seite mit und ohne www erstellt werden bzw. muss für beides eine Umstellung auf https erfolgen. Macht aus meiner Sicht nicht so viel Sinn, aber wurde an uns heran getragen.

Antwort: Am Ranking wird sich durch diese Warnung in Chrome nichts ändern. Das ist eine Sache für die Nutzer. Https lohnt sich aber eigentlich immer und die meisten Systeme können die Umstellung gut hinkriegen. Ihr solltet auch weiterhin beide Varianten in Search Console verifizieren, damit ihr alle möglichen Nachrichten bekommt.

 

Thema: Negative SEO

Zeit: 27:21

Frage: Ich arbeite bei einer Marketingagentur für Apps. Ein Konkurrent in unserem Feld hat Fake-Seiten erstellt, in welchen er alle Firmen auf unserem Gebiet “bewertet”. Die Bewertungen sind auch nicht grundsätzlich schlecht, aber natürlich ist seine eigene Seite immer am besten dargestellt. Was aber aus unserer Sicht problematisch ist, ist der Fakt dass ALLE Links auf dem jeweiligen Firmen-Profil nicht zu der im Linktext angegebenen Firma führen, sondern zu dem Ersteller der (fake)Bewertungs-Seite. Wenn man nun unseren Firmen-Namen+”review” sucht, dann sind von den ersten 5 Suchergebnissen 4 von unserem Konkurrenten und linken alle auf seine Homepage. Wir haben natürlich keine Daten darüber, aber dieser Zustand könnte sich durchaus negativ auf unsere Kundenakquise auswirken. Hätten Sie eine Empfehlung was wir unternehmen könnten?

Antwort: Da könnten wir eigentlich nicht einschreiten. Aber du kannst mir das mal zuschicken und ich leite das an das Team weiter.

 

Thema: Duplicate Content

Zeit: 28:54

Frage: Würdest du empfehlen, eine große Menge Seiten mit Duplicate Content komplett zu entfernen, z. B. um Crawl Budget zu sparen oder weil es ein schlechtes Signal für den Googlebot ist? Oder ist es ausreichend, ein noindex follow tag zu setzen.

Antwort: Das kannst du an sich machen wie du willst. Wir haben in den seltensten Fällen Probleme mit dem Crawl Budget und eine gewisse Menge an Duplicate Content ist auch normal. Probleme gäbe es nur, wenn die Seite der groß oder der Server sehr langsam ist. Wir müssten die Seiten auch crawlen, um Noindex und Follow zu sehen, das würde also beim Crawlbudget gar nicht so viel ändern.

 

Thema: Rich Snippets

Zeit: 32:12

Frage: Ich habe über die letzten Wochen mehrfach eine Seite über das Spam-Formular (https://support.google.com/webmasters/contact/rich_snippets_spam?hl=de) gemeldet die RichSnippet Spam betreibt, da es aus meiner Sicht eine Wettbewerbsverzerrung darstellt. Jedoch wurden bisher immer noch keine Konsequenzen gezogen.

Die Seite nutzt die sehr gute Bewertung eines Hotels für eine Kategorieseite und hat deswegen 5 Sterne in den SERPs.

Was kann ich dagegen tun? Wie lange dauert eine solche Prüfung? Will die Seite hier nicht posten, kann sie dir aber gerne einmal per PM schicken.

Antwort: Schwer zu sagen. Das Team priorisiert die Spam Reports, da kann nicht alles sofort bearbeitet werden. Und nicht bei allem wird manuell etwas getan – oft nutzen wir die Infos auch, um unsere Algorithmen zu verbessern und damit langfristige Verbesserungen zu erreichen. Ihr braucht da also nicht noch mehr Reports zu schreiben, einmal reicht.

 

Thema: 

Zeit: 34:33

Frage: Macht es Sinn auf einer Shop-Kategorieseite individuelle Teasertexte pro Produkt zu erstellen? Also nicht einfach nur die ersten Zeilen aus der Produktbeschreibung zu übernehmen? Oder ist das egal?

Antwort: Grundsätzlich ist das egal. Unterschiede in den Links helfen vielleicht, das Gesamtbild der Produktseiten besser zu verstehen. Aber asuf das Ranking hat das denke ich keinen Einfluss. Macht das also so, wie die Benutzer es mögen.

 

Thema: Indexierung

Zeit: 35:42

Frage: Es kommt ja ab und an vor, dass eine indexierte Shop-Kategorie weniger Produkte hat als normal. Wie sollten Shop-Betreiber vorgehen wenn z.B. nur 5 Produkte oder weniger in der Kategorie aktuell verfügbar sind? Sollte man die Kategorie auf NOINDEX setzen um negative Nutzersignale (hohe Bouncerates) zu vermeiden und damit aus dem Index fliegen oder besser das ganze “aussitzen” bis wieder mehr Produkte vorhanden sind.

Als SEO sträubt man sich natürlich dagegen eine Seite mit guten Rankings aus dem Index – wenn auch nur temporär – zu nehmen. Die Gefahr das alte Ranking nicht wieder zu erreichen ist ja relativ hoch. Gibt es vielleicht noch eine schönere Lösung?

Antwort: Wenn eine Seite auf Noindex steht und dann wieder indexiert, können wir das relativ schnell wieder ähnlich anzeigen. Dieser Wechsel wäre also nicht so problematisch. Für uns ist es aber nur problematisch, wenn eine Kategorie gar keine Produkte hat. Wenige Produkte sind ok.

 

Thema: Duplicate Content

Zeit: 37:56

Frage: Wir sind derzeit dabei individuellen Content auf Produktebene unseres Shops einzupflegen (Produktbeschreibungen). Bisher wurden hauptsächlich die Beschreibungen der Hersteller übernommen. Nun können wir leider nicht mehrere tausend Produkte auf einmal mit neuem Content ausstatten. Macht es Sinn dort erstmal die Beschreibungen der Hersteller stehen zu lassen (Duplicate Content?) oder die Beschreibungen zu entfernen, bis wir für diese auch entsprechend neue Texte haben?

Antwort: Lasst da die Herstellerbeschreibungen erst einmal stehen. Wir indexieren das normal. Macht dann erstmal eigene Beschreibungen für die wichtigsten Produkte und arbeitet euch dann voran.

 

Thema: Ranking

Zeit: 40:21

Frage: Seit knapp einem Jahr arbeitet unser Team an vielen verschiedenen Kategorieseiten, die sehr ausführlich und umfangreich recherchiert und verfasst worden sind. Bei nahezu allen Seiten achten wir darauf auf viele Bedürfnisse des Nutzers einzugehen und umfangreich zu informieren (zum Beispiel oft gestellte Fragen, wichtige Themen, usw.).

Generell geht es auf unserer Seite um verschiedenste Themen aus dem KFZ-Bereich. Mithilfe von diversen Tools fanden wir heraus, dass unsere Seiten auch oft in Blogs oder Foren verlinkt worden sind. Unsere Seite steht also generell gar nicht schlecht da.

Nichtsdestotrotz ranken die (Unter-)Seiten furchtbar schlecht, während andere Seiten von unserer Konkurrenz mit kaum Inhalt und nahezu reinem Keyword-Stuffing weiter oben in den SERPs ranken.

Nun zu meiner Frage:
Ist es im Nischenbereich sinnvoller ausführliche Kategorieseiten zu erstellen, die auf viele weitere Unterkategorien mit weniger Inhalt verweisen ODER Kategorieseiten nur zu Navigationszwecken zu nutzen und sich dann eher auf den Inhalt der einzelnen Unterseiten zu konzentrieren.

Wie kann man die Seite generell stärken, so dass wir mit unseren (teilweise besseren) Inhalten auch relevant sind? Muss hier die Domain an sich einfach noch besser gestärkt werden?

Antwort: Schwer zu sagen, ohne die Website zu kennen. Grundsätzlich hilft eine starke interne Verlinkung. Und es braucht auch Zeit, bis die Rankings sich aufbauen.

 

Thema: Internationale Websites

Zeit: 42:55

Frage: Wir haben eine .com-Site und haben die jeweiligen Landesversionen als example.com/de/DE, example.com/de/AT, example.com/en/US u.s.w. angelegt. Wir haben nun das Problem, dass bspw. Content für de/AT (Österreich) auf google.de sichtbar ist. Wir haben alle Länderseiten in searchConsole angelegt und das jeweilige Land hinterlegt. Die Land/Sprache-Kombination haben wir nach support.google.com – Multi-regional and multilingual sites – Search Console Help angelegt. Hreflang-Tags werden ebenfalls rausgerendert. Was können wir noch tun?

Antwort: Schwer zu sagen, was da genau passiert. Schick mir das am besten mal zu, dann gucke ich mir das an. Vielleicht haben wir sie zusammengeklappt, weil es die gleichen Inhalte sind.

 

Thema: Canonical

Zeit: 46:16

Frage: Muss ich auf Pagebrowser Seiten einen Canonical auf Seite 1 setzen? Aus einem deiner Hangouts habe ich entnommen, dass dem nicht so ist, da Seite 2 ff. ja andere Produkte beinhaltet als Seite 1. Seite 1 ist jedoch natürlich Hauptseite, die auch als solche indexiert werden sollte. Bin Unsicher was das Vorgehen betrifft..

Antwort: Grundsätzlich würde ich das nicht machen, da die Seiten ja nicht gleich sind. Es wäre also gut möglich, dass wir das eh ignorieren würden.

 

Thema: Noindex

Zeit: 48:24

Frage: Angenommen es befinden sich einige hunderte oder tausende URLs im Google Index, die aber intern nicht mehr verlinkt sind, also über den Bot nicht mehr gecrawlt werden können. Wie bekomme ich die schnellstmöglich aus dem Index, ohne es manuell über die Search Console machen zu müssen?

Antwort: In der Regel crawlen wir jede URL im Index immer mal wieder. Auch 404er oder andere Fehler. Das kann aber ein paar Monate dauern. Ansonsten kann man sie mit einem Änderungsdatum in eine Sitemap aufnehmen.

 

Thema: Featured Snippets

Zeit: 50:39

Frage: Gibt es irgendeinen Anhaltspunkt für uns, welche Inhalte (Textblöcke) ihr für Featured Snippets verwendet? Wir haben einige Ergebnisse, aber leider werden teilweise erst die zweiten oder dritten Absätze ausgegeben. Bei der Sprachausgabe zb. fängt Google Home nun mitten im Rezept an und nicht zu Beginn

Antwort: Weiß ich nicht, das machen wir an sich algorithmisch.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN
Nach meinem Studium der Politikwissenschaften (Schwerpunkt Diplomatie) habe ich im Juni 2015 das SEO Portal bei der imwebsein GmbH mitgegründet. Seit Januar 2017 bin ich nun als Chefredakteur für den redaktionellen Teil zuständig. Daneben kümmere ich mich als ehrenamtlicher Pressewart um die Öffentlichkeitsarbeit des Badminton-Club Tempelhof.

Hinterlasse eine Antwort