Werbung

Thema: https

Zeit: 00:40

Frage: Ich bin mit einer Seite mit 45.000 Unterseiten zu https gewechselt und alles sah korrekt aus. Im http Account in Search Console ging dann der Traffic erwartungsgemäß auf 0. Aber auch bei https haben wir dann Traffic verloren und dann wieder gewonnen – wie große Änderungen ist denn in solchen Situationen normal? Bei den anderen Seiten, die ich betreue, gab es solche Änderungen nicht.

Antwort: Das ist schwer zu sagen. Eigentlich solltet ihr keine großen Änderungen sehen und nach kurzer Zeit sollte es auch wieder alles normal sein. Manchmal sehen wir, dass Leute den Wechsel in der Nebensaison durchführen und dann solche Änderungen sehen. Schaut mal, wie es letztes Jahr um die Zeit aussah. Allgemein dauert es immer ein bisschen, bis sich das alles einspielt.

 

Thema: https

Zeit: 03:23

Frage: Ist die aktuelle Empfehlung, dass man mit der ganzen Seite umziehen soll – oder sollte man eher einen Umzug machen aber Google beides anbieten. Denn wir sind komplett umgezogen, inklusive Canonicals, und mussten es wieder zurücknehmen da der Traffic komplett eingebrochen ist. Das war aber noch ganz am Anfang, als das noch vielen Leuten so ging.

Antwort: Ich würde am Anfang immer beide Versionen anbieten. Dann merkt ihr, ob die https Version richtig funktioniert. Wenn dem so ist, dann leitet per 301 weiter. Ihr könnt es natürlich auch vorher intern testen und dann beide Schritte auf einmal machen. Wenn wir eine URL auf http und auf https sehen, dann versuchen wir, die https Version zu priorisieren – auch wenn ihr noch nichts dergleichen eingestellt habt. EIn Redirect macht mit der Zeit aber trotzdem Sinn, um auch alle Nutzer auf die https Version zu bringen. Macht euch bei 301 in diesem Fall keine Gedanken, einige Signale zu verlieren. Ihr bleibt ja auf derselben Domain und ändert nur das Protokoll, da ist das kein Problem.

 

Thema: Disavow

Zeit: 08:53

Frage: Gibt es bei Disavow eine Reihgenfolge, die man einhalten muss? Also erst https, dann http oder umgekehrt?

Antwort: Da würde ich mir über die Reihenfolge keine Gedanken machen. Ladet einfach das selbe File bei beiden Versionen hoch. So solltet ihr vielleicht für ein halbes Jahr oder so verfahren. Dann muss das Disavow File immer beim aktuellen Canonical aktiv sein.

 

Thema: Penguin

Zeit: 12:25

Frage: Was glaubt ihr, wann der nächste Penguin veröffentlicht wird?

Antwort: Ich habe dazu keine News. Aber während der Ferien wird sicherlich nichts passieren.

 

Thema: Referral Spam

Zeit: 13:01

Frage: Wie kann man Referral Spam stoppen? Denn das verschlechtert unsere Rankings.

Antwort: Es gibt einmal Analytics Spam. Hier gehen die Leute gar nicht auf eure Seite sondern schicken nur Pings zu Analytics, die dann angezeigt werden. Das Analytics Team arbeitet daran. Die andere Version ist ein Fake Referral durch Bots, das man dann in anderen Analysetools sieht. Beides sollte man zwar in Analytics rausfiltern, es hat aber keinen Einfluss auf das Ranking.

 

Thema: PageSpeed Insights

Zeit: 13:58

Frage: Wenn ich meine Seite mit dem PageSpeed Insights Tool teste, bekomme ich u.a. die Empfehlung, Caching für Google Analytics Tracking hinzuzufügen und das Laden von externen Googlefonts zu optimieren. Was kannst du dazu sagen, wenn Google sich über Ressourcen von Google beschwert?

Antwort: Grundsätzlich würde ich das wie alle anderen Probleme auf eurer Seite angehen. Wir whitelisten Google Features hier nicht, weil auch diese eure Seite unter Umständen langsamer machen können. Nutzt also euer Wissen, um herauszufinden, wo ihr Sachen verbessern könnt. Manchmal müsst ihr Sachen entfernen, das kann auch auf Produkte von Google zutreffen, wenn diese eure Seite verlangsamen.

 

Thema: Neues Template

Zeit: 15:16

Frage: Unsere Seite ist sehr alt und läuft auf einem sehr alten Template. Würde es Einfluss auf das Ranking haben, wenn wir das Template ändern?

Antwort: Ja, das könnte einen Einfluss auf Traffic und Ranking haben. Wenn ihr es gut für eure Nutzer macht, wird es unter Umständen besser – wenn ihr etwas kaputtmacht, könnte es schlechter werden. Wir sehen das dann durch das Crawlen.

 

Thema: Http/2

Zeit: 18:36

Frage: Ist http/2 ein Ranking-Faktor für Google, da es den Pagespeed verbessert?

Antwort: Ich glaube nicht, dass das in nächster Zeit passieren wird. Viele Server stellen das auch automatisch im Hintergrund ein, ohne dass ihr etwas dazu tun müsstet. Viele Browser unterstützen es auch nur, wenn ihr schon https eingebaut habt.

 

Thema: Scrapers

Zeit: 19:31

Frage: Um mit Scrapern umgehen zu können, würde ich gerne ein x-robots Tag zu meiner XML Sitemap hinzufügen und nur dem Googlebot und anderen vertrauenswürdigen Crawlern das Crawlen erlauben. Könnte das als Cloaking angesehen werden?

Antwort: Das sollte kein Problem sein. Sitemap Files können auch gecloaked werden, denn diese Inhalte sind ja nur für Suchmaschinen. Und wenn es welche sind, denen ihr nicht vertraut, dann könnt ihr ihnen eine not allowed Seite präsentieren.

 

Thema: Reconsideration Request

Zeit: 20:23

Frage: Ich bekämpfe grad ein paar manuelle Abstrafungen wegen Links. Vor Kurzem wurden zwei Reconsideration Requests abgelehnt, es wurden aber keine Beispiellinks in der Antwort genannt. Ist das jetzt der Standard?

Antwort: Nein, das würde ich nicht sagen. Aber manchmal passiert das. In solchen Fällen würde ich in den Hilfeforen nachfragen.

 

Thema: Hacking

Zeit: 20:56

Frage: Unser Quellcode wurde kopiert und ein iFrame darübergelegt, um so Websites auf gehackten Servern zu kreieren. Wir haben mehr als 50 Seiten gefunden, die unsere Links zeigen und zu uns verlinken. Kann Google herausfinden, dass das schlimm ist? Was können wir tun, außer die Seiten zu disavowen.

Antwort: Disavow ist in solchen Fällen eine gute Sache. Ihr könnt auch den Spam Report nutzen. Meistens sollten wir solche Dinge gut erkennen. Wenn das nicht der Fall ist, weil z.B. eine Seite mit euren Inhalten über euch rankt, dann teilt uns das in den Hilfeforen mit.

 

Thema: Hacking

Zeit: 21:40

Frage: Unsere Rankings werden seit Dezember attackiert. Jemand hat unsere Seite kopiert und die Inhalte auf anderen Seiten eingefügt. Manche von denen ranken jetzt über uns. Webspam Reports helfen nicht weiter.

Antwort: Hier wären dann die Hilfeforen sinnvoll. Solche Dinge werden dann an uns herangetragen. Man kann auch DMCA nutzen – wenn das im Hinblick auf die rechtliche Situation passt. Dazu kann ich aber nichts genaues sagen, weil ich kein Anwalt bin.

 

Thema: Search Console

Zeit: 22:32

Frage: Für eine Website zeigt mir der robots Tester in Search Console an, das meine Seite durch die Regel “Disallow: *_lightbox.*” blockiert wird. Ist das ein Syntaxfehler?

Antwort: Ja, alle Allow- und Disallowlinien müssen mit einem / beginnen, dies müsste also zwischen dem : und dem * stehen, dann sollte es funktionieren.

 

Thema: Versteckte Inhalte

Zeit: 23:09

Frage: Du hast erwähnt, dass versteckte Inhalte nicht zählen. Aber warum ist das so, wenn die Texte doch interessant genug sind, sodass die Nutzer darauf klicken? Denn das macht doch die Seite ordentlicher.

Antwort: Wenn Menschen eure Seite besuchen, dann sollten sie die wichtigen Inhalte sehen. Und wenn wir es beim Besuchen nicht sehen, dann finden wir sie weniger wichtig. Packt es, wenn es so wichtig ist, in den sichtbaren Bereich oder auf eine eigene URL.

 

Thema: SERPs

Zeit: 24:17

Frage: Verstehe ich es richtig, dass die Google Suche diejenigen bevorzugt, die in einem Feld zu Experten geworden sind, während sie diejenigen benachteiligt, die Universitätsabschlüsse oder einen journalistischen Schreibstil haben? Das vereinfacht die Übersetzung in viele Sprachen und führt zu viel Text für die Massen?

Antwort: Das verstehe ich nicht wirklich. Aber der Tenor ist ja: Warum gebt ihr nicht Journalisten mehr Sichtbarkeit, denn die wissen, worüber sie schreiben – im Gegensatz zu den Leuten, die nur für das Web schreiben. Und für uns ist beides gut. Solange es gute Inhalte sind, wollen wir es zeigen.

 

Thema: Entity Pages

Zeit: 25:10

Frage: Wie kann man Entity Pages für Google optimieren, wenn es zum Beispiel um einen Star oder ein aktuelles Thema geht? Was für Inhalte möchte Google hier sehen, die für den Nutzer wirklich relevant sind?

Antwort: Da gibt es keine einfachen Regeln. Ihr als die Experten müsst hier euer Wissen anwenden – über das Thema und eure Leser – um das anzubieten, was eure Nutzer suchen.

 

Thema: Werbung

Zeit: 26:31

Frage: Wir alle müssen mit Google’s Werbung und Facebook Ads um Kunden für Webdesign konkurrieren. Könnte Google etwas einbauen, mit dem man die lokale Sucher für Webdesigner nutzen kann?

Antwort: Diese Frage verstehe ich nicht.

 

Thema: Meta Keywords

Zeit: 27:15

Frage: Google nutzt die Meta Keywords nicht mehr als Ranking-Faktor. Aber wird es, wenn es ausgefüllt ist, für etwas anderes genutzt?

Antwort: So weit ich weiß, ignorieren wir es für die Suche komplett. Es könnte sein, dass es für AdSense oder Google News genutzt wird, aber das weiß ich nicht genau. Ich nutze es auch manchmal für mich selbst, um einen besseren Überblick über die Seiteninhalte zu haben.

 

Thema: Duplicate Content

Zeit: 28:15

Frage: Wie geht Google mit SWF Inhalten um? Ich habe Flash Glücksspielseiten und die Spiele werden von Anbietern bereitgestellt. Wie misst Google die Doppelung von Flash Spielen? Die einzige Möglichkeit, die mir einfällt, ist eine einzigartige Beschreibung für jedes Spiel.

Antwort: Ja, ich denke wir können manchmal solche Inhalte herausziehen. Einzigartige Descriptions helfen aber immer. Ich würde aber aufpassen, dass die Seite im Hinblick auf UX und ähnliches dem Nutzer wirklich einzigartige Vorteile bietet. Das Ranken für die Spiele selbst ist dann vielleicht zu vernachlässigen, vor allem, wenn es sie schon so oft gibt.

 

Thema: 

Zeit: 29:33

Frage: Ich schaue mir gerade eine meiner Seiten genauer an. Sie hat ein paar Links zu einer anderen Seite von mir, diese sind nicht mehr korrekt, werden aber per 301 weitergeleitet. Soll ich sie korrigieren oder einfach auf die 301 vertrauen? Bewertet Google einen alten Link besser als einen neuen?

Antwort: Ich würde, immer wenn es geht, direkt verlinken. Das macht es für den Nutzer ein kleines bisschen schneller. Aber bei einer Handvoll Links wird sich in den SERPs nichts ändern. Es geht also beides.

 

Thema: Disavow

Zeit: 30:35

Frage: Gilt es als Linkboom, wenn mehr als 1000 Links und 1000 Domains aus dem Disavow File entfernt wurden – zum Beispiel weil sie vor Jahren aus Versehen dort hineingeraten sind? Würde Google das als Spam sehen?

Antwort: Ich sehe da keine Probleme. Das ist nur eine technische Änderung. Wenn es normale gute Links sind, dann ist das kein Problem.

 

Thema: Search Console

Zeit: 31:17

Frage: Wir haben an zwei Tagen einen starken Abfall unserer CTR für Apps für all unsere Search Console Accounts – ohne dass wir die Search Appearance Filter genutzt hätten. Das war wenige Tage, nachdem die Filter eingeführt wurden, kann das daran liegen?

Antwort: Das weiß ich nicht, dazu müsste ich mir meinen Account mal genau ansehen. App Indexierung ist aber noch relativ neu, das heißt wir ändern viel und das kann zu starken Schwankungen in euren Daten führen. Das sollte sich aber auf lange Sicht beruhigen.

 

Thema: Nofollow

Zeit: 32:38

Frage: Führt die exzessive Nutzung von Nofollow zu schlechteren Rankings?

Antwort: Nein. Das kann nur zu Problemen führen, wenn ihr das bei internen Links nutzt.

 

Thema: Weiterleitungen

Zeit: 33:13

Frage: Was sollte man nutzen, wenn wegen eines Relaunches zahlreiche doppelte URLs mit fast Duplicate Content im Index sind? 301 oder lieber ein Canonical? Die alten Seiten werden auch auf Noindex gestellt, sind aber noch zu finden.

Antwort: Wenn ihr von einer URL zur anderen wechselt, dann nutzt 301. Wenn ihr beide aus irgendwelchen Gründen behalten müsst, dann nutzt ein Canonical.

 

Thema: Links

Zeit: 33:55

Frage: Wie steht es mit internen Links, die mit JavaScript versteckt werden, solange sie nicht in robots.txt ausgeschlossen werden und für den Googlebot sinnvoll sind? Kann man für so etwas einen Penalty erhalten? Geben sie PageRank weiter oder gelten sie als Nofollow?

Antwort: Das würde keine manuellen Abstrafungen nach sich ziehen, solange es sich um normale Inhalte auf eurer Seite handelt. PageRank würde normal weitergegeben werden. Oft wird das für Navigationen genutzt. Wenn wir die Links sehen und rendern können, dann gelten sie als ganz normale Links.

 

Thema: Texte

Zeit: 36:53

Frage: Was sind die Top 3 Artikel auf meiner Seite (Search Engine Roundtable), von denen du dir wünschst, dass ich sie nie geschrieben hätte?

Antwort: Oh Gott Barry, deine Seite ist so groß, wo soll ich anfangen? Ich weiß nicht, du bekommst so viel mit, dass ich natürlich manchmal denke “Oh Barry…”. Aber grundsätzlich hast du ja fast eine Enzyklöpädie geschaffen, das ist schon sehr hilfreich.

 

Thema: Sitelinks

Zeit: 38:07

Frage: Ist es möglich, mehr als sechs Sitelinks zu erhalten, wenn man nach dem Marken- oder Firmennamen sucht? Ich habe gesehen dass eine Suche nach Domains bis zu 10 Sitelinks anzeigen kann.

Antwort: Das weiß ich nicht, vielleicht. Da finden auch immer wieder Änderungen statt.

 

Thema: Bilder

Zeit: 38:52

Frage: Ich habe eine große Bilder-Website. Ist es ok, wenn Bilder Title, Meta Title und Produktbeschreibung identisch sind? Zumindest so lange, bis wir die Beschreibungen verbessern können.

Antwort: Klar, das ist total ok. Wir werden wahrscheinlich nur eine Version anzeigen, aber das ist kein Problem.

 

Thema: URLs

Zeit: 39:30

Frage: In Search Console haben wir nach dem Wechsel zu https fast alle URLs aus dem Indexierungsstatus verloren, in Analytics gab es aber keine solche Probleme. Was sollen wir tun?

Antwort: Das passiert oft. Wir fokussieren uns nur auf die Version, die ihr in Search Console angebt. Nach dem Wechsel geht also der Indexierungsstatus bei der einen Version runter, bei der anderen steigt er an. Ihr müsst also die https Version hinzufügen, dann seht ihr die URLs dort – und den Traffic auch.

Thema: Suchanalyse

Zeit: 40:50

Frage: Gibt es einen Weg, um all die Daten aus der Suchanalyse herunterzuladen – und nicht nur die letzten drei Monate? Das wäre ein tolles Feature.

Antwort: Ich stimme zu, dass das ein tolles Feature wäre. Aber im Moment geht das nicht. Es gibt aber ein paar externe Tools, die diese Möglichkeit via API anbieten.

 

Thema: Indexierung

Zeit: 41:31

Frage: Einige Studien werden bei Google Scholar nicht richtig indexiert, andere aber schon.

Antwort: Dazu bräuchte ich mehr Details, es wäre toll wenn du das im Hilfeforum posten könntest.

 

Thema: AMP

Zeit: 41:55

Frage: Soll das neue AMP Blog Article Markup nur auf der AMP Version zu finden sein, oder auch auf der normalen?

Antwort: Wenn ihr etwas speziell für AMP macht, dann würde ich das nur auf der AMP Version machen und nicht auf der Desktop Version.

 

Thema: Title

Zeit: 42:25

Frage: Was ist die optimale Größe für einen Meta Title?

Antwort: Das weiß ich nicht. Schaut euch die Suchergebnisse an und macht dann das, was für eure Seite Sinn macht. Beschreibt eure Seite, ohne dabei Keyword-Stuffing zu nutzen.

 

Thema: JavaScript

Zeit: 43:10

Frage: Wird der generierte <head> Bereich einer Angular JavaScript Seite von Google genutzt? Ist es also z.B. ok, das Canonical durch JavaScript zu generieren?

Antwort: Ja, das ist ok. Wir können das sehen und nutzen es entsprechend.

 

Thema: 

Zeit: 43:33

Frage: Können wir die Knowledge Graph API nutzen, um unsere Entity Pages zu verbessern? Z.B. haben wir eine Siete über Taylor Swift und möchten die Infos zu ihr auf unserer Seite darstellen. Ist das ein Problem?

Antwort: Sicher, wenn ihr dadurch zusätzliche Infos bieten wollt, dann macht das. Das sollten aber nicht die einzigen Inhalte sein, sondern nur eine Ergänzung zu eurem Unique Content.

 

Thema: SVG

Zeit: 44:10

Frage: SVG können auf drei Wegen auf einer Seite eingebaut werden: Mit dem Image Tag, den Object Tag, oder durch Einbetten auf der Seite. Gibt es bei diesen Wegen Unterschiede bei der Indexierung? Führen alle drei Wege dazu, dass das Bild in der Bildersuche auftaucht?

Antwort: Ich glaube, dass alle drei mittlerweile funktionieren.

 

Thema: Penguin

Zeit: 44:42

Frage: Weißt du, wann der neue Penguin kommen wird?

Antwort: Nein, noch nicht.

 

Thema: Angular

Zeit: 44:49

Frage: Ich bin der Webmaster von klickrent.com. Wir haben seit etwa einem Jahr ein Angular JavaScript System, mit einer existierenden Sitemap in Search Console. Wir haben aber immer noch Probleme mit der Indexierung. Wir haben wenige externe Links und die interne Struktur muss optimiert werden. Siehst du Probleme mit Angular?

Antwort: Grundsätzlich nicht, es gibt viele tolle Seiten auf dieser Basis. Aber jedes Framework kann auch in einer Art aufgebaut werden, dass es nicht funktioniert. Ich empfehle hier die Hilfeforen.

 

Thema: SSL

Zeit: 45:50

Frage: Wir sind ein lokales Taxi Unternehmen mit einer Geschäftshomepage und unseren Kontaktdaten auf einer Kontaktseite. Wir haben jetzt auch ein SSL Zertifikat, wird uns das helfen, um besser zu ranken?

Antwort: Https hilft ein kleines bisschen beim Ranking, aber einen großen Unterschied werdet ihr nicht sehen. Für so etwas müsst ihr an eurer Seite arbeiten und euch vielleicht auch Hilfe aus den Foren holen.

 

Thema: Ranking

Zeit: 47:15

Frage: Was für aufbauende Worte kannst du Webmastern mitgeben, die das Richtige tun (UX, https, mobilfreundlich), nur um hinter Black Hats zu ranken?

Antwort: Das ist immer frustrierend. Da könnt ihr auch mal in den Hilfeforen nachfragen. Denk außerdem daran, dass diese Black Hats oft nicht nur schlimme Dinge tun, sondern in vielen Bereichen eine tolle Website bieten. Dann können wir die schlechten Kleinigkeiten auch mal ignorieren und die Seite ranken, weil sie sonst toll ist. Sie rankt dann nicht wegen, sondern trotz der problematischen Taktiken.

 

Thema: Siegel

Zeit: 48:58

Frage: Ich habe eine Frage zu Siegeln mit Links von vielen Mitgliedsseiten zur Themenseite: Ist das unnatürliches Linkbuilding?

Antwort: Da muss man sich die Fälle einzeln anschauen. Ich habe noch keine Fälle gesehen, wo das zu Problemen und unfairen Vorteilen geführt hätte. Große Communities haben eh viele Follower, da fallen solche Siegel dann nicht ins Gewicht. Das heißt aber nicht, dass das immer eine gute Taktik ist.

 

Thema: Ranking-Faktoren

Zeit: 50:08

Frage: Nutzt ihr das Blockquote Tag als ein Signal? Wenn ich eine andere Seite mit diesem Tag und einem Link zitiere, seht ihr das dann als Duplicate Content oder als Zitat?

Antwort: So weit ich weiß nutzen wir das gar nicht. Wir sehen aber unter Umständen trotzdem, wenn es sich um ein Zitat handelt.

 

Thema: Rich Snippets

Zeit: 50:37

Frage: Zwei Monate nach einem Domainwechsel sind unsere Rankings normal. Wir sehen aber keine Bewertungssterne in den Rich Snippets. Heißt das, dass Google mehr Informationen braucht, um über die Glaubwürdigkeit unserer (relativ kleinen) Seite zu entscheiden? Wie lange kann so etwas dauern?

Antwort: Das ist schwer zu sagen. Manchmal schauen wir uns Seiten noch einmal an und das hat sich nur mit eurem Sitemove überschnitten.

 

Thema: Private Blognetzwerke

Zeit: 51:38

Frage: Wie findet Googlebot private Blognetzwerke heraus?

Antwort: Das weiß ich nicht. Ich denke mal, das machen wir so wie mit dem meisten Linkspam: Algorithmen und manuelle Abstrafungen. Aber es gibt nicht einen einfachen Weg, mit dem Google Linkspam findet.

 

Thema: Ranking

Zeit: 52:35

Frage: Wie lange dauert es, um mit Domains, dir für viele Jahre nicht genutzt wurden, zu ranken?

Antwort: Es gibt sicher eine Zeitspanne, in der wir eine Domain als noch geparkt definieren, auch wenn sie mittlerweile Inhalte hat. Das sollte aber relativ schnell gehen. Es gibt keine vorgegebene lange Zeit, die man warten muss.

 

Thema: Black Hat

Zeit: 53:41

Frage: Du hast grad gesagt, dass auch Black Hats gut ranken können, wenn sie vieles gut machen. Meinst du nicht, dass Google sich die guten Sachen in solchen Fällen gar nicht anschauen sollte, wenn es offensichtliche schlechte Sachen gibt?

Antwort: Ich weiß es nicht. Für mich persönlich ist es so, dass es am besten wäre, wenn wir das Schlechte ignorieren könnten und uns nur auf das Gute konzentrieren könnten. Denn viele Leute hatten in der Vergangenheit schlechte Ratgeber oder ihre Seite wurde in problematischer Art und Weise aufgesetzt. Solche Leute versuchen nicht immer, zu spammen und etwas falsch zu machen. Sie haben halt falsche Tipps bekommen und wissen es vielleicht gar nicht besser. Solange es unsere Suchergebnisse nicht beeinträchtigt, kann man so etwas denke ich ignorieren. Würden wir alle Seiten, auf denen es Probleme gibt, aus den Suchergebnissen schmeißen, dann hätten wir ziemliche leere SERPs. Hier ist es aber schwer, die richtige Balance für die zahlreichen Einzelfälle zu finden.

 

Thema: Who Is

Zeit: 55:53

Frage: Ist es ein Problem, wenn man seine Who Is Information blockiert?

Antwort: Ich glaube nicht, dass wir uns das überhaupt anschauen. Es kann aber oft sinnvoll sein, diese Infos zu haben. Ich nutze es oft, wenn wir intern sehen, dass eine Seite etwas sehr falsch macht und wir den Betreiber darauf hinweisen wollen. Für die lokale Suche und Google Places braucht man vielleicht auch eine richtige Adresse.

 

Thema: Ranking

Zeit: 1:05:25

Frage: Werdet ihr das PageSpeed Insights Tool einmal als Ranking-Faktor nutzen?

Antwort: Das weiß ich nicht. Wir werden im mobilen Gebiet aber sicher mehr und mehr auf den Pagespeed achten. Vor allem dann, wenn die Seite nicht wirklich mobiloptimiert ist und auf mobilen Endgeräten keine gute Nutzererfahrung bietet. Ich weiß aber nicht, wo wir in solchen Fällen die Grenze zwischen “schnell” und “langsam” ziehen werden. Wichtig ist doch, dass das, was wir empfehlen, für den Nutzer auch funktioniert.

 

Thema: Ausblick

Zeit: 1:18:28

Frage: Wo wird sich Google im nächsten Jahr hinbewegen?

Antwort: Das weiß ich nicht. Ich hoffe, dass wir diese Büros hier behalten, denn die sind sehr bequem. Ansonsten werden sicher Assistenten immer wichtiger. Aber wir werden sehen, wie das in der Realität aussehen wird, wenn wirkliche Fragen gestellt und beantwortet werden. Da werden wir uns von den Keywords hin zur Suchintention bewegen. Dafür werden sicher strukturierte Markups noch wichtiger werden.

 

Thema: Https

Zeit: 1:20:49

Frage: Weißt du, warum man den Data Highlighter nicht direkt nutzen kann, wenn man eine Seite auf https umstellt?

Antwort: Weil die Seiten dann noch nicht gecached sind. Da musst du dann einfach ein bisschen warten.

 

Thema: Internationale Seiten

Zeit: 1:21:15

Frage: Warum dauert es bei einer mehrsprachigen Seite länger, bis sie im Index landet und Traffic erhält?

Antwort: Das ist eine schwere Frage. Technisch gesehen müssen wir die ganzen URLs erst einmal crawlen und die Verbindung zwischen ihnen verstehen. Daher dauert es etwas länger. Praktisch gesehen ist es auch so, dass mehrere Seiten es schwerer haben, viele starke Signale aufzubauen. Das geht leichter, wenn ihr eine wirklich starke URL habt. Es ist daher immer die Frage, ob man so viele Versionen braucht. Man kann ja auch in der Zukunft mehr Sprachen hinzufügen.

 

Den ganzen Hangout könnt ihr euch hier ansehen:

Werbung

TEILEN
Nach meinem Studium der Politikwissenschaften (Schwerpunkt Diplomatie) habe ich mich im April 2015 der imwebsein GmbH angeschlossen. Im Bereich Online-Marketing war ich zuvor für einige politische und sportliche Organisationen tätig - und unterstütze einige von ihnen immer noch im Ehrenamt. Ich freue mich auf einen regen Austausch, vor allem auf unserem neuen SEO-Portal!

HINTERLASSEN SIE EINE ANTWORT