JavaScript & CSS

Werbung

 


01.12.2016, 19:35

Frage: Werden JavaScript Links wie folgender gecrawlt und regulär verarbeitet onclick=”javascript:window.location.href = ‘/test.html’”

Antwort: Ja und nein. Wir versuchen, festzustellen ob da irgendwelche Teile im JavaScript dabei sind, die so ähnlich aussehen wie URLs. Und dann nehmen wir an, dass es sich dabei um Links zu diese URLs handelt. In einem Fall wie bei dir ist das relativ einfach für uns. Oft gibt es aber komplizierte Dinge dahinter, sodass wir es nicht direkt im Quellcode sehen. Dann finden wir die Links vielleicht nicht. Bindet die Links also immer normal als Element und mit href ein. Da könnt ihr auch ein Nofollow angeben, wenn ihr wollt. Schwerer wird es dann, wenn da Onclick Events dabei sind, vor allem wenn diese nicht auf den ersten Blick sichtbar sind.


29.11.2016, 12:54

Frage: Mehr und mehr Seiten nutzen Angular JS. Da es keine standardisierte Einpflege gibt: Wie können wir Kunden überzeugen, dass das, was wir bauen, auch von den Suchmaschinen problemlos gecrawlt werden kann?

Antwort: Ich habe im Oktober ein Video für Angular Connect, das könnt ihr euch mal anschauen. Wir haben auch vor Kurzem einen Blogpost für PWA gemacht, wo es um ähnliche Probleme geht. An sich sollte es bei Angular keine Probleme geben.


20.10.2016, 19:58

Frage: Wie geht Google aktuell mit dynamischen Seiten um? Muss man diese sicherheitshalber vorher noch Prerendern? Wir habe einen Prototypen (dynamisch) gebaut und stellen fest, dass der Bot die Inhalte lesen und verarbeiten kann – Indexierungsstatus liegt aber dennoch nur bei 40%. Was uns weiter verunsichert ist das Renderverhalten in der GSC – hier hat der Bot offensichtlich noch Probleme und stellt unterschiedliche Ansichten zur Verfügung.

Antwort: Ja, das kann sein. Vor einem Monat habe ich bei einer Angular Konferenz gesprochen, wo es auch um diese Themen ging. Das werde ich euch hier mal verlinken. Prerendern ist auch immer eine Möglichkeit, das sollte dann aber für alle und nicht nur für den Googlebot gemacht werden. Das ist oft aber auch schwierig, und nicht alle Tools lassen sich dann 1:1 wie auf HTML Seiten nutzen.


22.09.2016, 27:19

Frage: Macht die Verlegung von css, js Dateien in eine Subdomain wegen dem gleichzeitigen Download noch Sinn?

Antwort: Manchmal ja, manchmal weniger. Bei Https und http2 bringt das weniger Vorteile. Das wäre aber eh nur auf der Benutzerseite wichtig, weniger für uns. Auch auch da nur, wenn es total viele eingebettete Inhalte sind.


20.09.2016, 46:55

Frage: Unter welchen Umständen sind die chache:copy einer Seite und die Text-Only Seite komplett unterschiedlich? Alle cache-copy Seiten sehen aktuell aus wie 404er, während die Text-Only Seiten den richtigen Inhalt haben.

Antwort: Das hört sich problematisch an. Ich kann nicht genau sagen,was da passiert, aber es könnte am JavaScript liegen. Vielleicht haben wir Probleme damit, eure Seite richtig zu rendern. Das ist auch eine Sache für die Hilfeforen. Die Leute dort helfen dabei, die Fehlerquellen einzugrenzen.


09.09.2016, 1:03:30

Frage: Wie geht Google mit Pushstate bei endlosem Scrollen in Ajax um?

Antwort: Wir haben eine Beispielseite, die ihr euch anschauen könnt. Da seht ihr alles, was in dem Zusammenhang funktioniert. Am besten sind beiderseitige Links und Pagination, damit wir es crawlen können.


09.09.2016, 41:54

Frage: Ist es ein guter Weg, den Title und die Description oder das Canonical mit JavaScript/TagManager zu ändern, wenn man keinen Zugriff auf den Quellcode hat?

Antwort: Das ist nichts wirklich gutes, man kann es aber machen. Wir schauen uns an, was in der finalen gerenderten Version ist.


08.09.2016, 41:05

Frage: Haben (Browser-Ressourcen-hungrige) JavaScript-Websites auch tendenziell eine schlechtere Crawling-Rate? Oder hat Google “unlimited” Rechenpower auf Client-Seite?

Antwort: Unlimitiert sicher nicht, aber wir haben schon viele Rechner und können viel über das Rendern rausholen. Wir rendern momentan fast jede Seite, die wir crawlen, damit wir z.B. bei JavaScript nichts verpassen. Viele eingebettete Inhalte auf einer Seite können einen Einfluss auf das Crawlen und Rendern haben und zu einem Timeout führen, das ist aber die Ausnahme. Das geht den Nutzern dann aber auch so und ihr solltet das optimieren, um ihnen eine schnellere Seite zu bieten. Webpagetest.org ist hier ein gutes Tool.


06.09.2016, 33:07

Frage: Wir sind eine Content Authoring Platform. Die Erstellung passiert in vielen Formaten und wird dann von den Erstellern auf ihren Seiten eingebunden. Viele verlieren nun SEO-Punkte, weil die Inhalte nur eingebettet sind. Können wir da etwas tun? Wir wollen, dass sie ihre Inhalte perfekt nutzen können. Außerdem werden Inhalte in Schritten per Angular erstellt. Vieles davon wird nicht indexiert.

Antwort: Sie sollen die Inhalte also so nutzen können, als würden sie zu ihrer Seite gehören? Wir versuchen, Iframes zu rendern und in Betracht zu ziehen. Wenn man genau diese Inhalte sucht, wird man sie also finden. Es gibt aber keinen einfachen Weg, um das als volle Inhalte zu sehen. Es könnte funktionieren, die Inhalte per JavaScript einzubetten. Ich weiß aber nicht, ob das viel ändern wird. Das müsstet ihr testen. Angular sollten wir in den meisten Fällen erkennen können. Im März oder April habe ich bei Google+ gepostet, was man da beachten muss. In Fetch als Google könnt ihr testen, was Googlebot da genau sieht.


12.08.2016, 43:39

Frage: Crawlt Googlebot die Inhalte, die in einem JavaScript Tag genutzt werden?

Antwort: Wenn wir das JavaScript crawlen können, dann werden wir es crawlen. Indexieren ist aber nicht so einfach. Wenn wir es nutzen können, dann vielleicht. Wenn es im gerednerten Zustand nicht erscheint, dann werden wir es eher nicht nutzen.


11.08.2016, 28:55

Frage: Client- vs. Serverseitiges Rendern: Kann ich meine Webseite rein clientseitig rendern und erkennt der GoogleBot trotzdem alle Inhalte korrekt und vollständig? Werden wirklich alle Seiten immer gerendert oder nur ein Teil der Seiten?

Antwort: Gute Frage. Gerade die neuen JavaScript Frameworks geben die Möglichkeit, das JavaScript auszuliefern oder es von einem Dienst vorrendern zu lassen. Wenn man es einrichten kann, dass der erste Besuch die gerednerte Version sieht, ist das perfekt. Dann sehen Suchmaschinen und Nutzer immer die gerenderte Version. Das geht serverseitig, das ist isomorphes rendern. Wir versuchen auch immer, die Seite so wie im Browser darzustellen. Probiert das immer auch im Abruf wie durch Google aus. Dann sehr ihr, ob es funktioniert.


11.08.2016, 10:45

Frage: Wir benennen oft die CSS und JavaScript Dateien so um, damit nicht der alte Stand genutzt wird. Ist das ein Problem, weil sich dann auf jeder Seite der Quellcode ändert? Die alten funktionieren aber weiterhin.

Antwort: Da sollte es von der alten Version eine Weiterleitung auf die neue Version geben. Das macht uns das Crawlen und rendern einfacher. Wenn die alten Daten noch funktionieren und einfach die neuen ausgeben, dann ist das auch ok.


29.07.2016, 51:46

Frage: Kann es passieren, dass Google Algorithmen wie Panda AdSense Matched Content JavaScript als weitere Anzeigeneinheit erkennen? Ich habe 3 AdSense und zwei Matched Content Einheiten, ist das zu viel?

Antwort: Grundsätzlich crawlen wir die Inhalte von Werbeeinheiten nicht. Ob es zu viel ist oder nicht ist eine Sache zwischen dir und deinen Nutzern.


28.07.2016, 50:58

Frage: Eine Website, die komplett mit angularJS umgesetzt wurde (metaangaben & body) – hat die irgendwelche Rankingnachteile?

Antwort: Grundsätzlich kann man das so machen. Es muss aber mit sauberen URL-Strukturen sein, da es das crawlen und redern schwerer macht. Es ist eine schöne Technologie, aber es ist neu und komplex.


17.06.2016, 48:00

Frage: Früher hattest du Escaped Fragments für Javascript-Seiten empfohlen. Allerdings ist diese Formatierung seit einigen Monaten veraltet. Sollen wir für eine deutlich auf Javascript aufbauende Webseite noch immer Escaped Fragment URLs einbauen?

Antwort: Ich würde nicht empfehlen Escaped Fragments zu verwenden. Mit diesem Format ist die Webseite nicht für jede Suche zugänglich. Vielmehr empfehle ich die History API bei normal gestalteten URLs.


16.06.2016, 24:12

Frage: Eine AJAX-Seite verwendet folgendes URL-Schema Beispiel: example.com/#category&id=shopping. Google crawlt aber die Unterseiten nicht. Bei “Abruf wie durch Google” erscheint immer nur die Startseite. Google soll doch inzwischen AJAX können? Was tun?

Antwort: Webseiten, die nur mit dem #-Zeichen arbeiten, betrachten wir im Regelfall nicht als eigenständige Webseiten. Wir crawlen nur die Hauptseite und nicht die ganzen Unterseiten. Ich empfehle, bei der Erstellung einer neuen Webseite nur mit der URL-Struktur zu arbeiten. Alternativ ist es möglich, für diese Seiten die Escape-Fragment-Version aufzusetzen, wenn ihr die AJAX-Version mit dem Hash Bing verwendet. Nach Möglichkeit ist es besser, mit sauberen URLs zu arbeiten.


16.06.2016, 13:23

Frage: Wir haben ein Webmagazin als Single Page Application mit Angular umgesetzt. Wir haben für die Artikel folgendes Schema gewählt http://goo.gl/TBdNH2. Früher waren die Artikel alle im Index, jetzt erkennt Google nur noch die Startseite. Warum ging es früher?

Antwort: Ihr verwendet sogenannte Hash Bing URLS. In diesen Fällen crawlen wir jedoch jeweils die Escape-Fragment-Version und versuchen, diese zu indexieren. Wir erwarten, dass die Escape-Fragment-Version genauso wie die Javascript-Version abgebildet wird. In diesem Fall erkenne ich, dass wir nur eine leere HTML-Seite erhalten, auf der das Javascript-Framework aufbaut. Demzufolge denken wir, dass ihr alles Wichtige auf der HTML-Seite zusammengefasst habt. Doch das ist vermutlich nicht eure Intention. Ich empfehle, bei Angular „HTML 5“-Versionen zu verwenden. Dann erscheinen URLs wie klassische statische URLs. Dann können wir die URLs wie Javascript-URLs aufrufen und indexieren. Also entweder setzt ihr die Escape-Fragment-Version sauber um oder wechselt auf eine andere URL. Treten bei euch derartige Probleme auf, dann postet eure Fragen ruhig im Hilfe-Forum oder nehmt Kontakt mit mir auf.


14.06.2016, 31:57

Frage: Wir haben eine Drittseite für unsere Bewertungen, die wir per Widget einbauen das zur Drittseite verlinkt. Wie sollten wir das am besten machen, um auch die SEO Vorteile durch die Bewertungen zu erhalten?

Antwort: Grundsätzlich können wir solche JavaScript Dinge erkennen und in den Suchergebnissen darstellen können. Ihr könntet mit Wörtern aus den Bewertungen eine site query durchführen. Wenn diese dann auftauchen, können wir sie auch erkennen.


14.06.2016, 00:48

Frage: Kann Google mittlerweile alle JavaScript Dinge, die man im Fetch and Render Toolin Search Console sieht, auch wirklich verarbeiten?

Antwort: Wenn man es in diesem Tool sieht, dann können wir es auch sehen und nutzen. Wir können es aber vielleicht nicht immer zu 100% verstehen, wenn wir z.B. den Text nicht rausziehen können. Ihr könnt das mit einer site query testen.


03.06.2016, 51:28

Frage: Was ist die beste Vorgehensweise, um eine Seite mit einem Age Verification Disclaimer komplett crawlen und indexieren zu lassen? Ich habe einen Post gesehen, dass man JavaScript nutzen kann, weil das nur teilweise Cloaking ist. Im Moment sieht Google auch nur die Altersabfrage.

Antwort: Das ist sehr schwer. Da habe ich im Moment keine guten Tipps. Wir arbeiten aber daran, hier eine sinnvolle Hilfe bzw. Guidelines für Webmaster zu erstellen. Du kannst mir gerne Beispiele schicken und mir sagen, was du Google in solchen Fällen raten würdest. Die gecachete Seite sollte kein JavaScript ausführen.


02.06.2016, 28:22

Frage: Hallo John, unser Kategoriebaum besteht aus einem JavaScript Akkordeon Menü, könnte das für Google Probleme geben? Gibt es heutzutage da überhaupt noch Nachteile? Für die Nutzer ist es in jedem Fall eine Erleichterung und spart Ladezeit bei der Suche. Danke

Antwort: JavaScript können wir sehen. Ich würde aber aufpassen, dass das Nachladen normal funktioniert. Denn wir müssen die einzelnen Links sehen können. Laden sie erst nach einem Klick, dann können wir sie nicht sehen.


19.05.2016, 34:04

Frage: Ich habe ein Problem mit der Home von unserer Website www.12Gebrauchtwagen.de. Meine Vermutung ist, dass die Links auf Automarken nicht erreichbar sind, sobald man mit einem Plugin JavaScript deaktiviert. Könnte Google das als negativ ansehen?

Antwort: Weiß ich nicht. Da müsste ich mir die Seite mal genauer anschauen. Wenn die Links hinter JavaScript sind, dann müssen wir sie natürlich erkennen können – und dass, ohne dass man eine Aktion auf der Seite ausführt. Denn das tut Googlebot nicht.


19.05.2016, 08:21

Frage: Hallo Johannes, als SEO muss ich immer öfter AJAX-Seiten analysieren. Leider gibt es dazu meines wissens noch kein passendes Tool wie beispielsweise Screaming Frog, das mit solchen Seiten klarkäme. Kennst Du ein passendes Werkzeug?

Antwort: Ich habe da auch kein Zaubermittel. Gerade AJAX ist in einem Stadium, wo es sehr schwierig ist, die Seiten sauber zu testen. Ich würde aber immer mit sauberen URLs ohne #! arbeiten, damit man sie besser testen kann. Testet ansonsten vielleicht mit einem Headless Browser.


17.05.2016, 47:03

Frage: Wir haben am Ende vieler Seiten, weit unter dem sichtbaren Bereich, ein Werbepanel. Diese sind AJAX, um Ladezeit zu sparen. Die AJAX Url ist in einer robots.txt, um dem Crawler Zeit zu sparen. Google kann also die Werbepanel nicht sehen. Kann man dies ignorieren, obwohl es eine blockierte Ressource mit mittlerer Wichtigkeit ist?

Antwort: Die Schwere bezieht sich auf das Mobile Testing Tool. Wenn ihr es nicht indexiert haben wollt, dann lasst es so. Für Werbung zum Beispiel ist das also ok. Wenn ihr es aber indexiert haben wollt, dann müsst ihr euch darum kümmern. Es gibt natürlich extreme Situationen, wo wir uns solche Dinge auch mal mit dem Webspam Team anschauen (Stichwort: Cloaking) – aber zum großen Teil ist das nur als Info für euch gedacht.


17.05.2016, 24:20

Frage: Braucht Google immer noch eine Escaped Fragment Lösung, um Angular JavaScript crawlen zu können?

Antwort: Soweit ich weis kann man entweder das #! System nutzen oder auf HTML5 History API Navigation zurückgreifen. Für uns sollte beides in den meisten Fällen funktionieren. Wir empfehlen aber das zweitere und gehen immer mehr von #! weg, weil es auch nicht von Search Console unterstützt wird.


06.05.2016, 02:55

Frage: Google hat die Unterstützung für AJAX beendet, da Googlebot Websites nun wie ein moderner Browser versteht. Gibt es daher noch gute Gründe, die dafür sprechen, gerenderte Inhalte zu nutzen oder ist eine App mit 100% nutzerseitiger Reaktion nun äquivalent für den Googlebot?

Antwort: Ich würde nicht sagen, dass sie zu 100% gleich sind. Aber wir können immer mehr aus den JavaScript Frameworks herausholen. Ich habe auch im März bei Google+ 09etwas dazu gesagt, dort findet ihr alles, was momentan funktioniert – und was nicht. Stellt sicher, dass Search Console Abruf wie durch Google funktioniert. Dann sollte es auch indexiert werden und ranken.


03.05.2016, 49:28

Frage: Haben Page Applications, wie z.B. ein Shop mit Ember oder Angular, negative Auswirkungen auf das Crawlen, Indexieren oder Ranken der Seite? Sind serverseitig generierte HTML Seiten besser für SEO als JavaScript Applikationen?

Antwort: Viele große und gute Seiten nutzen das neue JavaScript Setup. Das funktioniert oft sehr gut, aber es kann auch Dinge schwieriger machen. Ich würde davon also nicht abraten – aber seid euch darüber im Klaren, dass es euch das Leben erschweren kann.


07.04.2016, 21:45

Frage: Hat Google noch immer Probleme damit, Angular JavaScript Webseiten zu crawlen, oder gibt es mittlerweile keinen Nachteil mehr für SEO ?

Antwort: Wir haben immer weniger Probleme. Ich würde aber nicht behaupten, dass es gar keine Nachteile gibt – je nach dem, wie die Seite aufgebaut ist. Ihr könnt das immer mit Fetch as Google testen. Wenn das klappt, dann können wir es auch richtig renderen und verstehen.


05.04.2016, 30:24

Frage: Google unterstützt AJAX nicht mehr, was zu vielen neuen Seiten führt, die aber nicht gerendered werden, obwohl JavaScript und CSS zugänglich sind. Was kann man sonst noch prüfen, um den Fehler zu finden?

Antwort: Die meisten sollten gecrawlt werden können. Wenn ihr aber gegenteilige Beispiele habt, dann schickt sie mir. Nutzt außerdem das Fetch and Render Tool und lest noch einmal meinen Beitrag zu diesem Thema.


12.02.2016, 05:39

Frage: Wir bieten Frage-und-Antwort-Content für andere Firmen an. Unsere Kunden haben nun Angst vor DC. Was wäre eine Best Practice für uns, da Google ja nun AJAX crawlen kann und wir es nicht mehr dort verstecken können.

Antwort: Das müsste ich mir noch einmal anschauen, das ist eine komplizierte Situation. Wir sind dabei, immer mehr AJAX crawlen zu können – auch wenn wir noch nicht immer alles crawlen. Ihr könntet vielleicht per JavaScript den Header anpassen. Wenn ihr Teile der Seite nicht im Index haben wollt, dann ist die robots.txt der beste Weg – ich weiß aber nicht, ob es für euch Sinn macht. Ihr könntet die Inhalte auch in ein Verzeichnis auf eurer Seite packen und dieses dann per robots.txt blockieren. Dann sieht es nicht nach autogeneriertem Content beim Kunden aus. Schick mir doch mal ein Beispiel, dann können wir uns das im Team mal anschauen.


11.02.2016, 43:40

Frage: Einige Übersichtseiten werden per AJAX ausgegeben, Google hat da Probleme, den Links zu folgen.. wäre es hilfreich darunter die Links zu den Detailseiten zusätzlich mit einem Jumpmenü auszugeben? <option value=”http://www.site1.com”>Site 1</option> usw.

Antwort: Ich vermute, dass wir das in einem Option-Element nicht sauber als Link erkennen können. So würde ich das also nicht machen. Arbeitet lieber mit normalen Links – außerdem sollten wir AJAX-Seiten sauber erkennen können. Prüft das einfach mal in Search Console via Fetch as Google. Arbeitet auch immer mit sauberen statischen URLs.


28.01.2016, 27:48

Frage: Hallo John, wir würden gerne einige Inhalte auf unserer Seite über AJAX bei onload auf die Seite laden, wie sehen die Google-Bots diese Inhalte? hat das Nachteile für die Google-Suche?

Antwort: Wir können JavaScript Inhalte mittlerweile gut erkennen. Wenn sie nicht blockiert sind, dann können wir sie für die Indexierung nutzen. Prüft es einfach via Fetch and Render, da sieht man schnell, ob Googlebot die Inhalte sehen kann. Aber es gibt nicht nur Google, also testet eure Seiten für alle Trafficquellen, die für euch wichtig sind. Denn Googlebot ist den meisten oft ein bisschen voraus und kann Dinge erkennen, die andere noch nicht verstehen.


12.01.2016, 11:15

Frage: Interessiert sich Google für das Browser Cache? Wenn eine Website das Browser Cache nutzt, sieht Google auch die aktuelle Version des Caches? Können da Probleme auftreten, z. B. wenn eine CSS Datei geändert wird?

Antwort: Google nutzt das Cache, um die JavaScript Dateien zu sehen. In der Theorie gibt es eine Zeitspanne zwischen einer Änderung und dem Zeitpunkt, wo wir das auf anderen Seiten sehen. Generell ist Google aber ziemlich gut darin, euren Cache Richtlinien zu folgen, die auf eurer Website festgelegt werden und wir versuchen eine neue Version aufzunehmen/zu erkennen, wann immer wir können.


29.12.2015, 44:49

Frage: Ich bin der Webmaster von klickrent.com. Wir haben seit etwa einem Jahr ein Angular JavaScript System, mit einer existierenden Sitemap in Search Console. Wir haben aber immer noch Probleme mit der Indexierung. Wir haben wenige externe Links und die interne Struktur muss optimiert werden. Siehst du Probleme mit Angular?

Antwort: Grundsätzlich nicht, es gibt viele tolle Seiten auf dieser Basis. Aber jedes Framework kann auch in einer Art aufgebaut werden, dass es nicht funktioniert. Ich empfehle hier die Hilfeforen.


29.12.2015, 43:10

Frage: Wird der generierte <head> Bereich einer Angular JavaScript Seite von Google genutzt? Ist es also z.B. ok, das Canonical durch JavaScript zu generieren?

Antwort: Ja, das ist ok. Wir können das sehen und nutzen es entsprechend.


05.11.2015, 32:28 

Frage: Früher konntet ihr iFrame nicht erkennen – sind also Erstellungen von Extraseiten nicht mehr notwendig?

Antwort: Notwendig eigentlich nicht mehr, wenn wir nur den iFrame finden, dann können wir das meist sehen und das ist ok. Es ist aber auch nicht problematisch im Hinblick auf DC, wenn ihr das macht.


05.11.2015, 31:18

Frage: Ist es schädlich, dass Inhalte unserer Seiten in anderen Webseiten teilweise als iFrame eingebunden werden können (Cloaking)?

Antwort: Schädlich nicht, wir können iFrames ansehen und können so etwas dann mit euren SERPs zusammenklappen. Wenn ihr nicht so angezeigt werden wollt, könnt ihr einen entsprechenden Header einbauen.


27.10.2015, 22:10

Frage: Wird die Abschaffung von _escaped_fragment_ zu einem besseren Angular Crawling führen? Vor 6 Monaten wurde unsere Angulare Site im View as Google Tool richtig angezeigt – aber nicht richtig gecrawlt. Läuft das Crawlen jetzt besser? Wenn nicht, was sollen wir tun?

Antwort: Ja, das Angular Crawling ist noch nicht fertig und wird verbessert. Wenn ihr viel JavaScript habt, dann geht sicher, dass wir es sehen können – vielleicht mittels Fetch as Google. Ich denke, dass wir _escaped_fragment_ noch eine Weile unterstützen werden, da es von vielen Seiten genutzt wird.


16.10.2015, 44:36

Frage: Die Bekanntmachung hinsichtlich AJAX diese Woche war ein bisschen vage. Kannst du das neu formulieren? Danke!

Antwort: Aber wir haben uns mit der Bekanntmachung doch so viel Mühe gegeben! 🙂 Wir arbeiten daran, so viele Seiten wie möglich zu rendern. Viele Webmaster nutzen AJAX, um uns dabei zu helfen, das ist aber nicht mehr notwendig. Wir empfehlen die Nutzung von AJAX nicht mehr, aber wir respektieren diese URLs nach wie vor. Ihr könnt mit dem Fetch and Render Tool prüfen, ob wir alles sehen. Stellt sicher, dass JavaScript nicht durch die Robots.txt blockiert wird. Wenn es Probleme gibt, dann postet diese bitte in den Hilfeforen. Wenn ihr für JavaScript und den Googlebot unterschiedliche URLs nutzt, könnte das zu Problemen führen.


10.09.2015, 06:51

Frage: Wir haben bei einem Kunden auf mobile URLs umgestellt (Kunde nutzt separate mobile URLs auf einer Subdomain). Mobile User werden per JavaScript an diese URLs weitergeleitet. Das hat alles einwandfrei funktioniert bis der Dienstleister auf der mobile Subdomain das Canonical Tag eingebaut hat. Danach ging nach und nach das mobile Label verloren. Obwohl das Testtool von Google immer noch sagt, dass in dieser Hinsicht alles in Ordnung ist.

Antwort: An und für sich klingt das richtig. Wir raten eher von JavaScript Weiterleitungen ab bzw. empfehlen eher dies auf der Serverseite zu verwenden, wenn aber der rel=alternate Tag für die mobile Version vorhanden ist, wenn von der mobilen Version ein Canonical auf die Desktop-Version zeigt – dann sollte für Google eigentlich klar sein, dass diese Seiten zusammengehören.


11.09.2015, 47:10

Frage: Muss man CSS und JavaScript für den Googlebot freigeben?

Antwort: Müssen ist ein zu starkes Wort, aber es hilft uns dabei, die Seite genauso zu sehen wie der Nutzer.


27.08.2015, 58:30

Frage: Wir nutzen für unsere Shops Magento, hier wird von Haus aus sehr viel JavaScript verwendet. Kann dies negative Auswirkungen haben, da der Anteil von JavaScript vs. HTML sehr hoch ist?

Antwort: Eigentlich nicht. Es sollte sichergestellt werden, dass Google das JavaScript auslesen kann.


27.08.2015, 31:16

Frage: Hallo Johannes, vor einigen Wochen bekamen wir in den Webmastertools die Meldung, dass der Googlebot nicht auf CSS- und JS-Dateien zugreifen kann. Seit dem haben wir alles versucht, um diesen Fehler zu beheben. Wie können wir den Fehler lösen? VG

Antwort: Diese Meldung wurde ausgegeben, wenn das Crawling von JavaScript durch die Robots.txt blockiert wird. Wenn diese Blockierung via Robots.txt aufgehoben wird, können diese Seiten wieder normal gecrawlt und indexiert werden. Zusätzlich empfiehlt sich die Nutzung vom Fetch-and-Render-Tool in der Search Console.


27.08.2015, 24:50

Frage: Nochmal ich; unsere IT strebt Client Side Templating an, um die ajaxrequests zu reduzieren. Ajaxinhalte sind indexed. Wie verhält es sich, wenn nun dies dem Browser überlassen wird? Kann der Bot mittlerweile auch das ausführen/interpretieren? Gruß mM

Antwort: In vielen Fällen kommt Google damit klar. Es sollte darauf geachtet werden, dass die JavaScript Dateien durch Google gecrawlt werden können. Man kann dies mit dem Fetch-as-Google Tool (Search Console) prüfen.


14.08.2015, 58:34

Frage: Gibt es einen JavaScript Zugang zur Search Console? Und wenn es einen gibt, ist es möglich Daten in mehr als einer Dimension zu ziehen? Ist es möglich, mehr als 1.000 Werte zu ziehen?

Antwort: Ja, das ist mithilfe der Search Analytics API möglich. Ich weiß nichts Spezielles über eine JavaScript API, aber ich denke, dass das mit dem regulären Framework möglich ist. Aktuell gibt es ein 5.000 Zeilen Limit.


14.08.2015, 15:46

Frage: Obwohl einige Ordner in robots.txt erlaubt wurden, sagen Fetch as Google und robots.txt Tests noch immer, dass es Probleme gibt, JavaScript und CSS zu erreichen. Ist das normal?

Antwort: Nein, das ist nicht normal. Vor allem die Testtools sollten euch sofort, wenn ihr etwas ändert, das Richtige anzeigen. Ich kenne eure Seite nicht, aber ich denke, dass ihr eine zu komplizierte robots.txt habt, in der etwas sowohl blockiert als auch erlaubt ist. Andererseits ist es auch so, dass längere Dateien meist über den Kürzeren stehen – also stellt sicher dass alles in einem übersichtlichen Statement steht.


13.08.2015, 25:38

Frage: “Der Google Bot kann nicht auf CSS und JS Dateien zugreifen” – wie zügig muss das Problem behoben werden? Müssen nur betroffene Seiten “suboptimale Rankings” (lt. Google) befürchten oder die ganze Domain?

Antwort: Ich vermute, diese Nachricht ist etwas verwirrend geschrieben. In diesem speziellen Fall ist das Problem, dass wir versuchen, die Mobile Friendly Seiten zu erkennen. Wenn diese Dateien blockiert sind, können wir aber nicht feststellen, wie diese Seite wirklich aussieht und ob sie mobil optimiert ist. Daher möchten wir gern Zugriff auf diese Dateien haben. Suboptimales Ranking ist in erster Linie in Bezug auf das Mobilranking gemeint. Aber auch, wenn zusätzliche Inhalte in JavaScript dargestellt sind, dann können wir sie nicht sehen und eure Seite nicht dafür ranken. Es gibt aber keinen Penalty oder Ähnliches. Wir verwenden es aber nur zum Rendern. Das Ganze ist pro einzelne Seite.


13.08.2015, 04:23

Frage: Welche negativen Auswirkungen hat die Einbindung von InlineFrames in Websites aus SEO-Sicht?

Antwort: Es ist schwierig zu interpretieren, was genau mit “negativen Auswirkungen” gemeint ist. Was z. B. problematisch sein könnte, ist, dass wir zum großen Teil die Inhalte in einem Iframe nicht wirklich der Website zu zählen, d. h. wenn die Inhalte in diesem Iframe sehr wichtig sind für diese Seite, dann würde ich schauen, dass diese Inhalte im HTML der Seite sichtbar sind. Es ist aber nicht so, dass eine Website herabgestuft wird, weil Iframes eingebunden sind.


11.08.2015, 39:18

Frage: Google hat angefangen, die Inhalte im JavaScript zu indexieren. Hat das genauso viel Wert wie HTML Inhalte? Sind Links innerhalb des JavaScripts genauso wertvoll wie anderswo?

Antwort: Ja, wenn wir die Pages rendern und den Inhalt im JavaScript indexieren können. Dann ist das etwas, was wir als Content behandeln. Links innerhalb des JavaScripts behandeln wir wie reguläre Links. Das bedeutet auch, dass Webmaster vorsichtig mit Links sein sollten, die sie nicht auf ihrer Website haben wollen – z. B. User Generated Content oder Werbung. Da sollte sicher gegangen werden, dass der Nofollow-Tag genutzt wird, damit kein PageRank weiter gegeben wird.


11.08.2015, 03:37

Frage: Wir haben eine Seite gelauncht und alle Inhalte sind in JavaScript. Wir sehen, dass Google in der Textversion alles crawlt, was wir auf der Seite haben. Wie werden diese Inhalte bewertet und wie werden interne Links auf diesen Seiten bewertet?

Antwort: Wir versuchen, solche Dinge wie ein Browser zu rendern und das dann für den Index zu nutzen. Sind dort Inhalte oder Links, sehen wir sie als normal an. Wir werden sie nicht abwerten, weil sie JavaScript sind – aber es ist wichtig, dass wir sie crawlen können. Geht also sicher, dass die Seite nicht per robots.txt geblockt wird.


31.07.2015, 14:55

Frage: Hi John, ich habe in der Search Console eine Nachricht erhalten, dass Google keinen Zugriff auf JavaScript/CSS hat. Warum benötigt Google Zugang zu diesen Dateien? Nach welchen Daten schaut Google in diesen Dateien?

Antwort: Google sucht nicht nach irgendwas Verrücktem. Google möchte die Seiten im Prinzip so rendern, wie Browser es auch machen, um zu sehen, was Nutzer sehen. Google möchte sichergehen, dass Google den gleichen Content sieht wie die Besucher. Das hat auch etwas mit dem Mobile-Friendly Update zu tun. Wenn die Crawler erkennen können, das die Website mobile-friendly ist, dann kann sie in der mobilen Suche und mit dem Mobile-Friendly Label angezeigt werden. Dafür benötigen wir Zugriff auf JavaScript/CSS. Ich habe das Gefühl, dass unsere Benachrichtigungen in diesem Falle etwas verwirrend waren. Ich habe festgestellt, dass viele Websites, die eine solche Benachrichtigung erhalten haben, mit Hilfe von JavaScript/CSS kleine Datenmengen gezogen haben, z. B. durch Plugins. Viele Plugins wurden dahingehend bereits geupdatet.


31.07.2015, 09:26

Frage: Meine Website hat in der Google Search Console eine Nachricht darüber erhalten, dass JavaScript und CSS blockiert wird. I nutze ein CDN für alle meine Dateien. Ich habe gelesen, dass Google diese nicht crawlt. Wie kann ich dem Googlebot erlauben Dateien zu crawlen und sie gleichzeitig im CDN zu haben?

Antwort: Wir crawlen generell Dateien in CDNs. Google blockiert das auf keine Art und Weise. Sie werden wir jeder andere Content gecrawlt. Ich habe einige Websites gesehen, die den Googlebot von den Dateien im CDN fern halten – das sollte geprüft werden.


30.07.2015, 26:18

Frage: Aktuell werden über die Search Console Meldungen bei blockierten JS / CSS Files verschickt. Ebenfalls heißt es weiter, dass es dabei zu einem Rankingverlust kommen kann. Wann genau kann dies eintreten? Gäbe es dazu ebenfalls eine Meldung?

Antwort: Im Moment ist es nicht so, dass wir die Seiten bestrafen wollen. Es ist einfach so, dass zum Teil Inhalte in JavaScript nachgeladen werden. Und wenn wir diese nicht laden können, dann können wir sie für die Suche nicht nutzen. Dies führt dann zu schlechteren Rankings – oder hat sogar schon dazu geführt. Wenn man sichergehen will, dass diese Dateien nie indexiert werden, kann man mit dem x-robots-tag arbeiten. Das ist ein http-Header, den man bei allen Dateien angeben kann.


30.07.2015, 00:33

Frage: Viele Webmaster befürchten, dass es durch das crawlen von Java und CSS zu Sicherheitsproblemen kommen könnte. Du hast ausgeschlossen, dass diese Daten indexiert werden. Aber es gibt doch die Befürchtung, dass gewisse Sachen mit ausgelesen werden und dadurch Sicherheitslücken entstehen.

Antwort: Wenn die Dateien in einer HMTL-Seite eingebunden sind, dann werden die JavaScript-Dateien nicht separat indexiert, also nicht in der Websuche sichtbar gemacht. Wichtig finde ich, dass die Sicherheit von Webseiten eigentlich nicht von solchen Maßnahmen abhängen sollte. Die robots.txt Datei ist eigentlich kein Weg, um eine Webseite sicherer zu machen. Ein Hacker, der eine Seite angreifen will, schaut nicht auf die robots.txt und hält sich an die dortigen Vorgaben. Hacker lassen eher Programme über alle Seiten laufen, um Sicherheitslücken zu finden – sie nutzen nicht die Websuche, um einzelne JavaScript-Versionen zu finden. Wenn man merkt, dass es Sicherheitslücken – beispielsweise im JavaScript – gibt, bringt auch das Verstecken nichts. Dann muss man diese Lücken schließen und die Webseite immer aktuell halten.


30.06.2015, 50:51

Frage: Manchmal sehe ich, wenn ich das Fetch and Render Tool nutze, dass JavaScript von einer anderen Seite nicht lädt oder blockiert ist. Kann dies auf meiner Seite zu Rankingproblemen führen?

Antwort: Ja, das kann es. Wenn es Inhalte erzeugt, die es auf deiner Seite sonst nicht gibt, dann kannst du dafür nicht ranken.


30.06.2015, 48:43

Frage: Ich habe in letzter Zeit viele Probleme mit blockierten Ressourcen gehabt (von der Domain, die das Trcking für meine Hauptseite macht). Kann dies meine Seite negativ beeinflussen?

Antwort: Wenn eingebettete Inhalte blockiert werden, dann können wir sie nicht crawlen. Wenn es sich nur un die Tracking-Seite handelt, ist es kein Problem. Handelt es sich allerdings um wichtige Inhalte, beispielsweise eine Karte mit JavaScript wenn JavaScript blockiert ist, dann können wir es nicht sehen und ihr könnt dafür nicht ranken. Ihr könnt das in Search Console testen.

Werbung

TEILEN
Die Suchmaschinenoptimierung und das Online-Marketing sind meine Leidenschaft. Als akkreditierter Journalist und Chefredakteur des SEO Portal schreibe ich darüber und als Geschäftsführer der imwebsein GmbH (Online Marketing Agentur) kann ich diese Leidenschaft in der Praxis umsetzen.

HINTERLASSEN SIE EINE ANTWORT