seopinky 2 Report post Posted November 28, 2018 Hallo, ich brauche bitte dringend Hilfe. Weiß jemand, wie Google mit einem Verweis in der robots.txt auf xml-sitemaps unterschiedlicher Domains umgeht? Ausschnitt der robots.txt von https://www.beispiel.com Sitemap: https://www..it/sitemap.xml Sitemap: https://www..com/en-sitemap.xml Sitemap: https://www..net/de-sitemap.xml Sitemap: https://es..com/es-sitemap.xml Sitemap: https://fr..com/fr-sitemap.xml Einige der sitemaps sind nicht mal zu erreichen. Das kann doch nur ein schlechtes Zeichen sein, oder? Unsere Webagentur hat diese Datei erstellt und ich bekomme keine Auskunft darüber. Vielen Dank!! Share this post Link to post Share on other sites
arnego2 134 Report post Posted November 28, 2018 Vor 10 Stunden, seopinky said: Hallo, ich brauche bitte dringend Hilfe. Weiß jemand, wie Google mit einem Verweis in der robots.txt auf xml-sitemaps unterschiedlicher Domains umgeht? Ausschnitt der robots.txt von https://www.beispiel.com Sitemap: https://www..it/sitemap.xml Sitemap: https://www..com/en-sitemap.xml Sitemap: https://www..net/de-sitemap.xml Sitemap: https://es..com/es-sitemap.xml Sitemap: https://fr..com/fr-sitemap.xml Einige der sitemaps sind nicht mal zu erreichen. Das kann doch nur ein schlechtes Zeichen sein, oder? Unsere Webagentur hat diese Datei erstellt und ich bekomme keine Auskunft darüber. Vielen Dank!! Das Beispiel bringt nichts, Stehen die Sitemap: https://www..it/sitemap.xml hinter Allow oder Disallow? 1 Share this post Link to post Share on other sites
seopinky 2 Report post Posted November 29, 2018 Das ist die gesamte robots.txt... User-agent: EMailCollector Disallow: / User-agent: Teleport Disallow: / Sitemap: https://www. ... .it/sitemap.xml Sitemap: https://www. ... .com/en-sitemap.xml Sitemap: https://www. ... .net/de-sitemap.xml Sitemap: https://es. ... .com/es-sitemap.xml Sitemap: https://fr. ... .com/fr-sitemap.xml Share this post Link to post Share on other sites
arnego2 134 Report post Posted November 29, 2018 Vor 4 Stunden, seopinky said: Das ist die gesamte robots.txt... Ok nun sollten die Beiden Verbotenen dem Robots.txt folge leisten so sind für beide deine Seite Tabu. Das betrifft Google allerdings nicht. Gehe mal zu http://www.robotstxt.org/ Sollte Google dir beim Fetch sagen das dein Robots.txt es Tante Google untersagt zu scannen nimm einen Robots.txt wie User-agent: * Disallow: Ich halte nichts davon in dem Robots.txt den Pfad zu den Sitemaps unterzubringen. Dafür hat Google, Bing und Yandex eine Extra Eingabe. 1 Share this post Link to post Share on other sites
seopinky 2 Report post Posted December 5, 2018 Danke!!! Share this post Link to post Share on other sites