Piero50 1 Report post Posted April 4, 2016 Hoi Zämma Ich hab irgendwo ein Problem auf einer Domain, das ich nicht begreife. Folgendes: Wenn ich die XML Sitemap erstellen lasse (xml-sitemaps.com), dann nimmt das Programm alle meine Seiten, aber unterschlägt den Ordner /de/. D.h. ein ganzer Ordner wird nicht in der sitemap.xml aufgelistet und zudem hat auch Google-Tools die besagten Seiten nicht indexiert. Obwohl ich in der XML-Sitemap die fehlenden Seiten von Hand aufgelistet habe. D.h. Google weigert sich auch den Ordner /de/ anzuerkennen. Aber zum Beispiel mit dem Ordner /it/ habe ich gar keine Probleme. Der wird voll aufgelistet. Die Robots und die .htacces sind in Ordnung. Habe bereits nachkontrolliert. Kann mir jemand sagen wo es liegen könnte? Share this post Link to post Share on other sites
Piero50 1 Report post Posted April 4, 2016 Ich hab jetzt den Ordner /de/ gelöscht und alle Seiten (nach Bereinigung der Links) im ROOT-Directory geschmissen. Trotzdem will xml-sitemap.com davon nichts wissen. Jetzt wird es fast gruselig. Share this post Link to post Share on other sites
Michael Schöttler 43 Report post Posted April 4, 2016 Was sagen den die Webmaster Tools? Schon andere Anbieter probiert? https://code.google.com/archive/p/sitemap-generators/wikis/SitemapGenerators.wiki Share this post Link to post Share on other sites
Homer 1 Report post Posted April 5, 2016 Bau doch die Seite manuell in die Sitemap ein, ist doch keine große Aktion. Share this post Link to post Share on other sites
Thomas der Erste 14 Report post Posted April 5, 2016 Da würde ich mal an den Support von xml-sitemaps.com schreiben, ob die eine Erklärung haben. Blöde Frage, aber wenn robots und htaccess passen, kann es vielleicht sein, dass in den Dokumenten "noindex" steht? Share this post Link to post Share on other sites
Piero50 1 Report post Posted April 12, 2016 Vielen Dank an Alle, aber ich sehe, Ihr könnt mir nicht helfen. - Den Google-Sitemapgenerator gibt es nicht mehr. - Ich habe bereits die Seiten manuell in Sitemap.xml eingebaut. - Alle "robots" haben "index, follow" Da muss was ganz Anderes darunter sein. Werde versuchen mit einem neuen Ordner und komplett neuen Seiten etwas zu erwirken. Vielleicht hilft das. Eventuell hat Google diese Seiten gesperrt. Weiss der Kuckuck warum, da die anderen Seiten der gleichen Domain weiterhin laufen. Share this post Link to post Share on other sites
florianseo 10 Report post Posted April 12, 2016 Ich glaube nicht das das Problem bei Google liegt. Zumindest habe ich noch nie gehört, dass einzelne Ordner einer Website vom Cralwer systematisch ausgeschlossen wurden. Share this post Link to post Share on other sites
LeaSandra 6 Report post Posted May 1, 2016 On 12.4.2016 at 13:05, Piero50 said: Vielen Dank an Alle, aber ich sehe, Ihr könnt mir nicht helfen. - Den Google-Sitemapgenerator gibt es nicht mehr. - Ich habe bereits die Seiten manuell in Sitemap.xml eingebaut. - Alle "robots" haben "index, follow" Da muss was ganz Anderes darunter sein. Werde versuchen mit einem neuen Ordner und komplett neuen Seiten etwas zu erwirken. Vielleicht hilft das. Eventuell hat Google diese Seiten gesperrt. Weiss der Kuckuck warum, da die anderen Seiten der gleichen Domain weiterhin laufen. Und? Funktioniert es mittlerweile? Ansonsten könntest du dich a auch einfach mal an Google wenden. Einen Support haben sie ja, auch wenn der nicht der schnellste ist Share this post Link to post Share on other sites