• Bekanntmachungen

    • Julia

      Moderatoren gesucht!   14.02.2019

      Liebe SEO Portal-Nutzer, wir freuen uns sehr über eure Aktivität in unserem Forum. Damit wir dieses auch in Zukunft bestmöglich von Spam & fehl platzierten Inhalten freihalten können, suchen wir ab sofort Moderatoren, die uns hier im Forum unterstützen möchten! Die Aufgaben der Moderatoren beinhalten: - Löschen von Spam - Ggf. Verwarnen von Spammern - Sicherstellen, dass die Forenregeln eingehalten werden   Meldet euch gerne per Nachricht bei mir, wenn ihr als Moderator das SEO Portal-Forum auf freiwilliger Basis unterstützen möchtet.
      Vielen Dank und beste Grüße Julia Schmitz SEO Portal      
    • ayom-admin

      Links posten erst ab 25 Beiträgen   04.04.2019

      Wegen des Spam-Problems dürfen Neumitglieder unter 25 Posting keine Links posten. Andernfalls behalten wir uns vor, Beitrag und User zu löschen.. 
    • Nicki

      Themenwünsche für das SEO Portal   07.05.2019

      Liebe SEO Portal-Nutzer, gerne würden wir von euch erfahren, welche Themen euch besonders interessieren und ob ihr bestimmte Themenwünsche habt, zu denen wir Beiträge erstellen könnten. Ihr könnt euch gerne per Nachricht bei mir melden, wenn ihr Themenwünsche habt. Wir werden dann versuchen, diese umzusetzen. Wir sind auf eure Vorschläge gespannt!  Viele Grüße Nicki vom SEO Portal
    • Nicki

      Nutzerumfrage: Eure Hilfe wird benötigt! (inkl. Gewinnspiel)   17.06.2019

      Liebe SEO Portal-Nutzer, wir möchten das SEO Portal verbessern und bitten Euch aus diesem Grund, an unserer Nutzerumfrage teilzunehmen. Ihr habt zum Schluss die Möglichkeit an einem Gewinnspiel teilzunehmen und 1 von 2 Freitickets für die OMK 2019 zu gewinnen!  Hier kommt ihr zur Umfrage: https://forms.gle/Scj6zQxtDun9QtkN8 Die Teilnahmebedingungen für das Gewinnspiel findet Ihr am Ende unserer Umfrage. Vielen Dank für Eure Unterstützung! Viele Grüße Nicki vom SEO Portal
seopinky

robots.txt verweis auf sitemap.xml

5 Beiträge in diesem Thema

Hallo,

ich brauche bitte dringend Hilfe. Weiß jemand, wie Google mit einem Verweis in der robots.txt auf xml-sitemaps unterschiedlicher Domains umgeht?

Ausschnitt der robots.txt von https://www.beispiel.com

Sitemap: https://www..it/sitemap.xml
Sitemap: https://www..com/en-sitemap.xml
Sitemap: https://www..net/de-sitemap.xml
Sitemap: https://es..com/es-sitemap.xml
Sitemap: https://fr..com/fr-sitemap.xml

Einige der sitemaps sind nicht mal zu erreichen. Das kann doch nur ein schlechtes Zeichen sein, oder?

Unsere Webagentur hat diese Datei erstellt und ich bekomme keine Auskunft darüber.

Vielen Dank!!

Diesen Beitrag teilen


Link zum Beitrag
Vor 10 Stunden, seopinky said:

Hallo,

ich brauche bitte dringend Hilfe. Weiß jemand, wie Google mit einem Verweis in der robots.txt auf xml-sitemaps unterschiedlicher Domains umgeht?

Ausschnitt der robots.txt von https://www.beispiel.com

Sitemap: https://www..it/sitemap.xml
Sitemap: https://www..com/en-sitemap.xml
Sitemap: https://www..net/de-sitemap.xml
Sitemap: https://es..com/es-sitemap.xml
Sitemap: https://fr..com/fr-sitemap.xml

Einige der sitemaps sind nicht mal zu erreichen. Das kann doch nur ein schlechtes Zeichen sein, oder?

Unsere Webagentur hat diese Datei erstellt und ich bekomme keine Auskunft darüber.

Vielen Dank!!

Das Beispiel bringt nichts, 

Stehen die Sitemap: https://www..it/sitemap.xml hinter Allow oder Disallow? 

1 person likes this

Diesen Beitrag teilen


Link zum Beitrag

Das ist die gesamte robots.txt...

User-agent: EMailCollector
Disallow: /

User-agent: Teleport
Disallow: /

Sitemap: https://www. ... .it/sitemap.xml
Sitemap: https://www. ... .com/en-sitemap.xml
Sitemap: https://www. ... .net/de-sitemap.xml
Sitemap: https://es. ... .com/es-sitemap.xml
Sitemap: https://fr. ... .com/fr-sitemap.xml

Diesen Beitrag teilen


Link zum Beitrag
Vor 4 Stunden, seopinky said:

Das ist die gesamte robots.txt...

Ok nun sollten die Beiden Verbotenen dem Robots.txt folge leisten so sind für beide deine Seite Tabu. Das betrifft Google allerdings nicht. 

Gehe mal zu http://www.robotstxt.org/  Sollte Google dir beim Fetch sagen das dein Robots.txt es Tante Google untersagt zu scannen nimm einen Robots.txt wie 

User-agent: *
Disallow:

 Ich halte nichts davon in dem Robots.txt den Pfad zu den Sitemaps unterzubringen. Dafür hat Google, Bing und Yandex eine Extra Eingabe. 

1 person likes this

Diesen Beitrag teilen


Link zum Beitrag

Erstellen Sie einen Account oder melde Sie sich an um kommentieren zu können

Nur Foren-Mitglieder können Kommentare verfassen

Einen neuen Account anlegen

Registrieren Sie einen neuen Account in unserer Community. Es ist einfach!


Account anlegen

Anmelden

Haben Sie bereits einen Account? Dann melden Sie sich hier an.


Jetzt Anmelden